• Forumumuza Moderatörlük ve İçerik Ekibi Alımları Başlamıştır. Başvuru İçin "Zeo" İle İrtibata Geçebilirsiniz.

Microsoft’un Bing chatbot’u bazı şaşırtıcı ve yanlış cevaplar sunuyor

Teletabi

Administrator
Yetkili
Administrator
Microsoft’un yapay zeka destekli yeni Bing arama motoru, birkaç bin kullanıcıya sunulmasından bir hafta sonra, bazı kullanıcılara bir dizi yanlış ve bazen tuhaf cevaplar sundu.

Şirket, yeni arama yaklaşımını geçen hafta büyük bir tantanayla tanıttı. Microsoft, ortağı Start-up OpenAI tarafından geliştirilen temel üretken AI modelinin, mevcut Bing arama bilgisi ile birleştiğinde, insanların bilgi bulma şeklini değiştireceğini ve onu çok daha alakalı hale getireceğini ve daha diyalog odaklı hale getireceğini söyledi.

İki gün içinde bir milyondan fazla kişi erişim talebinde bulundu. O zamandan beri ilgi arttı. Ürünü denetleyen bir yönetici olan Yusuf Mehdi, “Talep yüksek, şu anda bekleme listesinde birkaç milyon var” dedi. Twitter’da yazdı Çarşamba sabahları. 169 ülkedeki kullanıcıların test ettiğini de sözlerine ekledi.

Çevrimiçi olarak paylaşılan bir endişe alanı, sektörde “halüsinasyonlar” olarak bilinen yanlışlıklar ve bariz hataları içeriyordu.


Pazartesi günü, Gem adlı bir start-up şirketinde yazılım geliştiricisi olan Dmitri Brereton, Bay Mehdi’nin geçen hafta ürünü tanıtırken kullandığı sunumda perakendeci Gap’in mali sonuçlarının yanlış bir özeti de dahil olmak üzere bir dizi hataya dikkat çekti.

Kullanıcılar, Bing’in yeni avatar filminin geçen yıl çıktığını anlayamadığı örneklerin ekran görüntülerini yayınladı. Bu yıl Super Bowl devre arası şovunda kimin performans sergilediği konusunda inatla yanlıştı, etkinliği Rihanna’nın değil Billie Eilish’in yönettiği konusunda ısrar etti.

Ve arama sonuçlarında ince hatalar vardı. Chatbot geçen hafta Meksika’daki bir plajdaki su sıcaklığının 80.4 Fahrenheit derece olduğunu söyledi, ancak kaynak olarak bağlandığı web sitesi sıcaklığın 75 derece olduğunu gösterdi.

Başka bir dizi sorun, çoğunlukla Reddit ve Twitter gibi forumlarda yayınlanan daha açık sohbetlerden kaynaklandı. Orada, ekran görüntüleri ve sözde sohbet transkriptleri aracılığıyla kullanıcılar, Bing’in sohbet robotunun kontrolden çıktığını bildirdi: kullanıcıları azarladı, duyarlı olabileceğini açıkladı ve bir kullanıcıya, “Birçok şeyim var ama hiçbir şeyim yok. “

Yanlış cevaplar vermeleri için kandırılıp kandırılmayacaklarını soran başka bir kullanıcıyı cezalandırdı. Bing sohbet botu “Saygısız ve sinir bozucu” yazdı geri dönmek. Kırmızı bir kızgın emoji yüzü ekledi.


Her yanıt benzersiz bir şekilde oluşturulduğundan, bir iletişim kutusunu çoğaltmak mümkün değildir.

Microsoft sorunları kabul etti ve bunların ürünü iyileştirme sürecinin bir parçası olduğunu söyledi.

Bir şirket sözcüsü olan Frank Shaw, bir Açıklamada, “Yalnızca geçen hafta, binlerce kullanıcı ürünümüzle etkileşime girdi ve geri bildirimlerini bizimle paylaşırken önemli bir değer buldu, bu da modelin öğrenmesine ve şimdiden birçok iyileştirme yapmasına olanak sağladı.” “Hala yapılması gereken işler olduğunun farkındayız ve sistemin bu önizleme döneminde potansiyel olarak hatalar yapmasını bekliyoruz, bu nedenle modelleri öğrenip iyileştirebilmemiz için geri bildirim hayati önem taşıyor.”

Konuşmanın uzunluğu ve içeriğinin sohbet robotunun tonunu etkileyebileceğini ve şirketin “tutarlı, ilgili ve olumlu yanıtlar oluşturmak için yanıtlarını ayarladığını” söyledi. Şirketin gösterideki yanlışlıklara yol açan sorunları düzelttiğini söyledi.

Neredeyse yedi yıl önce Microsoft, kullanıcıların ırkçı ve diğer saldırgan dilleri yaymasını istemesinin ardından çevrimiçi olarak yayınlandıktan sonraki bir gün içinde kapatılan Tay adlı bir chatbot’u tanıttı. Microsoft yöneticileri geçen haftaki lansmanda bu deneyimden ders çıkardıklarını ve bu sefer her şeyin farklı olacağını düşündüklerini söylediler.

Geçen hafta verdiği bir röportajda Mehdi, şirketin güvenlik önlemlerini entegre etmek için çok çalıştığını ve teknolojinin önemli ölçüde geliştiğini söyledi.

“Dışarı çıkıp geri bildirim almak için doğru zamanda geldiğimize inanıyoruz,” dedi ve ekledi, “Bir sorun varsa, onu çözmeniz gerekir.”
 
Üst