• Forumumuza Moderatörlük ve İçerik Ekibi Alımları Başlamıştır. Başvuru İçin "Zeo" İle İrtibata Geçebilirsiniz.

AI sohbet robotları neden yalan söylüyor ve garip davranıyor? aynaya bak

Teletabi

Administrator
Yetkili
Administrator
Microsoft bu ay Bing arama motoruna bir chatbot eklediğinde, insanlar onun Gap, Meksika gece hayatı ve şarkıcı Billie Eilish hakkında her türlü yanlış bilgiyi sunduğunu fark etti.

Ardından, gazeteciler ve diğer erken testçiler Microsoft’un AI botuyla uzun konuşmalara girdiğinde, somurtkan ve sinir bozucu derecede ürkütücü bir davranışa dönüştü.

Bing bot’un davranışının dünya çapında bir sansasyon haline gelmesinden bu yana, insanlar bu yeni yaratımın tuhaflığını anlamakta zorlandılar. Çoğu zaman, bilim adamları suçun büyük bir kısmını insanların taşıdığını söylemişlerdir.

Ancak yeni sohbet robotunun neler yapabileceği ve bunu neden yapacağı hala bir muamma. Karmaşıklığı analiz etmeyi zorlaştırıyor ve hatta tahmin etmeyi daha da zorlaştırıyor ve araştırmacılar onu hem felsefi bir mercekten hem de bilgisayar biliminin sabit kodundan görüyor.


Diğer herhangi bir öğrenci gibi, bir AI sistemi de kötü kaynaklardan kötü bilgiler öğrenebilir. Ve bu garip davranış? Modern yapay zekanın entelektüel ve teknik temellerinin atılmasına yardımcı olan sinirbilimci, psikolog ve bilgisayar bilimcisi Terry Sejnowski, bunun bir chatbot’un kullanıcıların sözlerini ve niyetlerini çarpıtması olabileceğini söyledi.

Dr. Sejnowski, bu ay bilimsel dergi Neural Computation’da fenomen hakkında bir araştırma makalesi yayınlayan San Diego’daki Salk Biyolojik Araştırmalar Enstitüsü ve Kaliforniya Üniversitesi’nden bir profesör. “Ne arıyorsan – ne arzu ediyorsan – sana onu sağlayacaklar.”


Google ayrıca bu ay yeni bir sohbet robotu olan Bard’ı tanıttı, ancak bilim adamları ve gazeteciler onun James Webb Uzay Teleskobu hakkında saçma sapan şeyler yazdığını hemen anladılar. Bir San Francisco girişimi olan OpenAI, her zaman doğruyu söylemeyen ChatGPT’nin piyasaya sürülmesiyle Kasım ayında chatbot patlamasını başlattı.

Yeni sohbet botları, bilim adamlarının Büyük Dil Modeli veya LLM olarak adlandırdığı bir teknoloji tarafından desteklenmektedir. Bu sistemler, gerçek olmayan, önyargılı ve diğer açılardan toksik materyal içeren, İnternetten gelen büyük miktardaki dijital metni analiz ederek öğrenirler. Sohbet robotlarının öğrendiği metin de biraz eskimiş çünkü halkın kullanabilmesi için onu aylarca analiz etmeleri gerekiyor.


İnternetten gelen bu iyi ve kötü bilgi denizini analiz eden bir LLM, bir şeyi yapmayı öğrenir: bir sonraki kelimeyi bir kelime dizisinde tahmin edin.

Akıllı telefonunuzda bir e-posta veya anlık mesaj yazarken bir sonraki kelimeyi önererek, otomatik tamamlama teknolojisinin dev bir versiyonu gibi çalışır. “Tom Cruise bir ____” sekansı verildiğinde, “aktör” anlamına gelebilir.

Bir chatbot ile sohbet ettiğinizde, bot internetten öğrendiği her şeyi kullanmakla kalmaz. Ona söylediğin her şeye ve onun geri söylediği her şeye dayanıyor. Sadece cümlesindeki bir sonraki kelimeyi tahmin etmeyecek. Hem sizin kelimelerinizi hem de onun kelimelerini içeren uzun metin bloğundaki bir sonraki kelimeyi tahmin eder.

Sohbet ne kadar uzun sürerse, bir kullanıcı bilmeden sohbet robotunun söyledikleri üzerinde o kadar fazla kontrole sahip olur. Sinirlenmesini istersen sinirlenir, dedi Dr. Seynovski. Ürkütücü hale getirirsen, ürkütücü olur.

Microsoft’un chatbot’unun tuhaf davranışına verilen endişe verici yanıt, önemli bir noktayı gölgede bıraktı: chatbot’un kişiliği yok. İnanılmaz derecede karmaşık bir bilgisayar algoritmasıyla ortaya çıkan anında sonuçlar sunar.


Microsoft, Bing sohbet robotu ile tartışmaların süresini sınırladığında en tuhaf davranışı sınırlamış gibi göründü. Bu, bir araba test sürücüsünden çok hızlı sürmenin motoru yakacağını öğrenmek gibiydi. Microsoft’un iş ortağı OpenAI ve Google da botlarının davranışını kontrol etmenin yollarını araştırıyor.

Ancak bu güvencenin bir uyarısı var: Sohbet robotları çok fazla materyalden öğrendiği ve bunları çok karmaşık şekillerde bir araya getirdiği için, araştırmacılar, sohbet robotlarının nihai sonuçları nasıl ürettikleri konusunda tam olarak net değiller. Araştırmacılar, botların ne yaptığını gözlemliyor ve bu davranışa sınırlar koymayı öğreniyor – genellikle olay gerçekleştikten sonra.


Microsoft ve OpenAI, sohbet robotlarının gerçek dünyada ne yapacaklarını öğrenmenin tek yolunun onları serbest bırakmak ve kaybolduklarında onlara yetişmek olduğuna karar verdi. Büyük, halka açık deneylerinin riske girmeye değer olduğuna inanıyorlar.

doktor Sejnowski, Microsoft’un sohbet robotunun davranışını, JK Rowling’in Harry Potter romanlarında ve genç büyücülerden oluşan yaratıcı dünyasına dayanan birçok filmde mistik bir eser olan Mirror of Erised ile karşılaştırdı.


“Erised”, “dilek”in tersten yazılışıdır. İnsanlar aynayı keşfettiklerinde, gerçeği ve anlayışı aktarıyor gibi görünüyor. Ama öyle değil. Ona bakan herkesin derinlere yerleşmiş arzularını ortaya çıkarır. Ve bazı insanlar çok uzun süre bakarlarsa çıldırırlar.

“İnsanlar ve LLM’ler birbirini yansıttıkça, zaman içinde kavramsal bir durumu paylaşma eğiliminde olacaklar” dedi Dr. Seynovski.

Gazetecilerin Bing sohbet robotunda ürkütücü davranışlar görmeye başlamasının şaşırtıcı olmadığını söyledi. Bilinçli ya da bilinçsiz olarak sistemi rahatsız edici bir yöne ittiler. Sohbet robotları sözlerimizi alıp bize yansıttıklarında, inançlarımızı güçlendirip büyütebilirler ve bize söylediklerine inanmamız için bizi kandırabilirler.

doktor Sejnowski, 1970’lerin sonlarında ve 1980’lerin başlarında, günümüzün sohbet robotlarına güç veren sinir ağı adı verilen bir yapay zeka türünü ciddi bir şekilde araştırmaya başlayan küçük bir araştırmacı grubu arasındaydı.

Bir sinir ağı, dijital verileri analiz ederek becerileri öğrenen matematiksel bir sistemdir. Bu, Siri ve Alexa’nın söylediklerinizi tanımasını sağlayan teknolojinin aynısıdır.


2018 civarında, Google ve OpenAI gibi şirketlerden araştırmacılar, kitaplar, Wikipedia makaleleri, sohbet günlükleri ve web’de yayınlanan diğer içerikler dahil olmak üzere çok miktarda dijital metinden öğrenilen sinir ağları oluşturmaya başladı. Tüm bu metinlerde milyarlarca kalıp bularak, bu LLM’ler tweet’ler, blog gönderileri, konuşmalar ve bilgisayar programları dahil olmak üzere metinleri kendileri oluşturmayı öğrendiler. Hatta sohbet bile edebilirler.

Bu sistemler insanlığın bir yansımasıdır. İnsanların internette yayınladıkları metinleri analiz ederek becerilerini öğrenirler.

Ancak New Mexico’daki bağımsız bir laboratuvar olan Santa Fe Enstitüsü’nde yapay zeka araştırmacısı olan Melanie Mitchell, sohbet robotlarının sorunlu bir dil yaratmasının tek nedeninin bu olmadığını söyledi.


Metin oluştururken, bu sistemler İnternette olanları kelimesi kelimesine tekrarlamazlar. Milyarlarca kalıbı birleştirerek yeni metni kendileri üretirler.


Araştırmacılar bu sistemleri yalnızca hakemli bilimsel literatüre göre eğitmiş olsalar bile, yine de bilimsel olarak gülünç olacak ifadeler üretebilirler. Yalnızca doğru metinlerden öğrenmiş olsalar bile, yine de gerçek olmayan şeyler üretebilirler. Yalnızca aklı başında metinlerden ders alsalar bile, yine de ürkütücü bir şey üretebilirlerdi.

“Onu hiçbir şey durduramaz,” dedi Dr. mitchell “Sadece insan konuşmasına benzeyen bir şey üretmeye çalışıyorsun.”

Yapay zeka uzmanları, bu teknolojinin her türlü beklenmedik davranışı sergilediğini uzun zamandır biliyor. Ancak bu davranışı nasıl yorumlayacakları veya sohbet robotlarının ne kadar hızlı geliştiği konusunda her zaman anlaşamıyorlar.

Bu sistemler biz insanların hayal edebileceğinden çok daha fazla veriden öğrendiği için, AI uzmanları bile belirli bir anda neden belirli bir metin oluşturduklarını anlayamıyor.

doktor Sejnowski, yeni sohbet robotlarının uzun vadede insanları daha verimli hale getirme ve onlara işlerini daha iyi ve daha hızlı yapmaları için yollar sunma gücüne sahip olduğuna inandığını söyledi. Ancak bu, hem bu sohbet robotlarını oluşturan şirketler hem de onları kullanan insanlar için bir uyarı ile geliyor: bizi gerçeklerden uzaklaştırıp bazı karanlık yerlere de götürebilirler.

“Bu terra incognita,” dedi Dr. Seynovski. “İnsanlar bunu daha önce hiç yaşamadılar.”
 
Üst