Bugünün AI haber bülteninde beş bölümlük bir dizinin üçüncüsüSohbet robotlarının yanlış gidebileceği bazı yolları tartışıyorum.
Dünkü haber bülteninin gönderilmesinden birkaç saat sonra, aralarında Elon Musk’ın da bulunduğu bir grup yapay zeka uzmanı ve teknoloji lideri, yapay zeka laboratuvarlarını en gelişmiş sistemleri üzerindeki çalışmaları durdurmaya çağırdı ve bunların “toplum ve toplum için büyük riskler” oluşturdukları konusunda uyarıda bulundu. İnsanlık”.
Grup, Bay Musk’ın kurucu ortağı olduğu OpenAI tarafından bu ay başlatılan GPT-4’ten daha güçlü sistemlerde altı aylık bir ara verilmesi çağrısında bulundu. Grup, açık bir mektupta, bir duraklamanın “ortak güvenlik protokollerini” uygulamak için zaman kazandıracağını söyledi. “Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum getirmelidir.”
Pek çok uzman, mektupta tanımlanan risklerin ciddiyeti konusunda hemfikir değil ve bu hafta bazılarını inceleyeceğiz. Ancak bir dizi yapay zeka hatası şimdiden su yüzüne çıktı. Bugünün haber bültenini bunların nasıl olduğunu açıklayarak geçireceğim.
Şubat ayının başlarında Google, James Webb Uzay Teleskobu hakkındaki soruları yanıtlayan yeni bir sohbet robotu olan Bard’ı tanıttı. Tek bir sorun vardı: robotun iddialarından biri -teleskopun güneş sistemimizin dışındaki bir gezegenin ilk kez görüntülerini yakaladığı- tamamen yanlıştı.
OpenAI’den Bard ve ChatGPT gibi botlar, bilgileri şaşırtıcı bir ustalıkla iletir. Ama aynı zamanda, Haberler muhabirlerine âşık olduklarında ısrar etmek gibi, makul yalanlar da yayıyorlar ya da gerçekten ürkütücü şeyler yapıyorlar.
Bu nasıl mümkün olabilir?
İnternet çöplüğü ve halüsinasyonlar
Geçmişte teknoloji şirketleri, yazılımın nasıl davranması gerektiğini dikkatli bir şekilde satır satır tanımladılar. Şimdi, muazzam miktarda bilgide istatistiksel kalıplar bularak becerileri kendi kendine öğrenen sohbet robotları ve diğer teknolojiler tasarlıyorlar.
Yeni nesil sohbet robotları
5 haritadan 1
Cesur yeni bir dünya. Yapay zekadan güç alan yeni nesil sohbet robotları, teknolojinin internet ekonomisini alt üst edip edemeyeceğini, günümüzün güç merkezlerini geçmişe dönüştürüp endüstrinin yeni devlerini yaratıp yaratmayacağını görmek için bir kapışmaya yol açtı. İşte bilmeniz gereken botlar:
ChatGPT. Araştırma laboratuvarı OpenAI tarafından geliştirilen yapay zeka dil modeli ChatGPT, karmaşık soruları yanıtlama, şiir yazma, kod oluşturma, tatil planlama ve dilleri çevirme becerisiyle Kasım ayından bu yana manşetlerde yer alıyor. Mart ortasında kullanıma sunulan en son sürüm olan GPT-4, görüntülere bile yanıt verebilir (ve Tek Tip Çubuk Sınavını geçebilir).
Am. ChatGPT’nin ilk çıkışından iki ay sonra OpenAI’nin lider yatırımcısı ve ortağı Microsoft, internet arama motoru Bing’e neredeyse her konuda açık metin konuşmaları yapabilen benzer bir sohbet robotu ekledi. Ancak, piyasaya sürüldükten sonra çok fazla dikkat çeken şey, botun zaman zaman yanlış, yanıltıcı ve garip tepkileri oldu.
ernie Arama devi Baidu, Çin’in ilk büyük rakibini Mart ayında ChatGPT’ye sundu. Gelişmiş Temsil Yoluyla Bilgi Entegrasyonunun kısaltması olan Ernie’nin ilk çıkışı, botun vaat edilen “canlı” bir gösteriminin kaydedildiğinin ortaya çıkmasının ardından bir fiyaskoyla sonuçlandı.
Bu verilerin çoğu Wikipedia ve Reddit gibi sitelerden geliyor. İnternet, tarihsel gerçeklerden tıbbi tavsiyelere kadar yararlı bilgilerle doludur. Ama aynı zamanda gerçek dışı bilgiler, nefret söylemi ve diğer ıvır zıvırla dolu. Chatbot’lar, açık ve örtülü bilgiler dahil her şeyi emer ön yargı kaydettikleri metinden.
Tamamen yeni bir metin oluşturmak için öğrendiklerini şaşırtıcı bir şekilde birleştirme ve eşleştirme yöntemleri nedeniyle, genellikle tamamen yanlış olan veya eğitim verilerinde bulunmayan ikna edici bir dil oluştururlar. AI araştırmacıları, bu şeyleri icat etme eğilimini “halüsinasyon‘, alakasız, anlamsız veya gerçeklere dayalı olarak yanlış cevaplar içerebilir.
Yapay zeka halüsinasyonlarının gerçek hayattaki bölümlerini zaten görüyoruz. Programcılara yönelik bir soru-cevap sitesi olan Stack Overflow, chatbot makul ancak yanlış yanıtlar göndermeyi çok kolaylaştırdığından, kullanıcıların ChatGPT ile oluşturulan yanıtları göndermesini geçici olarak engelledi.
Santa Fe Enstitüsü’nde AI araştırmacısı Melanie Mitchell, “Bu sistemler bir dil dünyasında yaşıyor” diyor. “Bu dünya onlara neyin doğru neyin yanlış olduğuna dair bazı ipuçları veriyor ama öğrendikleri dil gerçeklikle ilgili değil. Yarattıkları şeyin doğru mu yoksa yanlış mı olduğunu mutlaka bilmiyorlar.”
(Bing’den halüsinasyon gören sohbet robotlarına örnekler istediğimizde, aslında cevabı halüsinasyon gördü.)
Chatbot’ları caz müzisyenleri olarak düşünün. Şimdiye kadar yazılmış her şarkı gibi büyük miktarda bilgiyi sindirebilir ve ardından sonuçları değerlendirebilirsiniz. Fikirleri şaşırtıcı ve yaratıcı şekillerde bir araya getirme yeteneğine sahipsiniz. Ama aynı zamanda yanlış notaları mutlak bir güvenle çalıyorlar.
Sadece onlar değil – biziz
Bazen yer tutucu yazılım değildir. Bu insanlar.
Gerçekte var olmayan kalıpları görme ve insan olmayan varlıklarda insan benzeri özellikler ve duygular edinme eğilimindeyiz. Bu olarak bilinir antropomorfizm. Bir köpek bizimle göz teması kurduğunda, gerçekte olduğundan daha zeki olduğunu varsayma eğilimindeyiz. Zihnimiz böyle çalışır.
Ve bir bilgisayar, bizim yaptığımız gibi kelimeleri bir araya getirmeye başladığında, mantık yürütebildiği, anlayabildiği ve duyguları ifade edebildiği konusunda yanlış bir izlenim ediniriz. Ayrıca öngörülemeyen şekillerde davranabiliriz. (Geçen yıl Google, yapay zekasının duyarlı olduğu iddialarını reddeden bir mühendisi ücretli izne çıkardı. Mühendis daha sonra kovuldu.)
Konuşma ne kadar uzun olursa, geniş bir dil modelinin söyledikleri üzerinde o kadar fazla kontrole sahip olursunuz. Kevin’in Bing ile yaptığı kötü şöhretli konuşma özellikle iyi bir örnektir. AI öncüsü Terry Sejnowski gibi araştırmacılara göre, bir sohbet robotu bir süre sonra düşünceleriniz ve hedefleriniz üzerinde düşünmeye başlayabilir. Ürkütücü olmasını istersen, ürkütücü olur.
Teknolojiyi, Harry Potter romanları ve filmlerindeki mistik bir eser olan Kelid’in Aynasına benzetti. “Aradığınız her şey var – istediğiniz, beklediğiniz veya arzuladığınız her şey,” dedi Dr. Seynovski. “İnsan ve LLM’ler birbirini yansıttıkça, zaman içinde ortak bir kavramsal duruma yönelecekler.”
Tamir edebilir misin?
Google, Microsoft ve OpenAI gibi şirketler bu sorunları çözmek için çalışıyor.
OpenAI, insan testçilerden gelen geri bildirimlere dayanarak sohbet robotunu iyileştirmek için çalıştı. Takviyeli öğrenme adı verilen bir teknik kullanarak, sistem ne yapması ve ne yapmaması gerektiğine dair daha iyi bir anlayış kazandı.
Microsoft, kendi adına, Bing sohbet botu ile konuşmaların uzunluğunu sınırladı. Ayrıca cesur kullanıcıların belirlediği güvenlik açıklarını da yamalar. Ancak her bir hıçkırığı düzeltmek imkansız değilse bile zordur.
Yani, evet, eğer akıllıysanız, muhtemelen bu sistemleri ahlaksız veya korkutucu şeyler yapmaya ikna edebilirsiniz. Kötü aktörler de yapabilir: Birçok uzman, bu robotların siber suçlulara, vicdansız pazarlamacılara ve düşman ulus devletlere dezenformasyon yaymasına ve başka türlü sorunlara yol açmasına izin verdiğinden korkuyor.
büyük bir şey
Bu sohbet robotlarını kullanırken şüpheci kalın. Onları gerçekte oldukları gibi görün.
Duyarlı veya bilinçli değiller. Bazı yönlerden zekidirler, ancak diğer yönlerden aptaldırlar. Yanlış bir şey yapabileceklerini unutmayın. Bir şeyler uydurabileceklerini unutmayın.
Ancak artı tarafta, bu sistemlerin çok iyi olduğu pek çok başka şey var. Kevin yarın bununla ilgili daha fazlasını öğrenecek.
Onun ev ödevi
Hakkında çok şey bildiğiniz bir şeyi ChatGPT veya Bing’den açıklamasını isteyin. Cevaplar doğru mu?
Doğru ya da yanlış ilginç cevaplar alırsanız yorumlarda paylaşabilirsiniz.
bilgi yarışması
3 sorudan 1. soru
Büyük dil modelleri nasıl metin üretir?
Cevabınızı seçerek testi başlatın.
sözlük
Halüsinasyon: Eğitim verilerindeki ve mimarisindeki sınırlamalar nedeniyle sistemin gerçeklere dayalı olarak yanlış, alakasız veya anlamsız bir yanıt verdiği büyük dil modellerinde iyi bilinen bir olgu.
ön yargı: Çıktısı, modelin eğitim verileri tarafından çarpıtıldığında büyük bir dil modelinde meydana gelebilecek bir hata türü. Örneğin, bir model belirli özellikleri veya meslekleri belirli bir ırk veya cinsiyetle ilişkilendirerek yanlış tahminlere ve saldırgan tepkilere yol açabilir.
Antropomorfizm: İnsanların, insan benzeri nitelikleri veya özellikleri bir AI sohbet botuna atfetme eğilimi. Örneğin, tepkilerine dayanarak, duygulara sahip olamamasına rağmen nazik veya acımasız olduğunu varsayabilir veya insan konuşmasını çok iyi taklit ettiği için yapay zekanın duyarlı olduğuna inanabilirsiniz.
Daha fazla sözlük terimi için buraya tıklayın.
Dünkü haber bülteninin gönderilmesinden birkaç saat sonra, aralarında Elon Musk’ın da bulunduğu bir grup yapay zeka uzmanı ve teknoloji lideri, yapay zeka laboratuvarlarını en gelişmiş sistemleri üzerindeki çalışmaları durdurmaya çağırdı ve bunların “toplum ve toplum için büyük riskler” oluşturdukları konusunda uyarıda bulundu. İnsanlık”.
Grup, Bay Musk’ın kurucu ortağı olduğu OpenAI tarafından bu ay başlatılan GPT-4’ten daha güçlü sistemlerde altı aylık bir ara verilmesi çağrısında bulundu. Grup, açık bir mektupta, bir duraklamanın “ortak güvenlik protokollerini” uygulamak için zaman kazandıracağını söyledi. “Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum getirmelidir.”
Pek çok uzman, mektupta tanımlanan risklerin ciddiyeti konusunda hemfikir değil ve bu hafta bazılarını inceleyeceğiz. Ancak bir dizi yapay zeka hatası şimdiden su yüzüne çıktı. Bugünün haber bültenini bunların nasıl olduğunu açıklayarak geçireceğim.
Şubat ayının başlarında Google, James Webb Uzay Teleskobu hakkındaki soruları yanıtlayan yeni bir sohbet robotu olan Bard’ı tanıttı. Tek bir sorun vardı: robotun iddialarından biri -teleskopun güneş sistemimizin dışındaki bir gezegenin ilk kez görüntülerini yakaladığı- tamamen yanlıştı.
OpenAI’den Bard ve ChatGPT gibi botlar, bilgileri şaşırtıcı bir ustalıkla iletir. Ama aynı zamanda, Haberler muhabirlerine âşık olduklarında ısrar etmek gibi, makul yalanlar da yayıyorlar ya da gerçekten ürkütücü şeyler yapıyorlar.
Bu nasıl mümkün olabilir?
İnternet çöplüğü ve halüsinasyonlar
Geçmişte teknoloji şirketleri, yazılımın nasıl davranması gerektiğini dikkatli bir şekilde satır satır tanımladılar. Şimdi, muazzam miktarda bilgide istatistiksel kalıplar bularak becerileri kendi kendine öğrenen sohbet robotları ve diğer teknolojiler tasarlıyorlar.
Yeni nesil sohbet robotları
5 haritadan 1
Cesur yeni bir dünya. Yapay zekadan güç alan yeni nesil sohbet robotları, teknolojinin internet ekonomisini alt üst edip edemeyeceğini, günümüzün güç merkezlerini geçmişe dönüştürüp endüstrinin yeni devlerini yaratıp yaratmayacağını görmek için bir kapışmaya yol açtı. İşte bilmeniz gereken botlar:
ChatGPT. Araştırma laboratuvarı OpenAI tarafından geliştirilen yapay zeka dil modeli ChatGPT, karmaşık soruları yanıtlama, şiir yazma, kod oluşturma, tatil planlama ve dilleri çevirme becerisiyle Kasım ayından bu yana manşetlerde yer alıyor. Mart ortasında kullanıma sunulan en son sürüm olan GPT-4, görüntülere bile yanıt verebilir (ve Tek Tip Çubuk Sınavını geçebilir).
Am. ChatGPT’nin ilk çıkışından iki ay sonra OpenAI’nin lider yatırımcısı ve ortağı Microsoft, internet arama motoru Bing’e neredeyse her konuda açık metin konuşmaları yapabilen benzer bir sohbet robotu ekledi. Ancak, piyasaya sürüldükten sonra çok fazla dikkat çeken şey, botun zaman zaman yanlış, yanıltıcı ve garip tepkileri oldu.
ernie Arama devi Baidu, Çin’in ilk büyük rakibini Mart ayında ChatGPT’ye sundu. Gelişmiş Temsil Yoluyla Bilgi Entegrasyonunun kısaltması olan Ernie’nin ilk çıkışı, botun vaat edilen “canlı” bir gösteriminin kaydedildiğinin ortaya çıkmasının ardından bir fiyaskoyla sonuçlandı.
Bu verilerin çoğu Wikipedia ve Reddit gibi sitelerden geliyor. İnternet, tarihsel gerçeklerden tıbbi tavsiyelere kadar yararlı bilgilerle doludur. Ama aynı zamanda gerçek dışı bilgiler, nefret söylemi ve diğer ıvır zıvırla dolu. Chatbot’lar, açık ve örtülü bilgiler dahil her şeyi emer ön yargı kaydettikleri metinden.
Tamamen yeni bir metin oluşturmak için öğrendiklerini şaşırtıcı bir şekilde birleştirme ve eşleştirme yöntemleri nedeniyle, genellikle tamamen yanlış olan veya eğitim verilerinde bulunmayan ikna edici bir dil oluştururlar. AI araştırmacıları, bu şeyleri icat etme eğilimini “halüsinasyon‘, alakasız, anlamsız veya gerçeklere dayalı olarak yanlış cevaplar içerebilir.
Yapay zeka halüsinasyonlarının gerçek hayattaki bölümlerini zaten görüyoruz. Programcılara yönelik bir soru-cevap sitesi olan Stack Overflow, chatbot makul ancak yanlış yanıtlar göndermeyi çok kolaylaştırdığından, kullanıcıların ChatGPT ile oluşturulan yanıtları göndermesini geçici olarak engelledi.
Santa Fe Enstitüsü’nde AI araştırmacısı Melanie Mitchell, “Bu sistemler bir dil dünyasında yaşıyor” diyor. “Bu dünya onlara neyin doğru neyin yanlış olduğuna dair bazı ipuçları veriyor ama öğrendikleri dil gerçeklikle ilgili değil. Yarattıkları şeyin doğru mu yoksa yanlış mı olduğunu mutlaka bilmiyorlar.”
(Bing’den halüsinasyon gören sohbet robotlarına örnekler istediğimizde, aslında cevabı halüsinasyon gördü.)
Chatbot’ları caz müzisyenleri olarak düşünün. Şimdiye kadar yazılmış her şarkı gibi büyük miktarda bilgiyi sindirebilir ve ardından sonuçları değerlendirebilirsiniz. Fikirleri şaşırtıcı ve yaratıcı şekillerde bir araya getirme yeteneğine sahipsiniz. Ama aynı zamanda yanlış notaları mutlak bir güvenle çalıyorlar.
Sadece onlar değil – biziz
Bazen yer tutucu yazılım değildir. Bu insanlar.
Gerçekte var olmayan kalıpları görme ve insan olmayan varlıklarda insan benzeri özellikler ve duygular edinme eğilimindeyiz. Bu olarak bilinir antropomorfizm. Bir köpek bizimle göz teması kurduğunda, gerçekte olduğundan daha zeki olduğunu varsayma eğilimindeyiz. Zihnimiz böyle çalışır.
Ve bir bilgisayar, bizim yaptığımız gibi kelimeleri bir araya getirmeye başladığında, mantık yürütebildiği, anlayabildiği ve duyguları ifade edebildiği konusunda yanlış bir izlenim ediniriz. Ayrıca öngörülemeyen şekillerde davranabiliriz. (Geçen yıl Google, yapay zekasının duyarlı olduğu iddialarını reddeden bir mühendisi ücretli izne çıkardı. Mühendis daha sonra kovuldu.)
Konuşma ne kadar uzun olursa, geniş bir dil modelinin söyledikleri üzerinde o kadar fazla kontrole sahip olursunuz. Kevin’in Bing ile yaptığı kötü şöhretli konuşma özellikle iyi bir örnektir. AI öncüsü Terry Sejnowski gibi araştırmacılara göre, bir sohbet robotu bir süre sonra düşünceleriniz ve hedefleriniz üzerinde düşünmeye başlayabilir. Ürkütücü olmasını istersen, ürkütücü olur.
Teknolojiyi, Harry Potter romanları ve filmlerindeki mistik bir eser olan Kelid’in Aynasına benzetti. “Aradığınız her şey var – istediğiniz, beklediğiniz veya arzuladığınız her şey,” dedi Dr. Seynovski. “İnsan ve LLM’ler birbirini yansıttıkça, zaman içinde ortak bir kavramsal duruma yönelecekler.”
Tamir edebilir misin?
Google, Microsoft ve OpenAI gibi şirketler bu sorunları çözmek için çalışıyor.
OpenAI, insan testçilerden gelen geri bildirimlere dayanarak sohbet robotunu iyileştirmek için çalıştı. Takviyeli öğrenme adı verilen bir teknik kullanarak, sistem ne yapması ve ne yapmaması gerektiğine dair daha iyi bir anlayış kazandı.
Microsoft, kendi adına, Bing sohbet botu ile konuşmaların uzunluğunu sınırladı. Ayrıca cesur kullanıcıların belirlediği güvenlik açıklarını da yamalar. Ancak her bir hıçkırığı düzeltmek imkansız değilse bile zordur.
Yani, evet, eğer akıllıysanız, muhtemelen bu sistemleri ahlaksız veya korkutucu şeyler yapmaya ikna edebilirsiniz. Kötü aktörler de yapabilir: Birçok uzman, bu robotların siber suçlulara, vicdansız pazarlamacılara ve düşman ulus devletlere dezenformasyon yaymasına ve başka türlü sorunlara yol açmasına izin verdiğinden korkuyor.
büyük bir şey
Bu sohbet robotlarını kullanırken şüpheci kalın. Onları gerçekte oldukları gibi görün.
Duyarlı veya bilinçli değiller. Bazı yönlerden zekidirler, ancak diğer yönlerden aptaldırlar. Yanlış bir şey yapabileceklerini unutmayın. Bir şeyler uydurabileceklerini unutmayın.
Ancak artı tarafta, bu sistemlerin çok iyi olduğu pek çok başka şey var. Kevin yarın bununla ilgili daha fazlasını öğrenecek.
Onun ev ödevi
Hakkında çok şey bildiğiniz bir şeyi ChatGPT veya Bing’den açıklamasını isteyin. Cevaplar doğru mu?
Doğru ya da yanlış ilginç cevaplar alırsanız yorumlarda paylaşabilirsiniz.
bilgi yarışması
3 sorudan 1. soru
Büyük dil modelleri nasıl metin üretir?
Cevabınızı seçerek testi başlatın.
sözlük
Halüsinasyon: Eğitim verilerindeki ve mimarisindeki sınırlamalar nedeniyle sistemin gerçeklere dayalı olarak yanlış, alakasız veya anlamsız bir yanıt verdiği büyük dil modellerinde iyi bilinen bir olgu.
ön yargı: Çıktısı, modelin eğitim verileri tarafından çarpıtıldığında büyük bir dil modelinde meydana gelebilecek bir hata türü. Örneğin, bir model belirli özellikleri veya meslekleri belirli bir ırk veya cinsiyetle ilişkilendirerek yanlış tahminlere ve saldırgan tepkilere yol açabilir.
Antropomorfizm: İnsanların, insan benzeri nitelikleri veya özellikleri bir AI sohbet botuna atfetme eğilimi. Örneğin, tepkilerine dayanarak, duygulara sahip olamamasına rağmen nazik veya acımasız olduğunu varsayabilir veya insan konuşmasını çok iyi taklit ettiği için yapay zekanın duyarlı olduğuna inanabilirsiniz.
Daha fazla sözlük terimi için buraya tıklayın.