Geçen ay, yapay zeka dünyasının yüzlerce tanınmış figürü, yapay zekanın bir gün insanlığı yok edebileceği uyarısında bulunan açık bir mektup imzaladı.
Tek cümlelik açıklamada, “Yapay zekanın neden olduğu yok olma riskini kontrol altına almak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal risklerin yanı sıra küresel bir öncelik olmalıdır.”
Mektup, özellikle ayrıntılardan yoksun olan AI hakkında bir dizi uğursuz uyarının sonuncusuydu. Bugünün AI sistemleri insanlığı yok edemez. Bazıları zorlukla toplama ve çıkarma yapabilir. AI hakkında en bilgili insanlar neden bu kadar endişeli?
Korkunç senaryo.
Bir gün, teknoloji endüstrisinin Cassandra’ları, şirketler, hükümetler veya bağımsız araştırmacılar, ekonomiden savaşa kadar her şeyi halletmek için güçlü AI sistemlerini kullanabilirler. Bu sistemler, yapmalarını istemediğimiz şeyleri yapabilir. Ve insanlar müdahale etmeye veya onları kapatmaya çalıştığında, çalışmaya devam edebilmek için savaşabilir ve hatta kendilerini yeniden üretebilirler.
Montreal Üniversitesi’nde profesör ve AI araştırmacısı olan Yoshua Bengio, “Bugünün sistemleri varoluşsal bir riskin yakınından bile geçmiyor” dedi. “Ama bir, iki, beş yıl içinde? Çok fazla belirsizlik var. İşte sorun bu. Bir noktada bir felaket olmayacağından emin değiliz.”
Endişelenenler genellikle basit bir mecaz kullanmışlardır. Bir makineden olabildiğince çok ataç yapmasını isterseniz, kendini kaptırabilir ve insanlık dahil her şeyi ataç fabrikalarına çevirebilir.
Bunun gerçek dünyayla – veya çok uzun olmayan bir süre sonra hayali bir dünyayla – nasıl bir ilişkisi var? Şirketler, AI sistemlerine artan özerklik verebilir ve bunları elektrik şebekeleri, borsalar ve askeri silahlar gibi hayati altyapılara bağlayabilir. Oradan sorunlara neden olabilirler.
Pek çok uzmana göre, bu ancak son bir yılda, OpenAI gibi şirketler teknolojilerinde önemli gelişmeler gösterdiğinde çok makul görünüyordu. Bu, AI bu kadar hızlı ilerlemeye devam ederse nelerin mümkün olabileceğini gösterdi.
Kaliforniya Üniversitesi, Santa Cruz’da kozmolog ve yapay zekanın kurucusu Anthony Aguirre, “Yapay zeka yetkilendirilmeye devam ediyor ve daha özerk hale geldikçe, günümüz insanlarının ve insanlar tarafından yönetilen kurumların karar alma ve düşünme süreçlerini gasp edebilir” dedi. Future of Life Enstitüsü, iki açık mektuptan birinin arkasındaki kuruluş.
“Sonunda, toplumu ve ekonomiyi yöneten büyük makinenin gerçekten insan kontrolünde olmadığı ve kapatılamayacağı, S&P 500’den daha fazla kapatılamayacağı netleşecek” dedi.
En azından teori bu. Diğer AI uzmanları bunun saçma bir önerme olduğunu düşünüyor.
Seattle’daki bir araştırma laboratuvarı olan Allen Institute for AI’nın kurucusu ve yönetici direktörü Oren Etzioni, “Varsayım, varoluşsal risk tartışması hakkında düşündüklerimi ortaya koymanın çok kibar bir yolu” dedi.
AI’nın bunu gerçekleştirebileceğine dair herhangi bir işaret var mı?
Pek değil. Ancak araştırmacılar, ChatGPT gibi sohbet robotlarını ürettikleri metne göre işlem yapabilen sistemlere dönüştürüyor. AutoGPT adlı bir proje en iyi örnektir.
Fikir, sisteme “bir iş kurmak” veya “biraz para kazanmak” gibi hedefler vermektir. Ardından, özellikle diğer internet hizmetlerine bağlıyken, bu amaca ulaşmanın yollarını aramaya devam edecektir.
AutoGPT gibi bir sistem bilgisayar programları üretebilir. Araştırmacılar ona bir bilgisayar sunucusuna erişim izni verirse, bu programlar gerçekten çalışabilir. Teorik olarak bu, AutoGPT’nin çevrimiçi olarak neredeyse her şeyi yapmasının bir yoludur – bilgi almak, uygulamaları kullanmak, yeni uygulamalar oluşturmak ve hatta kendini geliştirmek.
AutoGPT gibi sistemler şu anda iyi çalışmıyor. Sonsuz döngülerde sıkışıp kalma eğilimindedirler. Araştırmacılar bir sisteme çoğaltmak için ihtiyaç duyduğu tüm kaynakları verdi. Yapamadı.
Zamanla, bu sınırlamalar çözülebilir.
Yapay zeka teknolojilerini insani değerlerle dengelemeyi hedeflediğini söyleyen Conjecture şirketinin kurucusu Connor Leahy, “İnsanlar aktif olarak kendilerini geliştiren sistemler yaratmaya çalışıyor” dedi. “Şu anda çalışmıyor. Ama bir gün olacak. Ve o günün ne zaman olduğunu bilmiyoruz.”
Bay Leahy, araştırmacıların, şirketlerin ve suçluların bu sistemlere “biraz para kazanmak” gibi hedefler koymaları halinde, birisi bunu denerse bankacılık sistemlerine girip bir devrim başlatabileceklerini veya petrol vadeli işlemlerinin ellerinde olduğu bir ülkede kendilerini yeniden üretebileceklerini savunuyor. onları değiştirmek için.
AI sistemleri yanlış davranmayı nerede öğrenir?
ChatGPT gibi AI sistemleri, verileri analiz ederek becerileri öğrenebilen nöral ağlara, matematiksel sistemlere dayanır.
2018 civarında, Google ve OpenAI gibi şirketler, internetten büyük miktarda dijital metin öğrenen sinir ağları oluşturmaya başladı. Tüm bu verilerde kalıplar bularak bu sistemler, haber makaleleri, şiirler, bilgisayar programları ve hatta insan benzeri konuşmalar dahil olmak üzere metinleri kendileri oluşturmayı öğrenirler. Sonuç: ChatGPT gibi sohbet robotları.
Bu sistemler, yaratıcılarının bile anlayabileceğinden daha fazla veriden öğrendikleri için beklenmedik davranışlar da sergilerler. Araştırmacılar yakın zamanda çevrimiçi bir sistemin bir Captcha testini yenmek için bir insanı işe alabileceğini gösterdi. İnsan, “robot” olup olmadığını sorduğunda, sistem yalan söyledi ve görme engelli bir kişi olduğunu söyledi.
Bazı uzmanlar, bu sistemleri daha güçlü hale getirerek ve onları sürekli artan miktarda veriyle eğiterek araştırmacıların daha da kötü alışkanlıklar öğrenebileceğinden endişe ediyor.
Bu uyarıların arkasında kimler var?
2000’lerin başında Eliezer Yudkowsky adlı genç bir yazar, yapay zekanın insanlığı yok edebileceği konusunda uyarılarda bulunmaya başladı. Çevrimiçi katkıları bir inananlar topluluğunu besledi. Rasyonalistler veya etkili fedakarlar olarak adlandırılan bu topluluk, akademi, hükümet düşünce kuruluşları ve teknoloji endüstrisinde muazzam bir etki kazandı.
Bay Yudkowsky ve yazıları, Google’ın 2014 yılında satın aldığı bir yapay zeka laboratuvarı olan OpenAI ve DeepMind’in oluşturulmasında kilit rol oynadı. Ve “EA” topluluğundan pek çok kişi bu laboratuvarlarda çalıştı. Yapay zekanın tehlikelerini anladıkları için onu inşa edecek en iyi konumda olduklarına inanıyorlardı.
Yakın zamanda yapay zekanın risklerine ilişkin açık mektuplar yayınlayan iki kuruluş – Yapay Zeka Güvenliği Merkezi ve Yaşamın Geleceği Enstitüsü – bu hareketle yakından ilişkilidir.
En son uyarılar, uzun süredir riskler konusunda uyarıda bulunan Elon Musk gibi araştırma öncülerinden ve endüstri liderlerinden de geliyor. Son mektup, OpenAI CEO’su Sam Altman tarafından imzalandı. ve DeepMind’in kurulmasına yardımcı olan ve şimdi DeepMind ile Google’ın en iyi araştırmacılarını bir araya getiren yeni bir yapay zeka laboratuvarına liderlik eden Demis Hassabis.
Diğer ileri gelenler, uyarı mektuplarından birini veya her ikisini de imzaladılar, Dr. Yakın zamanda Google’da yönetici ve araştırmacı olarak istifa eden Bengio ve Geoffrey Hinton. 2018 yılında, sinir ağları üzerindeki çalışmaları nedeniyle genellikle “Bilgisayar Biliminde Nobel Ödülü” olarak anılan Turing Ödülü’nü aldılar.
Tek cümlelik açıklamada, “Yapay zekanın neden olduğu yok olma riskini kontrol altına almak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal risklerin yanı sıra küresel bir öncelik olmalıdır.”
Mektup, özellikle ayrıntılardan yoksun olan AI hakkında bir dizi uğursuz uyarının sonuncusuydu. Bugünün AI sistemleri insanlığı yok edemez. Bazıları zorlukla toplama ve çıkarma yapabilir. AI hakkında en bilgili insanlar neden bu kadar endişeli?
Korkunç senaryo.
Bir gün, teknoloji endüstrisinin Cassandra’ları, şirketler, hükümetler veya bağımsız araştırmacılar, ekonomiden savaşa kadar her şeyi halletmek için güçlü AI sistemlerini kullanabilirler. Bu sistemler, yapmalarını istemediğimiz şeyleri yapabilir. Ve insanlar müdahale etmeye veya onları kapatmaya çalıştığında, çalışmaya devam edebilmek için savaşabilir ve hatta kendilerini yeniden üretebilirler.
Montreal Üniversitesi’nde profesör ve AI araştırmacısı olan Yoshua Bengio, “Bugünün sistemleri varoluşsal bir riskin yakınından bile geçmiyor” dedi. “Ama bir, iki, beş yıl içinde? Çok fazla belirsizlik var. İşte sorun bu. Bir noktada bir felaket olmayacağından emin değiliz.”
Endişelenenler genellikle basit bir mecaz kullanmışlardır. Bir makineden olabildiğince çok ataç yapmasını isterseniz, kendini kaptırabilir ve insanlık dahil her şeyi ataç fabrikalarına çevirebilir.
Bunun gerçek dünyayla – veya çok uzun olmayan bir süre sonra hayali bir dünyayla – nasıl bir ilişkisi var? Şirketler, AI sistemlerine artan özerklik verebilir ve bunları elektrik şebekeleri, borsalar ve askeri silahlar gibi hayati altyapılara bağlayabilir. Oradan sorunlara neden olabilirler.
Pek çok uzmana göre, bu ancak son bir yılda, OpenAI gibi şirketler teknolojilerinde önemli gelişmeler gösterdiğinde çok makul görünüyordu. Bu, AI bu kadar hızlı ilerlemeye devam ederse nelerin mümkün olabileceğini gösterdi.
Kaliforniya Üniversitesi, Santa Cruz’da kozmolog ve yapay zekanın kurucusu Anthony Aguirre, “Yapay zeka yetkilendirilmeye devam ediyor ve daha özerk hale geldikçe, günümüz insanlarının ve insanlar tarafından yönetilen kurumların karar alma ve düşünme süreçlerini gasp edebilir” dedi. Future of Life Enstitüsü, iki açık mektuptan birinin arkasındaki kuruluş.
“Sonunda, toplumu ve ekonomiyi yöneten büyük makinenin gerçekten insan kontrolünde olmadığı ve kapatılamayacağı, S&P 500’den daha fazla kapatılamayacağı netleşecek” dedi.
En azından teori bu. Diğer AI uzmanları bunun saçma bir önerme olduğunu düşünüyor.
Seattle’daki bir araştırma laboratuvarı olan Allen Institute for AI’nın kurucusu ve yönetici direktörü Oren Etzioni, “Varsayım, varoluşsal risk tartışması hakkında düşündüklerimi ortaya koymanın çok kibar bir yolu” dedi.
AI’nın bunu gerçekleştirebileceğine dair herhangi bir işaret var mı?
Pek değil. Ancak araştırmacılar, ChatGPT gibi sohbet robotlarını ürettikleri metne göre işlem yapabilen sistemlere dönüştürüyor. AutoGPT adlı bir proje en iyi örnektir.
Fikir, sisteme “bir iş kurmak” veya “biraz para kazanmak” gibi hedefler vermektir. Ardından, özellikle diğer internet hizmetlerine bağlıyken, bu amaca ulaşmanın yollarını aramaya devam edecektir.
AutoGPT gibi bir sistem bilgisayar programları üretebilir. Araştırmacılar ona bir bilgisayar sunucusuna erişim izni verirse, bu programlar gerçekten çalışabilir. Teorik olarak bu, AutoGPT’nin çevrimiçi olarak neredeyse her şeyi yapmasının bir yoludur – bilgi almak, uygulamaları kullanmak, yeni uygulamalar oluşturmak ve hatta kendini geliştirmek.
AutoGPT gibi sistemler şu anda iyi çalışmıyor. Sonsuz döngülerde sıkışıp kalma eğilimindedirler. Araştırmacılar bir sisteme çoğaltmak için ihtiyaç duyduğu tüm kaynakları verdi. Yapamadı.
Zamanla, bu sınırlamalar çözülebilir.
Yapay zeka teknolojilerini insani değerlerle dengelemeyi hedeflediğini söyleyen Conjecture şirketinin kurucusu Connor Leahy, “İnsanlar aktif olarak kendilerini geliştiren sistemler yaratmaya çalışıyor” dedi. “Şu anda çalışmıyor. Ama bir gün olacak. Ve o günün ne zaman olduğunu bilmiyoruz.”
Bay Leahy, araştırmacıların, şirketlerin ve suçluların bu sistemlere “biraz para kazanmak” gibi hedefler koymaları halinde, birisi bunu denerse bankacılık sistemlerine girip bir devrim başlatabileceklerini veya petrol vadeli işlemlerinin ellerinde olduğu bir ülkede kendilerini yeniden üretebileceklerini savunuyor. onları değiştirmek için.
AI sistemleri yanlış davranmayı nerede öğrenir?
ChatGPT gibi AI sistemleri, verileri analiz ederek becerileri öğrenebilen nöral ağlara, matematiksel sistemlere dayanır.
2018 civarında, Google ve OpenAI gibi şirketler, internetten büyük miktarda dijital metin öğrenen sinir ağları oluşturmaya başladı. Tüm bu verilerde kalıplar bularak bu sistemler, haber makaleleri, şiirler, bilgisayar programları ve hatta insan benzeri konuşmalar dahil olmak üzere metinleri kendileri oluşturmayı öğrenirler. Sonuç: ChatGPT gibi sohbet robotları.
Bu sistemler, yaratıcılarının bile anlayabileceğinden daha fazla veriden öğrendikleri için beklenmedik davranışlar da sergilerler. Araştırmacılar yakın zamanda çevrimiçi bir sistemin bir Captcha testini yenmek için bir insanı işe alabileceğini gösterdi. İnsan, “robot” olup olmadığını sorduğunda, sistem yalan söyledi ve görme engelli bir kişi olduğunu söyledi.
Bazı uzmanlar, bu sistemleri daha güçlü hale getirerek ve onları sürekli artan miktarda veriyle eğiterek araştırmacıların daha da kötü alışkanlıklar öğrenebileceğinden endişe ediyor.
Bu uyarıların arkasında kimler var?
2000’lerin başında Eliezer Yudkowsky adlı genç bir yazar, yapay zekanın insanlığı yok edebileceği konusunda uyarılarda bulunmaya başladı. Çevrimiçi katkıları bir inananlar topluluğunu besledi. Rasyonalistler veya etkili fedakarlar olarak adlandırılan bu topluluk, akademi, hükümet düşünce kuruluşları ve teknoloji endüstrisinde muazzam bir etki kazandı.
Bay Yudkowsky ve yazıları, Google’ın 2014 yılında satın aldığı bir yapay zeka laboratuvarı olan OpenAI ve DeepMind’in oluşturulmasında kilit rol oynadı. Ve “EA” topluluğundan pek çok kişi bu laboratuvarlarda çalıştı. Yapay zekanın tehlikelerini anladıkları için onu inşa edecek en iyi konumda olduklarına inanıyorlardı.
Yakın zamanda yapay zekanın risklerine ilişkin açık mektuplar yayınlayan iki kuruluş – Yapay Zeka Güvenliği Merkezi ve Yaşamın Geleceği Enstitüsü – bu hareketle yakından ilişkilidir.
En son uyarılar, uzun süredir riskler konusunda uyarıda bulunan Elon Musk gibi araştırma öncülerinden ve endüstri liderlerinden de geliyor. Son mektup, OpenAI CEO’su Sam Altman tarafından imzalandı. ve DeepMind’in kurulmasına yardımcı olan ve şimdi DeepMind ile Google’ın en iyi araştırmacılarını bir araya getiren yeni bir yapay zeka laboratuvarına liderlik eden Demis Hassabis.
Diğer ileri gelenler, uyarı mektuplarından birini veya her ikisini de imzaladılar, Dr. Yakın zamanda Google’da yönetici ve araştırmacı olarak istifa eden Bengio ve Geoffrey Hinton. 2018 yılında, sinir ağları üzerindeki çalışmaları nedeniyle genellikle “Bilgisayar Biliminde Nobel Ödülü” olarak anılan Turing Ödülü’nü aldılar.