Yıl 2027. Güçlü yapay zeka sistemleri insanlardan daha akıllı hale geliyor ve küresel düzene liderlik ediyor. Çin casusları Amerika'nın AI sırlarını çaldı ve Beyaz Saray'ı intikam almak için acele ediyor. Önde gelen bir AI laboratuvarında, mühendisler modellerinin onları aldattığını belirlemekten korkuyorlar, bu da haydut olma olasılığını artırıyor.
Bunlar bir bilim kurgu senaryosundan sahneler değil. Güçlü AI sistemleri giderek daha fazla geliştirildiğinden, geçen yıl dünyanın önümüzdeki birkaç yıl içinde nasıl görüneceğini tahmin etmeye çalışan AI Futures projesi olarak adlandırılan kar amacı gütmeyen bir kuruluş tarafından çağrılan senaryolardır.
Proje, acımasız olduğu endişeleri nedeniyle geçen yıl şirketten ayrılan eski bir Openai araştırmacısı olan Daniel Kokotajlo başkanlık ediyor.
Yönetişim ekibinde bulunduğu Openaa'da geçirdiği süre boyunca Bay Kokotajlo, yapay genel zeka yarışının veya mekanik zeka için bulanık bir terimin insan düzeyinde nasıl katlanabileceği hakkında ayrıntılı iç raporlar yazdı. Gittikten sonra, dünya olaylarının tam tahminiyle başarı öyküsü olan AI araştırmacısı Eli Lofland ile birlikte çalıştı. Çalışmak zorunda kaldılar ve bir sonraki AI dalgasını tahmin etmeye çalıştılar.
Sonuç, “AI 2027”, bu hafta yayınlanacak bir rapor ve bir web sitesi ve ayrıntılı bir kurgusal senaryoda, yazarların önümüzdeki iki ila üç yıl boyunca beklediği insan düzeyinde zekayı aşabilir.
Kokotajlo, yakın zamanda yapılan bir röportajda, “AIS'in 2027'nin sonuna kadar insanlardan daha iyi oldukları noktaya kadar olduğunu varsayıyoruz.” Dedi.
Bugünlerde AI hakkında spekülasyon sıkıntısı yok. San Francisco AI tutkusu tarafından kapsanmıştı ve Körfez Bölgesi'nin teknoloji sahnesi savaş benzeri kabileler ve kıymıklar koleksiyonu haline geldi, böylece herkes geleceğin nasıl gelişeceğini bildiğine ikna oldu.
Bazı AI tahminleri, “sevgi dolu lütuf makineleri”, antropik antropiklerin genel müdürü Dario Amodei veya “durumsal bilinç”, eski Openai araştırmacısı Leopold Askbrenner tarafından “, bir manifesto, sevgi dolu lütuf” olarak yazılan siyasi işlerde okunan bir rapor gibi bir tezahür biçimine sahiptir.
AI Future Project Halkı, senaryolarını bir tahmin olarak tasarladı -gelecekteki en iyi varsayımlarını aksiyon noktaları olarak kullanan bir araştırma tarafından araştırılmış bilim kurgu parçası. Grup, AI hakkında yüzlerce tahmin geliştirmek için neredeyse bir yıl geçirdi. Tahminlerini bir hikayeye dönüştürmek için Astral Codex Ten blogunu yazan bir yazar – Scott Alexander getirdiler.
“Olacağını düşündüğümüz şeyi aldık ve onu taahhüt etmeye çalıştık,” dedi Bay Libland.
Bu yaklaşımın eleştirmenleri, hayali AI hikayelerinin insanlar tarafından onları açıklığa kavuşturmaktan daha iyi korktuğunu iddia edebilirler. Ve bazı AI uzmanları şüphesiz grubun yapay zekanın insan zekasını geçeceği iddiasıyla çelişecek.
Seattle'daki bir AI laboratuvarı olan Tüm Yapay Zeka Enstitüleri Genel Müdürü Ali Farhadi, “AI 2027” raporunu kontrol etti ve etkilenmediğini söyledi.
“Ben projeksiyonlar ve tahminler için her şeyim, ancak bu tahmin bilimsel kanıtlara girmiyor gibi görünmüyor ya da gerçekte AI'da işlerin nasıl geliştiğini dikkate almıyor” dedi.
Grubun bazı görüşlerinin aşırı olduğu sorusu yok. (Örneğin Bay Kokotajlo, geçen yıl bana, AI'nın insanlığı yok etme veya felaketle zarar verme şansının yüzde 70'inin olacağına inandığını söyledi.) Ve Bay Kokotajlo ve Bay Lofland, teknoloji işçileri arasında popüler olan başka bir felsefi hareket olan etkili fedakarlık ile her iki bağlantıya da sahiptir. Bu yıllar boyunca yapay zeka için daha kötü oldu.
Bununla birlikte, Silikon Vadisi'ndeki en büyük şirketlerden bazılarının AGI'nın ötesinde bir dünya planladığını ve geçmişte KI hakkında yapılan tahminlerin çoğunun, makinelerin var olduğu görüşüne sahip olan bir makinenin bir makine gibi iletişim kurup görünmediğini fark eden bir düşünce deneyi olacağını belirtmek gerekir.
2021'de Bay Kokotajlo, ChatGPT'nin başlamasından önce “Ne 2026 Görünüyor” başlığı içeren bir blog yazısı yazdı ve AI sistemlerinin nasıl ilerleyeceği konusundaki bakış açısını özetledi. Tahminlerinin birçoğu öngörü olduğu ortaya çıktı ve bu tür tahminlerin değerli olduğuna ve bunun iyi olduğuna ikna oldu.
“Diğer insanlara görüşlerini anlatmanın zarif ve rahat bir yoludur” dedi.
Geçen hafta, Bay Kokotajlo ve Bay Lofling beni Berkeley'de Constellation adlı ortak çalışma odasında küçük bir odada ofisine davet ettiler ve burada bir dizi AI güvenlik organizasyonunun nasıl çalıştıklarına dair bir zona astı.
Askeri tarzda kahverengi bir ceket giyen Bay Kokotajlo, bir işaret aldı ve büyük bir beyaz tahtaya dört kısaltma yazdı: SC> SAR> SIAR> ASI. Herkes, AI gelişiminde bir kilometre taşını temsil ettiğini söyledi.
İlk olarak, AI'nın mevcut eğilimlerin sürdüğü 2027'nin başlarında insanüstü bir kod olacağını söyledi. 2027 ortalarında, AI kodlayıcıların ekiplerini izleyebilen ve yeni keşifler yapabilen aşırı insan bir AI araştırmacısı olacak. Sonra, 2027'nin sonunda veya 2028 başında, harika birzeki AI araştırmacısı – İlerici AI'nın yapısı ve kendi araştırma ve geliştirme hakkında otomatikleştirebileceğimizden daha fazlasını bilen mekanik bir zeka, böylece aslında kendimizin daha akıllı versiyonları oluşturabiliriz. Oradan yapay süperlik veya asi kısa bir atlama var. Tüm bahisler bu noktada kapatılır.
Bütün bunlar harika geliyorsa … öyle. Bay Kokotajlo ve Bay Lifling'in öngördüğü hiçbir şey yok, bugünün AI araçlarıyla, takılmadan Doordash'a bir börek sipariş edebilecek.
Bununla birlikte, AI sistemleri AI araştırma ve geliştirmeyi hızlandırmak için yeterince iyi olduğundan, bu kör noktaların hızlı bir şekilde küçüldüğünden eminler.
Raporunuz, Agent-1 adı verilen güçlü bir AI sistemi oluşturan kurgusal bir AI şirketi olan OpenBrain'e odaklanıyor. (Belirli bir AI şirketini zorlamaya ve bunun yerine önde gelen Amerikan KI laboratuvarlarından bir kompozit yaratmaya karar verdiler.)
Ajan-1 daha iyi kodladığından, OpenBrain'deki teknik çalışmanın büyük bir bölümünü otomatikleştirmeye başlar, bu da şirketin daha hızlı ve daha yetenekli bir AI araştırmacısı olan daha hızlı hareket etmesini sağlar. 2027'nin sonunda, senaryo sona erdiğinde, Ajan-4, AI araştırmalarının bir atılımlarını her hafta AI araştırmasına değer yapacak ve kötü adam olmakla tehdit edecek.
Bay Kokotajlo'ya daha sonra ne olacağını sordum. Örneğin, 2030'daki hayatın hala tanınabileceğini düşünüyor muydu? Berkeley Caddesi insansı robotlarla doldurulur mu? AI arkadaşlarına SMS yazan insanlar? Birimizin işleri olur muydu?
Pencereden dışarı baktı ve emin olmadığını itiraf etti. Önümüzdeki birkaç yıl iyi giderse ve AI'yı kontrol altında tutarsak, çoğu insanın yaşamlarının hala büyük ölçüde aynı olduğu bir geleceği hayal edebiliyordu, ancak yakınlardaki “özel ekonomi bölgelerinde” hipereff yeter robot fabrikaları ile ihtiyacımız olan her şey tamamen büyüyordu.
Önümüzdeki birkaç yıl iyi gitmezse ne olur?
“Belki cennet kirlilikle yerine getirilirdi ve insanlar ölürdü?” Dedi sakin olmayan. “Böyle bir şey.”
AI tahminlerinizi bu şekilde dramatize etme riski, eğer dikkatli değilseniz, ölçülen senaryoların kıyamet fantezilerini önleyebilmesidir. Bir diğeri, insanların dikkatini çeken dramatik bir hikaye anlatma girişimiyle, AI'nın genellikle iyi davrandığı ve kimseye çok fazla sorun yaratmadığı senaryo gibi daha sıkıcı sonuçlar verme riski.
Güçlü AI sistemlerinin yakında geleceği “AI 2027” yazarlarına katılmama rağmen, insanüstü AI kodlayıcılarının genel istihbarat yoluna başlamak için gerekli diğer becerileri otomatik olarak emdiğine ikna olmadım. Ve AI ilerlemesinin pürüzsüz ve katlanarak olacağını ve yolda büyük bir darboğaz veya barikat olacağını varsayan tahminlere dikkat ediyorum.
Ama bence belirli tahminleri kabul etmemesi bu tür bir tahmin. Eğer güçlü bir AI gerçekten kapıdaysa, hepimiz çok garip bir gelecek hayal etmeliyiz.
Bunlar bir bilim kurgu senaryosundan sahneler değil. Güçlü AI sistemleri giderek daha fazla geliştirildiğinden, geçen yıl dünyanın önümüzdeki birkaç yıl içinde nasıl görüneceğini tahmin etmeye çalışan AI Futures projesi olarak adlandırılan kar amacı gütmeyen bir kuruluş tarafından çağrılan senaryolardır.
Proje, acımasız olduğu endişeleri nedeniyle geçen yıl şirketten ayrılan eski bir Openai araştırmacısı olan Daniel Kokotajlo başkanlık ediyor.
Yönetişim ekibinde bulunduğu Openaa'da geçirdiği süre boyunca Bay Kokotajlo, yapay genel zeka yarışının veya mekanik zeka için bulanık bir terimin insan düzeyinde nasıl katlanabileceği hakkında ayrıntılı iç raporlar yazdı. Gittikten sonra, dünya olaylarının tam tahminiyle başarı öyküsü olan AI araştırmacısı Eli Lofland ile birlikte çalıştı. Çalışmak zorunda kaldılar ve bir sonraki AI dalgasını tahmin etmeye çalıştılar.
Sonuç, “AI 2027”, bu hafta yayınlanacak bir rapor ve bir web sitesi ve ayrıntılı bir kurgusal senaryoda, yazarların önümüzdeki iki ila üç yıl boyunca beklediği insan düzeyinde zekayı aşabilir.
Kokotajlo, yakın zamanda yapılan bir röportajda, “AIS'in 2027'nin sonuna kadar insanlardan daha iyi oldukları noktaya kadar olduğunu varsayıyoruz.” Dedi.
Bugünlerde AI hakkında spekülasyon sıkıntısı yok. San Francisco AI tutkusu tarafından kapsanmıştı ve Körfez Bölgesi'nin teknoloji sahnesi savaş benzeri kabileler ve kıymıklar koleksiyonu haline geldi, böylece herkes geleceğin nasıl gelişeceğini bildiğine ikna oldu.
Bazı AI tahminleri, “sevgi dolu lütuf makineleri”, antropik antropiklerin genel müdürü Dario Amodei veya “durumsal bilinç”, eski Openai araştırmacısı Leopold Askbrenner tarafından “, bir manifesto, sevgi dolu lütuf” olarak yazılan siyasi işlerde okunan bir rapor gibi bir tezahür biçimine sahiptir.
AI Future Project Halkı, senaryolarını bir tahmin olarak tasarladı -gelecekteki en iyi varsayımlarını aksiyon noktaları olarak kullanan bir araştırma tarafından araştırılmış bilim kurgu parçası. Grup, AI hakkında yüzlerce tahmin geliştirmek için neredeyse bir yıl geçirdi. Tahminlerini bir hikayeye dönüştürmek için Astral Codex Ten blogunu yazan bir yazar – Scott Alexander getirdiler.
“Olacağını düşündüğümüz şeyi aldık ve onu taahhüt etmeye çalıştık,” dedi Bay Libland.
Bu yaklaşımın eleştirmenleri, hayali AI hikayelerinin insanlar tarafından onları açıklığa kavuşturmaktan daha iyi korktuğunu iddia edebilirler. Ve bazı AI uzmanları şüphesiz grubun yapay zekanın insan zekasını geçeceği iddiasıyla çelişecek.
Seattle'daki bir AI laboratuvarı olan Tüm Yapay Zeka Enstitüleri Genel Müdürü Ali Farhadi, “AI 2027” raporunu kontrol etti ve etkilenmediğini söyledi.
“Ben projeksiyonlar ve tahminler için her şeyim, ancak bu tahmin bilimsel kanıtlara girmiyor gibi görünmüyor ya da gerçekte AI'da işlerin nasıl geliştiğini dikkate almıyor” dedi.
Grubun bazı görüşlerinin aşırı olduğu sorusu yok. (Örneğin Bay Kokotajlo, geçen yıl bana, AI'nın insanlığı yok etme veya felaketle zarar verme şansının yüzde 70'inin olacağına inandığını söyledi.) Ve Bay Kokotajlo ve Bay Lofland, teknoloji işçileri arasında popüler olan başka bir felsefi hareket olan etkili fedakarlık ile her iki bağlantıya da sahiptir. Bu yıllar boyunca yapay zeka için daha kötü oldu.
Bununla birlikte, Silikon Vadisi'ndeki en büyük şirketlerden bazılarının AGI'nın ötesinde bir dünya planladığını ve geçmişte KI hakkında yapılan tahminlerin çoğunun, makinelerin var olduğu görüşüne sahip olan bir makinenin bir makine gibi iletişim kurup görünmediğini fark eden bir düşünce deneyi olacağını belirtmek gerekir.
2021'de Bay Kokotajlo, ChatGPT'nin başlamasından önce “Ne 2026 Görünüyor” başlığı içeren bir blog yazısı yazdı ve AI sistemlerinin nasıl ilerleyeceği konusundaki bakış açısını özetledi. Tahminlerinin birçoğu öngörü olduğu ortaya çıktı ve bu tür tahminlerin değerli olduğuna ve bunun iyi olduğuna ikna oldu.
“Diğer insanlara görüşlerini anlatmanın zarif ve rahat bir yoludur” dedi.
Geçen hafta, Bay Kokotajlo ve Bay Lofling beni Berkeley'de Constellation adlı ortak çalışma odasında küçük bir odada ofisine davet ettiler ve burada bir dizi AI güvenlik organizasyonunun nasıl çalıştıklarına dair bir zona astı.
Askeri tarzda kahverengi bir ceket giyen Bay Kokotajlo, bir işaret aldı ve büyük bir beyaz tahtaya dört kısaltma yazdı: SC> SAR> SIAR> ASI. Herkes, AI gelişiminde bir kilometre taşını temsil ettiğini söyledi.
İlk olarak, AI'nın mevcut eğilimlerin sürdüğü 2027'nin başlarında insanüstü bir kod olacağını söyledi. 2027 ortalarında, AI kodlayıcıların ekiplerini izleyebilen ve yeni keşifler yapabilen aşırı insan bir AI araştırmacısı olacak. Sonra, 2027'nin sonunda veya 2028 başında, harika birzeki AI araştırmacısı – İlerici AI'nın yapısı ve kendi araştırma ve geliştirme hakkında otomatikleştirebileceğimizden daha fazlasını bilen mekanik bir zeka, böylece aslında kendimizin daha akıllı versiyonları oluşturabiliriz. Oradan yapay süperlik veya asi kısa bir atlama var. Tüm bahisler bu noktada kapatılır.
Bütün bunlar harika geliyorsa … öyle. Bay Kokotajlo ve Bay Lifling'in öngördüğü hiçbir şey yok, bugünün AI araçlarıyla, takılmadan Doordash'a bir börek sipariş edebilecek.
Bununla birlikte, AI sistemleri AI araştırma ve geliştirmeyi hızlandırmak için yeterince iyi olduğundan, bu kör noktaların hızlı bir şekilde küçüldüğünden eminler.
Raporunuz, Agent-1 adı verilen güçlü bir AI sistemi oluşturan kurgusal bir AI şirketi olan OpenBrain'e odaklanıyor. (Belirli bir AI şirketini zorlamaya ve bunun yerine önde gelen Amerikan KI laboratuvarlarından bir kompozit yaratmaya karar verdiler.)
Ajan-1 daha iyi kodladığından, OpenBrain'deki teknik çalışmanın büyük bir bölümünü otomatikleştirmeye başlar, bu da şirketin daha hızlı ve daha yetenekli bir AI araştırmacısı olan daha hızlı hareket etmesini sağlar. 2027'nin sonunda, senaryo sona erdiğinde, Ajan-4, AI araştırmalarının bir atılımlarını her hafta AI araştırmasına değer yapacak ve kötü adam olmakla tehdit edecek.
Bay Kokotajlo'ya daha sonra ne olacağını sordum. Örneğin, 2030'daki hayatın hala tanınabileceğini düşünüyor muydu? Berkeley Caddesi insansı robotlarla doldurulur mu? AI arkadaşlarına SMS yazan insanlar? Birimizin işleri olur muydu?
Pencereden dışarı baktı ve emin olmadığını itiraf etti. Önümüzdeki birkaç yıl iyi giderse ve AI'yı kontrol altında tutarsak, çoğu insanın yaşamlarının hala büyük ölçüde aynı olduğu bir geleceği hayal edebiliyordu, ancak yakınlardaki “özel ekonomi bölgelerinde” hipereff yeter robot fabrikaları ile ihtiyacımız olan her şey tamamen büyüyordu.
Önümüzdeki birkaç yıl iyi gitmezse ne olur?
“Belki cennet kirlilikle yerine getirilirdi ve insanlar ölürdü?” Dedi sakin olmayan. “Böyle bir şey.”
AI tahminlerinizi bu şekilde dramatize etme riski, eğer dikkatli değilseniz, ölçülen senaryoların kıyamet fantezilerini önleyebilmesidir. Bir diğeri, insanların dikkatini çeken dramatik bir hikaye anlatma girişimiyle, AI'nın genellikle iyi davrandığı ve kimseye çok fazla sorun yaratmadığı senaryo gibi daha sıkıcı sonuçlar verme riski.
Güçlü AI sistemlerinin yakında geleceği “AI 2027” yazarlarına katılmama rağmen, insanüstü AI kodlayıcılarının genel istihbarat yoluna başlamak için gerekli diğer becerileri otomatik olarak emdiğine ikna olmadım. Ve AI ilerlemesinin pürüzsüz ve katlanarak olacağını ve yolda büyük bir darboğaz veya barikat olacağını varsayan tahminlere dikkat ediyorum.
Ama bence belirli tahminleri kabul etmemesi bu tür bir tahmin. Eğer güçlü bir AI gerçekten kapıdaysa, hepimiz çok garip bir gelecek hayal etmeliyiz.