• Forumumuza Moderatörlük ve İçerik Ekibi Alımları Başlamıştır. Başvuru İçin "Zeo" İle İrtibata Geçebilirsiniz.

Yapay zekanın yarattığı tehlikeler tam olarak nedir?

Teletabi

Administrator
Yetkili
Administrator
Mart ayı sonlarında, yapay zeka içinde ve çevresinde çalışan 1.000’den fazla teknoloji lideri, araştırmacı ve diğer uzman, yapay zeka teknolojilerinin “toplum ve insanlık için derin riskler” oluşturduğuna dair uyarıda bulunan açık bir mektup imzaladı.

Tesla CEO’su ve Twitter’ın sahibi Elon Musk’ın da dahil olduğu grup, yapay zeka laboratuvarlarını, teknolojinin arkasındaki tehlikeleri daha iyi anlayabilmeleri için en güçlü sistemlerini geliştirmeyi altı ay boyunca durdurmaya çağırdı.

Mektupta, “Güçlü AI sistemleri, yalnızca etkilerinin olumlu olduğundan ve risklerinin yönetilebilir olduğundan emin olduğumuzda geliştirilmelidir” diyor.

Şu anda 27.000’den fazla imzası olan mektup kısaydı. Dili genişti. Ve mektubun arkasındaki bazı isimlerin KI ile çelişkili bir ilişkisi var gibi görünüyordu. Örneğin Bay Musk, kendi yapay zeka girişimini kuruyor ve mektubu yazan kuruluşun önemli bir bağışçısı.


Ancak mektup, yapay zeka uzmanları arasında en son sistemlerin, özellikle de San Francisco merkezli OpenAI tarafından tanıtılan teknoloji olan GPT-4’ün topluma zarar verebileceğine dair artan bir endişenin altını çizdi. Gelecekteki sistemlerin daha da tehlikeli olacağına inanıyorlardı.

Bazı riskler geldi. Diğerleri aylarca veya yıllarca değil. Yine de diğerleri tamamen varsayımsaldır.

Montreal Üniversitesi’nde profesör ve yapay zeka araştırmacısı olan Yoshua Bengio, “Çok güçlü yapay zeka sistemlerinde neyin yanlış gidebileceğini anlama becerimiz çok zayıf” dedi. “Bu yüzden çok dikkatli olmalıyız.”

Neden endişeleniyorsun?

doktor Bengio belki de mektubu imzalayan en önemli kişidir.

Diğer iki akademisyenle birlikte çalışan Dr. Bengio, son kırk yılını GPT-4 gibi sistemlere güç sağlayan teknolojiyi geliştirmekle geçirdi. 2018 yılında araştırmacılar, sinir ağları üzerindeki çalışmalarından dolayı genellikle “Bilgisayar Biliminde Nobel Ödülü” olarak anılan Turing Ödülü’nü aldılar.


Bir sinir ağı, verileri analiz ederek becerileri öğrenen matematiksel bir sistemdir. Yaklaşık beş yıl önce Google, Microsoft ve OpenAI gibi şirketler, Büyük Dil Modelleri veya LLM’ler adı verilen büyük miktarda dijital metinden öğrenen sinir ağları oluşturmaya başladı.

Bu metinde kalıplar bularak, LLM’ler blog gönderileri, şiir ve bilgisayar programları dahil olmak üzere metinleri kendileri oluşturmayı öğrenirler. Hatta sohbet edebilirsiniz.

Bu teknoloji, bilgisayar programcılarının, yazarların ve diğer çalışanların fikir üretmesine ve işleri daha hızlı yapmasına yardımcı olabilir. Ama doktor Bengio ve diğer uzmanlar ayrıca LLM’lerin istenmeyen ve beklenmeyen davranışları öğrenebileceği konusunda uyardı.

Bu sistemler doğru olmayan, önyargılı ve başka türlü zehirli bilgiler üretebilir. GPT-4 gibi sistemler gerçekleri yanlış anlar ve bilgi uydurur, bu fenomene “halüsinasyon” denir.

Şirketler bu sorunlar üzerinde çalışıyor. Dr gibi uzmanlar Ancak Bengio, araştırmacılar bu sistemleri daha güçlü hale getirdikçe yeni risklerin ortaya çıkmasından korkuyor.

Kısa vadeli risk: dezenformasyon


Bu sistemler, mutlak güvenilirlik gibi görünen bilgiler sağladığından, bunları kullanırken gerçeği kurgudan ayırmak zor olabilir. Uzmanlar, insanların tıbbi tavsiye, duygusal destek ve karar vermek için kullandıkları ham veriler için bu sistemlere güveneceğinden korkuyor.

Arizona Eyalet Üniversitesi’nde bilgisayar bilimi profesörü olan Subbarao Kambhampati, “Bu sistemlerin onlara verdiğiniz her görev için doğru olacağının garantisi yok” dedi.

Uzmanlar, insanların dezenformasyon yaymak için bu sistemleri kötüye kullanmasından da korkuyor. İnsan benzeri şekillerde sohbet edebildikleri için şaşırtıcı derecede ikna edici olabilirler.

“Artık bizimle doğal dil aracılığıyla etkileşime girebilen sistemlerimiz var ve gerçekle sahteyi ayırt edemiyoruz” dedi Dr. bengio


Orta vadeli risk: iş kaybı


Uzmanlar, yeni yapay zekanın iş öldürücü olabileceğinden korkuyor. Şu anda GPT-4 gibi teknolojiler insan işçileri tamamlama eğilimindedir. Ancak OpenAI, web’deki içeriği yöneten kişiler de dahil olmak üzere bazı çalışanların yerini alabileceklerini kabul ediyor.

Henüz avukatların, muhasebecilerin veya doktorların çalışmalarını kopyalayamazsınız. Ancak avukat yardımcılarının, kişisel asistanların ve tercümanların yerini alabilirler.

OpenAI araştırmacıları tarafından yazılan bir makale, ABD’li işçilerin yüzde 80’inin iş görevlerinin en az yüzde 10’unun LLM’lerden etkilendiğini ve çalışanların yüzde 19’unun iş görevlerinin en az yüzde 50’sinin etkilendiğini görebileceğini tahmin ediyor.

Seattle’daki bir araştırma laboratuvarı olan Allen Yapay Zeka Enstitüsü’nün kurucu başkanı Oren Etzioni, “Rutin işlerin ortadan kalktığına dair işaretler var” dedi.

Uzun vadeli risk: kontrol kaybı


Mektubun bazı imzacıları ayrıca yapay zekanın kontrolümüzün ötesinde olabileceğine veya insanlığı yok edebileceğine inanıyor. Ancak birçok uzman bunun büyük bir abartı olduğunu söylüyor.


Mektup, insanlığın karşı karşıya olduğu varoluşsal riskleri araştırmaya adanmış bir kuruluş olan Future of Life Institute’tan bir grup tarafından yazıldı. Yapay zeka sistemlerinin analiz ettikleri çok büyük miktardaki verilerden beklenmedik davranışlar öğrendiği için ciddi, beklenmeyen sorunlara yol açabilecekleri konusunda uyarıyorlar.

Şirketler LLM’leri diğer İnternet hizmetlerine yerleştirirse, bu sistemlerin kendi bilgisayar kodlarını yazabilmeleri sayesinde tarifsiz bir güç kazanabileceğinden korkuyorlar. Geliştiricilerin, güçlü AI sistemlerinin kendi kodlarını çalıştırmasına izin vererek yeni riskler yaratacağını söylüyorlar.

Santa Cruz California Üniversitesi’nde teorik bir kozmolog ve fizikçi ve Future of Life’ın kurucu ortağı Anthony Aguirre, “Şu anda bulunduğumuz yerin üç yıllık düz projeksiyonuna bakarsanız, her şey oldukça garip” dedi. Enstitü.

“Daha az olası bir senaryo alırsanız – olayların gerçekten başladığı, gerçek bir yönetişimin olmadığı, bu sistemlerin düşündüğümüzden daha güçlü olduğu ortaya çıkarsa – o zaman işler gerçekten, gerçekten çılgına döner” dedi.

doktor Etzioni, varoluşsal risklerden bahsetmenin varsayımsal olduğunu söyledi. Ancak diğer risklerin – en önemlisi dezenformasyon – artık spekülasyon olmadığını söyledi.


“Şimdi bazı gerçek sorunlarımız var” dedi. “Sen dürüstsün. Sorumlu bir yanıt gerektirirler. Yönetmeliklere ve yasalara ihtiyaç duyabilirler.”
 
Üst