• Forumumuza Moderatörlük ve İçerik Ekibi Alımları Başlamıştır. Başvuru İçin "Zeo" İle İrtibata Geçebilirsiniz.

Bir bilgisayar korsanının OpenAI sırlarını çalması Çin'in de aynı şeyi yapabileceği korkusunu artırdı

Teletabi

Administrator
Yetkili
Administrator
Geçen yılın başlarında bir bilgisayar korsanı, ChatGPT'nin yapımcısı OpenAI'nin dahili mesajlaşma sistemlerine erişim sağladı ve şirketin yapay zeka teknolojilerinin tasarımıyla ilgili ayrıntıları çaldı.

Olaya aşina iki kişi, bilgisayar korsanının, çalışanların OpenAI'nin en son teknolojileri hakkında konuştuğu çevrimiçi bir forumdaki tartışmaların ayrıntılarını çaldığını söyledi. Ancak şirketin yapay zekasını barındırdığı ve geliştirdiği sistemlere erişim sağlayamadı.

Şirketle ilgili gizli bilgileri tartışmak üzere anonimlik koşuluyla konuşan iki kişiye göre, OpenAI yöneticileri, Nisan 2023'te şirketin San Francisco ofisinde yapılan genel toplantı sırasında olayı çalışanlara açıkladı.

Ancak iki kişi, yöneticilerin müşteriler veya ortaklar hakkında hiçbir bilginin çalınmaması nedeniyle haberi kamuya açıklamamaya karar verdiğini söyledi. Yöneticiler olayı ulusal güvenliğe yönelik bir tehdit olarak görmediler çünkü hackerın yabancı bir hükümetle bilinen hiçbir bağı olmayan özel bir vatandaş olduğuna inanıyorlardı. Şirket, FBI'a veya diğer kolluk kuvvetlerine bilgi vermedi.


Bazı OpenAI çalışanları için bu haber, Çin gibi yabancı düşmanların, şu anda öncelikle bir çalışma ve araştırma aracı olarak hizmet etmesine rağmen sonuçta ABD ulusal güvenliğini tehdit edebilecek yapay zeka teknolojisini çalabileceği korkusunu artırdı. Ayrıca OpenAI'nin güvenliği ne kadar ciddiye aldığına dair sorulara da yol açtı ve yapay zekanın riskleri konusunda şirket içi anlaşmazlıkları ortaya çıkardı.

Veri sızıntısının ardından, görevi gelecekteki yapay zeka teknolojilerinin ciddi zarar vermemesini sağlamak olan OpenAI teknik program yöneticisi Leopold Aschenbrenner, OpenAI'nin yönetim kuruluna bir not gönderdi. İçinde şirketin Çin hükümetinin ve diğer yabancı düşmanların sırlarını çalmasını engellemek için yeterince çaba göstermediğini savundu.

Eski bir OpenAI araştırmacısı olan Leopold Aschenbrenner, geçen ay bir podcast'te güvenlik ihlaline değindi ve endişelerini yineledi.Kredi…YouTube aracılığıyla

Bay Aschenbrenner, OpenAI'nin kendisini dış dünyaya başka bilgiler sızdırdığı için baharda kovduğunu söyledi ve kovulmasının siyasi amaçlı olduğunu savundu. Yakın zamanda yayınlanan bir podcast'te veri hırsızlığından bahsetti ancak olayın ayrıntıları henüz açıklanmadı. OpenAI'nin güvenlik önlemlerinin, yabancı aktörlerin şirkete sızması durumunda önemli sırların çalınmasına karşı koruma sağlayacak kadar güçlü olmadığını söyledi.

OpenAI sözcüsü Liz Bourgeois, “Leopold'un OpenAI'de dile getirdiği endişeleri takdir ediyoruz ve bu onun görevden alınmasıyla sonuçlanmadı” dedi. Şirketin, insan beyninin yaptığı her şeyi yapabilen bir makine olan yapay genel zekayı geliştirme çabalarıyla ilgili olarak şunları ekledi: “Güvenli AGI oluşturma konusundaki kararlılığını paylaşıyor olsak da, O'nun o zamandan bu yana açıklamalarda bulunduğu iddiaların çoğuna katılıyoruz. bizim işimiz değil.”


Bir Amerikan teknoloji şirketinin hacklenmesinin Çin ile bağlantısı olabileceği yönündeki korkular temelsiz değil. Geçtiğimiz ay Microsoft Başkanı Brad Smith, Capitol Hill'de Çinli bilgisayar korsanlarının teknoloji devinin sistemlerini federal hükümetin ağlarına büyük ölçekli bir saldırı başlatmak için nasıl kullandıklarına dair ifade verdi.

Ancak federal ve Kaliforniya yasalarına göre OpenAI, kişileri uyruklarına bağlı olarak şirkette çalışmaktan men edemez. Siyaset bilimciler, yabancı yetenekleri ABD projelerinden hariç tutmanın ABD'deki yapay zeka ilerlemesini önemli ölçüde engelleyebileceğine dikkat çekiyor.

OpenAI güvenlik sorumlusu Matt Knight, Haber'a verdiği röportajda “Bu teknoloji üzerinde çalışan en iyi ve en parlak beyinlere ihtiyacımız var” dedi. “Bazı riskleri de beraberinde getiriyor ve bunları çözmemiz gerekiyor.”

(The Times, AI sistemleriyle ilgili haber içeriğinin telif hakkı ihlali nedeniyle OpenAI ve ortağı Microsoft'a dava açtı.)

OpenAI, hızla gelişen yapay zeka teknolojisini kullanarak giderek daha güçlü sistemler kuran tek şirket değil. Bunlardan bazıları, özellikle de Facebook ve Instagram'ın sahibi Meta, tasarımlarını açık kaynaklı yazılım olarak dünyanın geri kalanına ücretsiz olarak sunuyor. Günümüzün yapay zeka teknolojilerinin oluşturduğu tehditlerin küçük olduğuna ve sektördeki mühendislerin ve araştırmacıların kodu paylaşarak sorunları tanımlayıp çözebileceklerine inanıyorlar.


Günümüzün yapay zeka sistemleri; metin, durağan görüntüler ve giderek artan oranda video dahil olmak üzere yanlış bilgilerin çevrimiçi olarak yayılmasına yardımcı olabilir. Ayrıca bazı işleri ellerinden almaya başlıyorlar.

OpenAI ve rakipleri Anthropic ve Google gibi şirketler, insanların uygulamaları dezenformasyon yaymak veya başka sorunlara neden olmak için kullanmasını engellemek amacıyla yapay zeka uygulamalarını bireylere ve şirketlere sunmadan önce korkuluklar ekliyor.


Ancak günümüzün yapay zeka teknolojilerinin ulusal güvenlik açısından önemli bir risk oluşturduğuna dair çok az kanıt var. OpenAI, Anthropic ve diğerlerinin geçen yıl yaptığı araştırmalar, yapay zekanın arama motorlarından önemli ölçüde daha tehlikeli olmadığını gösterdi. Anthropic'in kurucu ortağı ve başkanı Daniela Amodei, şirketin en son yapay zeka teknolojisinin, tasarımlarının çalınması veya başkalarıyla serbestçe paylaşılması durumunda fazla risk oluşturmayacağını söyledi.

“Eğer başka birine ait olsaydı, bu toplumun büyük bir kısmına büyük zarar verebilir miydi? Cevabımız şu: Hayır, muhtemelen hayır,” dedi geçen ay Times'a. “Kötü bir aktörün gelişimini hızlandırabilir mi? Belki. Bu gerçekten spekülatif.”


Yine de araştırmacılar ve teknoloji yöneticileri uzun süredir yapay zekanın bir gün yeni biyolojik silahların geliştirilmesine katkıda bulunabileceğinden veya hükümetin bilgisayar sistemlerine sızmaya yardımcı olabileceğinden korkuyorlar. Hatta bazıları bunun insanlığı yok edebileceğine inanıyor.

OpenAI ve Anthropic'in de aralarında bulunduğu bir dizi şirket halihazırda teknik operasyonlarını kısıtlıyor. OpenAI yakın zamanda gelecekteki teknolojilerin oluşturduğu riskleri nasıl ele alması gerektiğini incelemek için bir güvenlik komitesi kurdu. Komitede ayrıca Ulusal Güvenlik Teşkilatına ve Siber Komuta'ya liderlik eden eski bir Ordu generali olan Paul Nakasone de yer alıyor. Ayrıca OpenAI'nin yönetim kuruluna atandı.

Knight, “Güvenliğe yatırım yapmaya ChatGPT'den yıllar önce başladık” dedi. “Sadece riskleri anlama ve bunların önünde durma sürecinde değiliz, aynı zamanda dayanıklılığımızı güçlendirme sürecindeyiz.”

Federal ve eyalet politikacıları aynı zamanda şirketlerin belirli yapay zeka teknolojilerini yayınlamasını yasaklayacak ve teknolojilerinin zarar vermesi durumunda milyonlarca para cezası uygulayacak hükümet düzenlemeleri için de baskı yapıyor. Ancak uzmanlar bu tehlikelerin hâlâ yıllar, hatta onlarca yıl uzakta olduğunu söylüyor.


Çinli şirketler neredeyse önde gelen ABD sistemleri kadar güçlü kendi sistemlerini inşa ediyorlar. Bazı rakamlara göre Çin, en büyük yapay zeka yeteneği üreticisi olarak ABD'yi geride bıraktı; Dünyanın önde gelen yapay zeka araştırmacılarının neredeyse yarısı bu ülkeden geliyor.


Dünyanın birçok açık kaynaklı yapay zeka projesine ev sahipliği yapan Hugging Face'in CEO'su Clément Delangue, “Çin'in yakında ABD'nin önünde olacağını düşünmek çılgınca değil” dedi.

Bazı araştırmacılar ve ulusal güvenlik liderleri, mevcut yapay zeka sistemlerinin temelindeki matematiksel algoritmaların bugün güvenli olmasına rağmen tehlikeli hale gelebileceğini savunuyor. Bu nedenle yapay zeka laboratuvarları üzerinde daha sıkı kontroller yapılması çağrısında bulunuyorlar.

Başkan Biden'ın eski iç politika danışmanı ve Başkan Barack Obama'nın eski ulusal güvenlik danışmanı Susan Rice, “En kötü senaryoların gerçekleşme olasılığı nispeten düşük olsa bile, ciddi sonuçları olduğunda bunları ciddiye almak bizim sorumluluğumuzdur” dedi. , geçen ay Silikon Vadisi'ndeki bir etkinlikte söyledi. “Birçok kişinin iddia ettiği gibi bunun bilim kurgu olduğunu düşünmüyorum.”
 
Üst