Önde gelen yapay zeka girişimi Anthropic'in CEO'su Dario Amodei geçen yıl Kongre'ye, yeni yapay zeka teknolojisinin yakında vasıfsız ancak kötü niyetli insanların, hastalık ve ölüme kadar yaygın etkileri olan virüsleri veya toksik maddeleri salarak büyük ölçekli biyolojik saldırılar gerçekleştirmesine yardımcı olabileceğini söyledi. .
Her iki partiden senatörler alarma geçerken endüstri ve akademideki yapay zeka araştırmacıları tehdidin ne kadar ciddi olabileceğini tartıştı.
Şimdi, yeni proteinler (biyolojideki tüm yaratılışı yönlendiren mikroskobik mekanizmalar) geliştirmek için yapay zeka teknolojilerinde uzmanlaşan 90'dan fazla biyolog ve diğer bilim insanı, dünyayı ciddi bir zarara maruz bırakmadan yapay zeka destekli araştırmalarının ilerlemesini sağlamak için tasarlanmış bir anlaşma imzaladı.
Nobel ödüllü Frances Arnold'un da aralarında bulunduğu ve ABD ve diğer ülkelerdeki laboratuvarları temsil eden biyologlar, yeni aşılar ve ilaçlar da dahil olmak üzere en son teknolojilerin dezavantajlardan çok daha fazla avantaja sahip olduğunu savundu.
Anlaşmada, “Bu çalışmaya katılan bilim insanları olarak, mevcut yapay zeka teknolojilerinin protein tasarımına yönelik faydalarının, zarar potansiyelinden çok daha ağır bastığına inanıyoruz ve araştırmamızın gelecekte de herkese fayda sağlamaya devam etmesini sağlamak istiyoruz” ifadeleri yer alıyor.
Anlaşma, yapay zeka teknolojilerinin geliştirilmesini veya dağıtımını engellemeyi amaçlamıyor. Bunun yerine biyologlar yeni genetik materyal üretmek için gereken ekipmanın kullanımını düzenlemek istiyorlar.
Anlaşmanın uygulanmasına yardımcı olan Washington Üniversitesi Protein Tasarımı Enstitüsü müdürü David Baker, bu DNA üreten ekipmanın sonuçta biyolojik silahların geliştirilmesine olanak sağlayacağını söyledi.
Bir röportajda “Protein tasarımı, sentetik protein yapımında sadece ilk adımdır” dedi. “Daha sonra DNA'yı gerçekten sentezlemeniz ve tasarımı bilgisayardan gerçek dünyaya aktarmanız gerekiyor; düzenleme için doğru yer burası.”
Anlaşma, yapay zekanın risklerini potansiyel faydalarına karşı dengelemeye yönelik birçok çabadan biri. Bazı uzmanlar, yapay zeka teknolojilerinin dezenformasyonun yayılmasına, alışılmadık bir hızda işlerin değiştirilmesine ve hatta belki de insanlığın yok edilmesine yardımcı olabileceği konusunda uyarsa da, teknoloji şirketleri, akademik laboratuvarlar, düzenleyiciler ve yasa yapıcılar bu riskleri anlamakta ve onlarla yüzleşmenin yollarını bulmakta zorlanıyor.
Dr. Amodei'nin şirketi Anthropic, çevrimiçi sohbet robotlarına güç veren yeni teknoloji türü olan büyük dil modelleri veya LLM'ler geliştiriyor. Kongre önünde ifade verirken, teknolojinin yakında saldırganların yeni biyolojik silahlar oluşturmasına yardımcı olabileceğini savundu.
Ancak bugün bunun mümkün olmadığını kabul etti. Anthropic yakın zamanda birisi biyolojik silahlar edinmeye veya geliştirmeye çalıştığında LLM'lerin normal bir İnternet arama motorundan marjinal olarak daha yararlı olduğunu gösteren ayrıntılı bir çalışma yürütmüştü.
Dr. Amodei ve diğerleri, şirketlerin LLM'leri geliştirmesi ve bunları diğer teknolojilerle birleştirmesi durumunda ciddi bir tehdidin ortaya çıkmasından korkuyor. Kongreye bunun yalnızca iki ila üç yıl uzakta olduğunu söyledi.
Çevrimiçi sohbet robotu ChatGPT'nin yapımcısı OpenAI daha sonra benzer bir çalışma yürüterek Yüksek Lisans'ların arama motorlarından önemli ölçüde daha tehlikeli olmadığını gösterdi. Massachusetts Teknoloji Enstitüsü'nde bilgisayar bilimi profesörü ve OpenAI'nin hazırlık bölümünün başkanı Aleksander Mądry, araştırmacıların bu sistemleri geliştirmeye devam etmesini beklediğini ancak henüz bunların üretilecek yeni biyolojik silahlar üretebileceklerine dair kanıt görmediğini söyledi.
Günümüzün Yüksek Lisans'ları, İnternet'teki büyük miktardaki dijital metnin analiz edilmesiyle oluşturulmaktadır. Bu, biyolojik saldırılarla ilgili mevcut bilgiler de dahil olmak üzere, halihazırda çevrimiçi olarak mevcut olan şeyleri yeniden ürettikleri veya yeniden birleştirdikleri anlamına gelir. (Haberler, OpenAI ve ortağı Microsoft'a, süreç sırasında telif hakkı ihlali yapmakla suçlayarak dava açtı.)
Ancak yeni ilaçların, aşıların ve diğer faydalı biyolojik materyallerin gelişimini hızlandırmak için araştırmacılar, yeni protein tasarımları üretebilecek benzer yapay zeka sistemleri geliştirmeye başlıyor. Biyologlar, bu tür teknolojinin saldırganların biyolojik silah geliştirmesine de yardımcı olabileceğini söylüyor ancak silahları inşa etmenin aslında DNA üretim ekipmanı da dahil olmak üzere multimilyon dolarlık bir laboratuvar gerektireceğine dikkat çekiyor.
Kâr amacı gütmeyen Future House'un kurucu ortağı ve The Guardian'dan biri olan Andrew White, “Milyonlarca dolarlık altyapı gerektirmeyen bazı riskler var, ancak bu riskler bir süredir ortalıkta dolaşıyor ve yapay zeka ile hiçbir ilgisi yok” dedi. Anlaşmayı imzalayan biyologlar imzaladı.
Biyologlar, DNA üreten cihazların zararlı materyallerle kullanılmasını önleyecek önlemlerin geliştirilmesi çağrısında bulundu; ancak bu önlemlerin nasıl işe yarayacağı belli değil. Ayrıca yeni AI modellerinin piyasaya sürülmeden önce güvenlik incelemelerinin yapılması çağrısında bulundular.
Teknolojilerin şişelenmesi gerektiğini iddia etmediler.
Anlaşmayı imzalayan Chicago Üniversitesi'nden biyokimya ve moleküler biyoloji profesörü Rama Ranganathan, “Bu teknolojiler yalnızca az sayıda kişi veya kuruluşun mülkiyetinde olmamalıdır” dedi. “Bilim insanları topluluğu, bunları özgürce keşfetme ve onlara katkıda bulunma fırsatına sahip olmalıdır.”
Her iki partiden senatörler alarma geçerken endüstri ve akademideki yapay zeka araştırmacıları tehdidin ne kadar ciddi olabileceğini tartıştı.
Şimdi, yeni proteinler (biyolojideki tüm yaratılışı yönlendiren mikroskobik mekanizmalar) geliştirmek için yapay zeka teknolojilerinde uzmanlaşan 90'dan fazla biyolog ve diğer bilim insanı, dünyayı ciddi bir zarara maruz bırakmadan yapay zeka destekli araştırmalarının ilerlemesini sağlamak için tasarlanmış bir anlaşma imzaladı.
Nobel ödüllü Frances Arnold'un da aralarında bulunduğu ve ABD ve diğer ülkelerdeki laboratuvarları temsil eden biyologlar, yeni aşılar ve ilaçlar da dahil olmak üzere en son teknolojilerin dezavantajlardan çok daha fazla avantaja sahip olduğunu savundu.
Anlaşmada, “Bu çalışmaya katılan bilim insanları olarak, mevcut yapay zeka teknolojilerinin protein tasarımına yönelik faydalarının, zarar potansiyelinden çok daha ağır bastığına inanıyoruz ve araştırmamızın gelecekte de herkese fayda sağlamaya devam etmesini sağlamak istiyoruz” ifadeleri yer alıyor.
Anlaşma, yapay zeka teknolojilerinin geliştirilmesini veya dağıtımını engellemeyi amaçlamıyor. Bunun yerine biyologlar yeni genetik materyal üretmek için gereken ekipmanın kullanımını düzenlemek istiyorlar.
Anlaşmanın uygulanmasına yardımcı olan Washington Üniversitesi Protein Tasarımı Enstitüsü müdürü David Baker, bu DNA üreten ekipmanın sonuçta biyolojik silahların geliştirilmesine olanak sağlayacağını söyledi.
Bir röportajda “Protein tasarımı, sentetik protein yapımında sadece ilk adımdır” dedi. “Daha sonra DNA'yı gerçekten sentezlemeniz ve tasarımı bilgisayardan gerçek dünyaya aktarmanız gerekiyor; düzenleme için doğru yer burası.”
Anlaşma, yapay zekanın risklerini potansiyel faydalarına karşı dengelemeye yönelik birçok çabadan biri. Bazı uzmanlar, yapay zeka teknolojilerinin dezenformasyonun yayılmasına, alışılmadık bir hızda işlerin değiştirilmesine ve hatta belki de insanlığın yok edilmesine yardımcı olabileceği konusunda uyarsa da, teknoloji şirketleri, akademik laboratuvarlar, düzenleyiciler ve yasa yapıcılar bu riskleri anlamakta ve onlarla yüzleşmenin yollarını bulmakta zorlanıyor.
Dr. Amodei'nin şirketi Anthropic, çevrimiçi sohbet robotlarına güç veren yeni teknoloji türü olan büyük dil modelleri veya LLM'ler geliştiriyor. Kongre önünde ifade verirken, teknolojinin yakında saldırganların yeni biyolojik silahlar oluşturmasına yardımcı olabileceğini savundu.
Ancak bugün bunun mümkün olmadığını kabul etti. Anthropic yakın zamanda birisi biyolojik silahlar edinmeye veya geliştirmeye çalıştığında LLM'lerin normal bir İnternet arama motorundan marjinal olarak daha yararlı olduğunu gösteren ayrıntılı bir çalışma yürütmüştü.
Dr. Amodei ve diğerleri, şirketlerin LLM'leri geliştirmesi ve bunları diğer teknolojilerle birleştirmesi durumunda ciddi bir tehdidin ortaya çıkmasından korkuyor. Kongreye bunun yalnızca iki ila üç yıl uzakta olduğunu söyledi.
Çevrimiçi sohbet robotu ChatGPT'nin yapımcısı OpenAI daha sonra benzer bir çalışma yürüterek Yüksek Lisans'ların arama motorlarından önemli ölçüde daha tehlikeli olmadığını gösterdi. Massachusetts Teknoloji Enstitüsü'nde bilgisayar bilimi profesörü ve OpenAI'nin hazırlık bölümünün başkanı Aleksander Mądry, araştırmacıların bu sistemleri geliştirmeye devam etmesini beklediğini ancak henüz bunların üretilecek yeni biyolojik silahlar üretebileceklerine dair kanıt görmediğini söyledi.
Günümüzün Yüksek Lisans'ları, İnternet'teki büyük miktardaki dijital metnin analiz edilmesiyle oluşturulmaktadır. Bu, biyolojik saldırılarla ilgili mevcut bilgiler de dahil olmak üzere, halihazırda çevrimiçi olarak mevcut olan şeyleri yeniden ürettikleri veya yeniden birleştirdikleri anlamına gelir. (Haberler, OpenAI ve ortağı Microsoft'a, süreç sırasında telif hakkı ihlali yapmakla suçlayarak dava açtı.)
Ancak yeni ilaçların, aşıların ve diğer faydalı biyolojik materyallerin gelişimini hızlandırmak için araştırmacılar, yeni protein tasarımları üretebilecek benzer yapay zeka sistemleri geliştirmeye başlıyor. Biyologlar, bu tür teknolojinin saldırganların biyolojik silah geliştirmesine de yardımcı olabileceğini söylüyor ancak silahları inşa etmenin aslında DNA üretim ekipmanı da dahil olmak üzere multimilyon dolarlık bir laboratuvar gerektireceğine dikkat çekiyor.
Kâr amacı gütmeyen Future House'un kurucu ortağı ve The Guardian'dan biri olan Andrew White, “Milyonlarca dolarlık altyapı gerektirmeyen bazı riskler var, ancak bu riskler bir süredir ortalıkta dolaşıyor ve yapay zeka ile hiçbir ilgisi yok” dedi. Anlaşmayı imzalayan biyologlar imzaladı.
Biyologlar, DNA üreten cihazların zararlı materyallerle kullanılmasını önleyecek önlemlerin geliştirilmesi çağrısında bulundu; ancak bu önlemlerin nasıl işe yarayacağı belli değil. Ayrıca yeni AI modellerinin piyasaya sürülmeden önce güvenlik incelemelerinin yapılması çağrısında bulundular.
Teknolojilerin şişelenmesi gerektiğini iddia etmediler.
Anlaşmayı imzalayan Chicago Üniversitesi'nden biyokimya ve moleküler biyoloji profesörü Rama Ranganathan, “Bu teknolojiler yalnızca az sayıda kişi veya kuruluşun mülkiyetinde olmamalıdır” dedi. “Bilim insanları topluluğu, bunları özgürce keşfetme ve onlara katkıda bulunma fırsatına sahip olmalıdır.”