Bu hafta Beyaz Saray, yapay zekanın oluşturduğu riskleri ele almak için önde gelen yedi yapay zeka şirketinden “gönüllü taahhütler” aldığını duyurdu.
Şirketleri – Amazon, Anthropic, Google, Inflection, Meta, Microsoft ve OpenAI – herhangi bir konuda anlaşmaya varmak ilerlemedir. AI araştırma ve geliştirmeye nasıl yaklaştıkları konusunda ince ama önemli farklılıkları olan sert rakipleri içerirler.
Örneğin Meta, AI modellerini geliştiricilerin ellerine teslim etmeye o kadar hevesli ki, birçoğunu açık kaynak yaptı ve kodlarını herkesin kullanımına açtı. Anthropic gibi diğer laboratuvarlar daha temkinli bir yaklaşım benimsedi ve teknolojilerini daha sınırlı bir ölçekte piyasaya sürdü.
Peki bu vaatler aslında ne anlama geliyor? Ve yasaların zorlamasıyla desteklenmedikleri için yapay zeka şirketlerinin çalışma biçimleri hakkında çok şey değiştirmeleri muhtemel mi?
AI düzenlemesinin potansiyel riskleri göz önüne alındığında, önemli olan ayrıntılardır. Öyleyse, burada üzerinde anlaşmaya varılan hususlara daha yakından bakalım ve olası sonuçları değerlendirelim.
Taahhüt 1: Şirketler, yayınlamadan önce AI sistemlerinin dahili ve harici güvenlik testlerini taahhüt eder.
Bu yapay zeka şirketlerinin her biri, modellerinin piyasaya sürülmeden önce güvenlik testlerini gerçekleştirir – genellikle “red teaming” olarak anılır. Bir düzeyde, bu gerçekten yeni bir taahhüt değil. Ve bu belirsiz bir vaat. Ne tür testlerin gerekli olduğu veya testi kimin yürüteceği hakkında pek fazla ayrıntı sağlamaz.
Taahhütlere eşlik eden bir açıklamada Beyaz Saray, yalnızca AI modellerinin test edilmesinin “kısmen bağımsız uzmanlar tarafından yürütüleceğini” ve “biyogüvenlik ve siber güvenlik ve bunların daha geniş toplumsal etkileri gibi” AI risklerine odaklanacağını söyledi.
Yapay zeka şirketlerinin bu tür testleri yapmaya devam etmeleri ve test sürecinde daha fazla şeffaflığı teşvik etmeleri için kamu taahhüdü vermelerini sağlamak iyi bir fikirdir. Ve hükümet ve askeri yetkililerin değerlendirmek için şirketlerden muhtemelen daha donanımlı olduğu bazı AI riski türleri vardır – AI modellerinin biyolojik silah geliştirmek için kullanılabileceği riski gibi.
AI endüstrisinin, Hizalama Araştırma Merkezi’nin OpenAI ve Anthropic’in yayın öncesi modellerinde gerçekleştirdiği “otonom çoğaltma testleri” gibi standart bir güvenlik testleri dizisi üzerinde anlaşmasını çok isterim. Ayrıca federal hükümetin pahalı olabilen ve önemli teknik uzmanlığa sahip mühendisler gerektiren bu tür testleri finanse etmesini istiyorum. Şu anda, birçok güvenlik testi şirketler tarafından finanse edilmekte ve izlenmektedir, bu da bariz çıkar çatışması sorunlarına yol açmaktadır.
Taahhüt 2: Şirketler, sektör genelinde ve hükümetler, sivil toplum ve akademi ile yapay zeka risklerinin nasıl yönetileceğine ilişkin bilgileri paylaşmayı taahhüt eder.
Bu taahhüt de biraz belirsizdir. Bu şirketlerden birkaçı, genellikle akademik makalelerde veya şirket blog gönderilerinde yapay zeka modelleri hakkında zaten bilgi yayınlıyor. OpenAI ve Anthropic dahil bazıları, bu modelleri daha güvenli hale getirmek için attıkları adımları detaylandıran “sistem haritaları” adı verilen belgeler de yayınlıyor.
Ancak zaman zaman, güvenlik kaygılarını öne sürerek bilgileri sakladılar. OpenAI bu yıl en son yapay zeka modeli GPT-4’ü piyasaya sürdüğünde, endüstri geleneklerini bozdu ve ne kadar veri üzerinde eğitildiğini veya modelin boyutunu (“parametre” olarak bilinen bir ölçü) açıklamamayı seçti. Şirket, rekabet ve güvenlik endişeleri nedeniyle bu bilgileri vermeyi reddetti. Aynı zamanda teknoloji şirketlerinin rekabette önde olmayı sevdiği türden veriler.
Bu yeni yükümlülüklerin bir parçası olarak, yapay zeka şirketleri bu tür bilgileri yayınlamak zorunda kalacak mı? Ya bu, AI silahlanma yarışını hızlandırabilirse?
Beyaz Saray’ın amacının şirketleri parametre numaralarını ifşa etmeye zorlamaktan çok onları modellerinin oluşturduğu (veya oluşturmadığı) riskler hakkında birbirleriyle bilgi paylaşmaya teşvik etmek olduğundan şüpheleniyorum.
Ancak bu tür bilgi paylaşımı bile riskli olabilir. Google’ın AI ekibi, yayın öncesi testler sırasında yeni bir modelin ölümcül bir biyolojik silah geliştirmek için kullanılmasını engellediyse, bu bilgiyi Google dışında paylaşmalı mı? Bu, kötü oyunculara aynı görevi yerine getirmek için daha az suskun bir modelin nasıl elde edileceği konusunda fikir verme riskini taşır mı?
Taahhüt 3: Şirketler, tescilli ve yayınlanmamış model ağırlıklarını korumak için siber güvenlik ve içeriden gelen tehdit korumasına yatırım yapmayı taahhüt eder.
Bu, konuştuğum AI içerdekiler arasında oldukça basit ve tartışmasız. “Model ağırlıkları”, AI modellerinin çalışmasını sağlayan matematiksel talimatlar için kullanılan teknik bir terimdir. Ağırlıklar, kendi ChatGPT sürümünüzü veya başka herhangi bir AI ürününü oluşturmak isteyen bir yabancı hükümetin (veya rakip bir şirketin) temsilcisi olsaydınız, çalmak isteyeceğiniz şeylerdir. Ve AI şirketlerinin bunu sıkı bir şekilde kontrol altında tutma konusunda kazanılmış bir çıkarı var.
Sızdıran model ağırlıklarıyla ilgili birçok kamuya açık sorun var. Örneğin, Meta’nın orijinal LLaMA dil modelinin ağırlıkları, modelin 4chan ve diğer sitelerde halka açık olarak yayınlanmasından sadece birkaç gün sonra sızdırıldı. Daha fazla sızıntı riski ve diğer ulusların bu teknolojiyi ABD şirketlerinden çalma konusundaki çıkarları göz önüne alındığında, yapay zeka şirketlerinden kendi güvenliklerine daha fazla yatırım yapmalarını istemek doğal görünüyor.
Taahhüt 4: Şirketler, yapay zeka sistemlerindeki güvenlik açıklarının üçüncü taraflarca keşfedilmesini ve raporlanmasını kolaylaştırmayı taahhüt eder.
Bunun ne anlama geldiğinden pek emin değilim. Her yapay zeka şirketi, piyasaya sürüldükten sonra modellerinde güvenlik açıkları keşfetti, bunun nedeni çoğunlukla kullanıcıların modellerle kötü şeyler yapmaya çalışması veya şirketlerin korkuluklarını (“jailbreaking” olarak bilinen bir uygulama) şirketlerin tahmin etmediği şekillerde atlatmaya çalışmasıdır.
Beyaz Saray taahhüdü, şirketleri bu güvenlik açıkları için “sağlam bir raporlama mekanizması” kurmaya çağırıyor, ancak bunun ne anlama geldiği açık değil. Facebook ve Twitter kullanıcılarının kuralları çiğneyen gönderileri bildirmesine izin verene benzer bir uygulama içi geri bildirim düğmesi mi? Sistemlerinde hata bulan kullanıcıları ödüllendirmek için bu yıl başlatılan OpenAI gibi bir hata ödül programı? Başka bir şey? Daha fazla ayrıntı için beklememiz gerekecek.
Taahhüt 5: Şirketler, kullanıcıların içeriğin yapay zeka tarafından ne zaman üretildiğini bilmelerini sağlamak için filigran sistemi gibi sağlam teknik mekanizmalar geliştirmeyi taahhüt eder.
Bu ilginç bir fikir, ancak yorum için çok yer bırakıyor. Şimdiye kadar, AI şirketleri, insanların AI tarafından oluşturulan içeriği izleyip izlemediklerini anlamalarına olanak tanıyan araçlar geliştirmek için mücadele etti. Bunun için iyi teknik nedenler var, ancak insanların yapay zeka tarafından üretilen işleri kendilerininmiş gibi göstermesi gerçek bir sorun. (Herhangi bir lise öğretmenine sorun.) Ve şu anda AI çıktısını tespit edebildiği için lanse edilen araçların çoğu, aslında bunu herhangi bir doğrulukla yapamaz.
Bu sorunun tamamen çözülebileceği konusunda iyimser değilim. Ancak şirketlerin üzerinde çalışmayı taahhüt etmesinden memnunum.
Taahhüt 6: Şirketler, AI sistemlerinin yeteneklerini, sınırlamalarını ve uygun ve uygunsuz kullanım alanlarını kamuya bildirmeyi taahhüt eder.
Manevra yapmak için bol bol alana sahip, kulağa makul gelen başka bir vaat. Kuruluşların, sistemlerinin yetenekleri ve sınırlamaları hakkında ne sıklıkla rapor vermesi gerekiyor? Bu bilgilerin ne kadar ayrıntılı olması gerekiyor? Yapay zeka sistemlerini geliştiren şirketlerin birçoğunun daha sonra kendi sistemlerinin yetenekleri karşısında şaşırdığını düşünürsek, onları önceden tanımlamalarını gerçekten ne kadar iyi bekleyebilirsiniz?
Taahhüt 7: Şirketler, zararlı önyargı ve ayrımcılıktan kaçınmak ve mahremiyeti korumak da dahil olmak üzere yapay zeka sistemlerinin oluşturabileceği toplumsal risklere ilişkin araştırmalara öncelik vermeyi taahhüt eder.
“Araştırma önceliği” yükümlülüğü, bir yükümlülük olabileceği kadar belirsizdir. Yine de, bu taahhüdün, AI güvenlik görevlilerinin yaptığı gibi kıyamet günü senaryoları hakkında endişelenmek yerine, AI şirketlerinin önyargı ve ayrımcılık gibi kısa vadeli zararları önlemeyi bir öncelik haline getirmesini isteyen AI etik grubundaki birçok kişi tarafından iyi karşılanacağına eminim.
“AI etiği” ve “AI güvenliği” arasındaki fark kafanızı karıştırıyorsa, AI araştırma topluluğu içinde her biri diğerinin yanlış türden zararları önlemeye odaklandığına inanan iki savaşan grup olduğunu bilin.
Taahhüt 8: Şirketler, toplumun en büyük zorluklarını çözmeye yardımcı olmak için gelişmiş AI sistemleri geliştirmeyi ve dağıtmayı taahhüt eder.
Gelişmiş yapay zekanın bunu yapması gerektiğini pek çok kişinin tartışacağını sanmıyorum. Olumsuz en büyük toplumsal sorunların üstesinden gelmek için kullanılır. Beyaz Saray, yapay zeka şirketlerinin çabalarını yoğunlaştırması gereken alanlardan ikisi olarak “kanser önleme” ve “iklim değişikliğini hafifletme” konularını gösteriyor ve ben bu konuda anlaşmazlığa neden olmayacağım.
Bununla birlikte, bu hedefi biraz karmaşıklaştıran şey, AI araştırmalarında ilk bakışta anlamsız görünen şeylerin genellikle daha ciddi sonuçları olduğu gerçeğidir. Go masa oyununu oynamak için eğitilmiş bir yapay zeka sistemi olan DeepMind’s AlphaGo’ya giren teknolojinin bir kısmı, proteinlerin üç boyutlu yapılarını tahmin etmede yararlı olduğunu kanıtladı; bu, temel bilimsel araştırmalara hız kazandıran önemli bir keşifti.
Genel olarak, Beyaz Saray’ın AI şirketleriyle olan anlaşması, önemli olmaktan çok sembolik görünüyor. Şirketlerin bu taahhütlere uymasını sağlayacak herhangi bir uygulama mekanizması yoktur ve bunların çoğu, yapay zeka şirketlerinin hâlihazırda almakta olduğu önlemleri yansıtmaktadır.
Yine de mantıklı bir ilk adım. Ve bu kurallara uymayı kabul etmek, yapay zeka şirketlerinin, hükümetle çalışmak için başları belaya girene kadar bekleyen önceki teknoloji şirketlerinin hatalarından ders çıkardığını gösteriyor. Washington’da, en azından teknoloji düzenlemesi söz konusu olduğunda, erken ortaya çıkmakta fayda var.
Şirketleri – Amazon, Anthropic, Google, Inflection, Meta, Microsoft ve OpenAI – herhangi bir konuda anlaşmaya varmak ilerlemedir. AI araştırma ve geliştirmeye nasıl yaklaştıkları konusunda ince ama önemli farklılıkları olan sert rakipleri içerirler.
Örneğin Meta, AI modellerini geliştiricilerin ellerine teslim etmeye o kadar hevesli ki, birçoğunu açık kaynak yaptı ve kodlarını herkesin kullanımına açtı. Anthropic gibi diğer laboratuvarlar daha temkinli bir yaklaşım benimsedi ve teknolojilerini daha sınırlı bir ölçekte piyasaya sürdü.
Peki bu vaatler aslında ne anlama geliyor? Ve yasaların zorlamasıyla desteklenmedikleri için yapay zeka şirketlerinin çalışma biçimleri hakkında çok şey değiştirmeleri muhtemel mi?
AI düzenlemesinin potansiyel riskleri göz önüne alındığında, önemli olan ayrıntılardır. Öyleyse, burada üzerinde anlaşmaya varılan hususlara daha yakından bakalım ve olası sonuçları değerlendirelim.
Taahhüt 1: Şirketler, yayınlamadan önce AI sistemlerinin dahili ve harici güvenlik testlerini taahhüt eder.
Bu yapay zeka şirketlerinin her biri, modellerinin piyasaya sürülmeden önce güvenlik testlerini gerçekleştirir – genellikle “red teaming” olarak anılır. Bir düzeyde, bu gerçekten yeni bir taahhüt değil. Ve bu belirsiz bir vaat. Ne tür testlerin gerekli olduğu veya testi kimin yürüteceği hakkında pek fazla ayrıntı sağlamaz.
Taahhütlere eşlik eden bir açıklamada Beyaz Saray, yalnızca AI modellerinin test edilmesinin “kısmen bağımsız uzmanlar tarafından yürütüleceğini” ve “biyogüvenlik ve siber güvenlik ve bunların daha geniş toplumsal etkileri gibi” AI risklerine odaklanacağını söyledi.
Yapay zeka şirketlerinin bu tür testleri yapmaya devam etmeleri ve test sürecinde daha fazla şeffaflığı teşvik etmeleri için kamu taahhüdü vermelerini sağlamak iyi bir fikirdir. Ve hükümet ve askeri yetkililerin değerlendirmek için şirketlerden muhtemelen daha donanımlı olduğu bazı AI riski türleri vardır – AI modellerinin biyolojik silah geliştirmek için kullanılabileceği riski gibi.
AI endüstrisinin, Hizalama Araştırma Merkezi’nin OpenAI ve Anthropic’in yayın öncesi modellerinde gerçekleştirdiği “otonom çoğaltma testleri” gibi standart bir güvenlik testleri dizisi üzerinde anlaşmasını çok isterim. Ayrıca federal hükümetin pahalı olabilen ve önemli teknik uzmanlığa sahip mühendisler gerektiren bu tür testleri finanse etmesini istiyorum. Şu anda, birçok güvenlik testi şirketler tarafından finanse edilmekte ve izlenmektedir, bu da bariz çıkar çatışması sorunlarına yol açmaktadır.
Taahhüt 2: Şirketler, sektör genelinde ve hükümetler, sivil toplum ve akademi ile yapay zeka risklerinin nasıl yönetileceğine ilişkin bilgileri paylaşmayı taahhüt eder.
Bu taahhüt de biraz belirsizdir. Bu şirketlerden birkaçı, genellikle akademik makalelerde veya şirket blog gönderilerinde yapay zeka modelleri hakkında zaten bilgi yayınlıyor. OpenAI ve Anthropic dahil bazıları, bu modelleri daha güvenli hale getirmek için attıkları adımları detaylandıran “sistem haritaları” adı verilen belgeler de yayınlıyor.
Ancak zaman zaman, güvenlik kaygılarını öne sürerek bilgileri sakladılar. OpenAI bu yıl en son yapay zeka modeli GPT-4’ü piyasaya sürdüğünde, endüstri geleneklerini bozdu ve ne kadar veri üzerinde eğitildiğini veya modelin boyutunu (“parametre” olarak bilinen bir ölçü) açıklamamayı seçti. Şirket, rekabet ve güvenlik endişeleri nedeniyle bu bilgileri vermeyi reddetti. Aynı zamanda teknoloji şirketlerinin rekabette önde olmayı sevdiği türden veriler.
Bu yeni yükümlülüklerin bir parçası olarak, yapay zeka şirketleri bu tür bilgileri yayınlamak zorunda kalacak mı? Ya bu, AI silahlanma yarışını hızlandırabilirse?
Beyaz Saray’ın amacının şirketleri parametre numaralarını ifşa etmeye zorlamaktan çok onları modellerinin oluşturduğu (veya oluşturmadığı) riskler hakkında birbirleriyle bilgi paylaşmaya teşvik etmek olduğundan şüpheleniyorum.
Ancak bu tür bilgi paylaşımı bile riskli olabilir. Google’ın AI ekibi, yayın öncesi testler sırasında yeni bir modelin ölümcül bir biyolojik silah geliştirmek için kullanılmasını engellediyse, bu bilgiyi Google dışında paylaşmalı mı? Bu, kötü oyunculara aynı görevi yerine getirmek için daha az suskun bir modelin nasıl elde edileceği konusunda fikir verme riskini taşır mı?
Taahhüt 3: Şirketler, tescilli ve yayınlanmamış model ağırlıklarını korumak için siber güvenlik ve içeriden gelen tehdit korumasına yatırım yapmayı taahhüt eder.
Bu, konuştuğum AI içerdekiler arasında oldukça basit ve tartışmasız. “Model ağırlıkları”, AI modellerinin çalışmasını sağlayan matematiksel talimatlar için kullanılan teknik bir terimdir. Ağırlıklar, kendi ChatGPT sürümünüzü veya başka herhangi bir AI ürününü oluşturmak isteyen bir yabancı hükümetin (veya rakip bir şirketin) temsilcisi olsaydınız, çalmak isteyeceğiniz şeylerdir. Ve AI şirketlerinin bunu sıkı bir şekilde kontrol altında tutma konusunda kazanılmış bir çıkarı var.
Sızdıran model ağırlıklarıyla ilgili birçok kamuya açık sorun var. Örneğin, Meta’nın orijinal LLaMA dil modelinin ağırlıkları, modelin 4chan ve diğer sitelerde halka açık olarak yayınlanmasından sadece birkaç gün sonra sızdırıldı. Daha fazla sızıntı riski ve diğer ulusların bu teknolojiyi ABD şirketlerinden çalma konusundaki çıkarları göz önüne alındığında, yapay zeka şirketlerinden kendi güvenliklerine daha fazla yatırım yapmalarını istemek doğal görünüyor.
Taahhüt 4: Şirketler, yapay zeka sistemlerindeki güvenlik açıklarının üçüncü taraflarca keşfedilmesini ve raporlanmasını kolaylaştırmayı taahhüt eder.
Bunun ne anlama geldiğinden pek emin değilim. Her yapay zeka şirketi, piyasaya sürüldükten sonra modellerinde güvenlik açıkları keşfetti, bunun nedeni çoğunlukla kullanıcıların modellerle kötü şeyler yapmaya çalışması veya şirketlerin korkuluklarını (“jailbreaking” olarak bilinen bir uygulama) şirketlerin tahmin etmediği şekillerde atlatmaya çalışmasıdır.
Beyaz Saray taahhüdü, şirketleri bu güvenlik açıkları için “sağlam bir raporlama mekanizması” kurmaya çağırıyor, ancak bunun ne anlama geldiği açık değil. Facebook ve Twitter kullanıcılarının kuralları çiğneyen gönderileri bildirmesine izin verene benzer bir uygulama içi geri bildirim düğmesi mi? Sistemlerinde hata bulan kullanıcıları ödüllendirmek için bu yıl başlatılan OpenAI gibi bir hata ödül programı? Başka bir şey? Daha fazla ayrıntı için beklememiz gerekecek.
Taahhüt 5: Şirketler, kullanıcıların içeriğin yapay zeka tarafından ne zaman üretildiğini bilmelerini sağlamak için filigran sistemi gibi sağlam teknik mekanizmalar geliştirmeyi taahhüt eder.
Bu ilginç bir fikir, ancak yorum için çok yer bırakıyor. Şimdiye kadar, AI şirketleri, insanların AI tarafından oluşturulan içeriği izleyip izlemediklerini anlamalarına olanak tanıyan araçlar geliştirmek için mücadele etti. Bunun için iyi teknik nedenler var, ancak insanların yapay zeka tarafından üretilen işleri kendilerininmiş gibi göstermesi gerçek bir sorun. (Herhangi bir lise öğretmenine sorun.) Ve şu anda AI çıktısını tespit edebildiği için lanse edilen araçların çoğu, aslında bunu herhangi bir doğrulukla yapamaz.
Bu sorunun tamamen çözülebileceği konusunda iyimser değilim. Ancak şirketlerin üzerinde çalışmayı taahhüt etmesinden memnunum.
Taahhüt 6: Şirketler, AI sistemlerinin yeteneklerini, sınırlamalarını ve uygun ve uygunsuz kullanım alanlarını kamuya bildirmeyi taahhüt eder.
Manevra yapmak için bol bol alana sahip, kulağa makul gelen başka bir vaat. Kuruluşların, sistemlerinin yetenekleri ve sınırlamaları hakkında ne sıklıkla rapor vermesi gerekiyor? Bu bilgilerin ne kadar ayrıntılı olması gerekiyor? Yapay zeka sistemlerini geliştiren şirketlerin birçoğunun daha sonra kendi sistemlerinin yetenekleri karşısında şaşırdığını düşünürsek, onları önceden tanımlamalarını gerçekten ne kadar iyi bekleyebilirsiniz?
Taahhüt 7: Şirketler, zararlı önyargı ve ayrımcılıktan kaçınmak ve mahremiyeti korumak da dahil olmak üzere yapay zeka sistemlerinin oluşturabileceği toplumsal risklere ilişkin araştırmalara öncelik vermeyi taahhüt eder.
“Araştırma önceliği” yükümlülüğü, bir yükümlülük olabileceği kadar belirsizdir. Yine de, bu taahhüdün, AI güvenlik görevlilerinin yaptığı gibi kıyamet günü senaryoları hakkında endişelenmek yerine, AI şirketlerinin önyargı ve ayrımcılık gibi kısa vadeli zararları önlemeyi bir öncelik haline getirmesini isteyen AI etik grubundaki birçok kişi tarafından iyi karşılanacağına eminim.
“AI etiği” ve “AI güvenliği” arasındaki fark kafanızı karıştırıyorsa, AI araştırma topluluğu içinde her biri diğerinin yanlış türden zararları önlemeye odaklandığına inanan iki savaşan grup olduğunu bilin.
Taahhüt 8: Şirketler, toplumun en büyük zorluklarını çözmeye yardımcı olmak için gelişmiş AI sistemleri geliştirmeyi ve dağıtmayı taahhüt eder.
Gelişmiş yapay zekanın bunu yapması gerektiğini pek çok kişinin tartışacağını sanmıyorum. Olumsuz en büyük toplumsal sorunların üstesinden gelmek için kullanılır. Beyaz Saray, yapay zeka şirketlerinin çabalarını yoğunlaştırması gereken alanlardan ikisi olarak “kanser önleme” ve “iklim değişikliğini hafifletme” konularını gösteriyor ve ben bu konuda anlaşmazlığa neden olmayacağım.
Bununla birlikte, bu hedefi biraz karmaşıklaştıran şey, AI araştırmalarında ilk bakışta anlamsız görünen şeylerin genellikle daha ciddi sonuçları olduğu gerçeğidir. Go masa oyununu oynamak için eğitilmiş bir yapay zeka sistemi olan DeepMind’s AlphaGo’ya giren teknolojinin bir kısmı, proteinlerin üç boyutlu yapılarını tahmin etmede yararlı olduğunu kanıtladı; bu, temel bilimsel araştırmalara hız kazandıran önemli bir keşifti.
Genel olarak, Beyaz Saray’ın AI şirketleriyle olan anlaşması, önemli olmaktan çok sembolik görünüyor. Şirketlerin bu taahhütlere uymasını sağlayacak herhangi bir uygulama mekanizması yoktur ve bunların çoğu, yapay zeka şirketlerinin hâlihazırda almakta olduğu önlemleri yansıtmaktadır.
Yine de mantıklı bir ilk adım. Ve bu kurallara uymayı kabul etmek, yapay zeka şirketlerinin, hükümetle çalışmak için başları belaya girene kadar bekleyen önceki teknoloji şirketlerinin hatalarından ders çıkardığını gösteriyor. Washington’da, en azından teknoloji düzenlemesi söz konusu olduğunda, erken ortaya çıkmakta fayda var.