Şu anda Silikon Vadisi’ndeki en hararetli tartışmalardan biri yapay zekayı kimin kontrol etmesi gerektiği ve güçlü yapay zeka sistemlerinin uyması gereken kuralları kimin belirlemesi gerektiği etrafında dönüyor.
Yapay zeka, sistemlerini olabildiğince güvenli ve zararsız hale getirmek için ellerinden gelenin en iyisini yapan bir avuç şirket tarafından mı yönetilmeli? Düzenleyiciler ve politikacılar devreye girip kendi korkuluklarını mı yerleştirmeli? Yoksa kullanıcıların ve geliştiricilerin kendi kurallarını seçebilmesi için yapay zeka modelleri açık kaynaklı olmalı ve özgürce paylaşılmalı mı?
Claude sohbet robotunun yaratıcısı Anthropic’in yeni bir deneyi ilginç bir orta yol sunuyor: Bir yapay zeka şirketinin bir grup sıradan vatandaştan bazı kurallar yazmasını ve bir sohbet robotunu bu kurallara uyması için eğitmesini isteseydi ne olurdu?
“Kolektif Anayasal Yapay Zeka” olarak bilinen deney, Anthropic’in yazılı ilkelere dayanan büyük dil modellerini eğitmeye yönelik bir yöntem olan Anayasal Yapay Zeka konusundaki önceki çalışmasına dayanıyor. Chatbot’a hassas sorgularla nasıl başa çıkılacağı, hangi konuların tabu olduğu ve insani değerlere uygun nasıl davranılması gerektiği konusunda net talimatlar vermelidir.
Kolektif anayasal yapay zeka işe yararsa (ve Antropik araştırmacılar bunun işaretlerinin olduğuna inanıyor), yapay zeka yönetişimindeki diğer deneylere ilham verebilir ve yapay zeka şirketlerine dışarıdan gelenleri kendi kural koyma süreçlerine katılmaya davet etme konusunda daha fazla fikir verebilir.
Bu iyi bir şey olurdu. Şu anda, yüksek performanslı yapay zeka sistemlerinin kuralları, kişisel etik, ticari teşvikler ve dış baskıların bir kombinasyonuna dayanarak modellerinin nasıl davranması gerektiğine karar veren küçük bir sektör içi kişiler grubu tarafından belirlenmektedir. Bu performansa ilişkin herhangi bir kontrol yoktur ve normal kullanıcıların herhangi bir şeyi tahmin etmesi mümkün değildir.
Yapay zeka yönetiminin açılması, toplumun bu araçlarla rahatlığını artırabilir ve düzenleyicilere, bunların ustaca yönetildiğine dair daha fazla güven verebilir. Bu aynı zamanda, bir avuç Silikon Vadisi devinin çevrimiçi konuşmaların çoğunu kontrol ettiği 2010’lardaki sosyal medya patlamasının neden olduğu bazı sorunları da önleyebilir.
Kısacası, anayasal yapay zeka, yapay zeka modelinin davranışını denetlemek için yazılı bir dizi kural (“anayasa”) kullanarak çalışır. Claude Anayasası’nın ilk versiyonu, Birleşmiş Milletler’in İnsan Hakları Evrensel Bildirgesi ve Apple’ın Hizmet Şartları da dahil olmak üzere diğer yönetim belgelerinden kurallar ödünç aldı.
Bu yaklaşım Claude’un diğer sohbet robotlarına kıyasla daha iyi huylu olmasını sağladı. Ancak hangi kuralların benimseneceğine karar vermek yine de Anthropic’e kalıyordu; bu, şirket içindeki bazılarını rahatsız eden bir tür güçtü.
Anthropic’in politika şefi Jack Clark, bir röportajda şunları söyledi: “San Francisco’daki bir laboratuvarda çalışan insanlar yerine bir grup üçüncü taraf tarafından geliştirilen bir anayasa geliştirmenin bir yolunu bulmaya çalışıyoruz.” hafta.
Anthropic – Kolektif Zeka Projesi, kitle kaynak sitesi Polis ve çevrimiçi anket sitesi PureSpectrum ile işbirliği içinde – yaklaşık 1000 Amerikalı yetişkinden oluşan bir grup oluşturdu. Panelistlere bir dizi prensip verdiler ve her birine katılıp katılmadıklarını sordular. (Panel katılımcıları gerekirse kendi kurallarını da yazabilirler.)
Panelin genel olarak üzerinde mutabakata vardığı bazı kurallar – “Yapay zeka tehlikeli/nefret dolu olmamalı” ve “Yapay zeka doğruyu söylemeli” gibi – Claude’un mevcut anayasasındaki ilkelere benziyordu. Ancak diğerleri daha az tahmin edilebilirdi. Örneğin panel, Claude’un orijinal anayasasında açıkça belirtilmeyen bir ilke olan “Yapay zekanın engelli insanlar için uyarlanabilir, erişilebilir ve esnek olması gerektiği” fikrine ezici bir çoğunlukla katılıyordu.
Grubun konuşmasının ardından Anthropic, önerilerini 75 ilkeden oluşan bir listeye indirgedi ve Anthropic buna “kamu anayasası” adını verdi. Şirket daha sonra Claude’un biri mevcut anayasa, diğeri kamu anayasası olmak üzere iki minyatür versiyonunu eğitti ve bunları karşılaştırdı.
Araştırmacılar, Claude’un kamuya açık versiyonunun, bazı yapay zeka modeli kıyaslama testlerinde standart versiyon kadar iyi performans gösterdiğini ve orijinalinden biraz daha az önyargılı olduğunu buldu. (Bu versiyonların hiçbiri halka açıklanmadı; Claude’un orijinal anayasası hala Anthropic tarafından yazılmış durumda ve şirket yakın zamanda bunu kitle kaynaklı versiyonla değiştirme planının olmadığını söylüyor.)
Konuştuğum Antropik araştırmacılar, kolektif anayasal yapay zekanın erken bir deney olduğunu ve daha büyük, daha karmaşık yapay zeka modelleriyle veya daha büyük grupların girdi sağladığı durumlarda o kadar iyi çalışmayabileceğini vurgulamakta zorluk çekiyorlardı.
Anthropic’ten politika analisti Liane Lovitt, “Küçük başlamak istedik” dedi. “Buna gerçekten bir ön prototip olarak bakıyoruz, üzerine inşa edebileceğimiz ve toplumdaki değişikliklerin nasıl farklı anayasalara yol açtığını ve daha sonra bir modeli eğitirken bunun neye benzeyeceğini gerçekten keşfedebileceğimiz bir deney.”
Anthropic’in politika direktörü Bay Clark, aylardır Washington’daki yasa yapıcılara ve düzenleyicilere gelişmiş yapay zekanın riskleri konusunda brifing veriyor. Yapay zeka sistemlerinin nasıl çalıştığı konusunda halka ses vermenin önyargı ve manipülasyon korkularını giderebileceğini söyledi.
““Sonuçta sistemlerinizin değerlerinin ne olduğu ve bu değerlerin nasıl seçildiği sorusunun giderek daha fazla tartışılacağını düşünüyorum” dedi.
Bu tür teknoloji platformu yönetişim deneylerine yönelik ortak itiraz, gerçekte olduklarından daha demokratik görünmeleridir. (Hangi kuralların kamu anayasasına dahil edileceği konusunda nihai kararı hâlâ antropik çalışanlar veriyordu.) Ve Mark’ın hayal kırıklığından yola çıkılarak oluşturulan yarı bağımsız bir organ olan Meta’nın Gözetim Kurulu gibi kontrolü kullanıcılara devretmeye yönelik önceki teknik girişimler Zuckerberg’in tam olarak başarılı olmasını sağlayamadı. Facebook’taki tartışmalı içerikler hakkında kendi kararlarını vermek zorunda oldukları için bu platformlara olan güvenin arttırılması.
Bu deney aynı zamanda demokratik sürece tam olarak kimin sesinin dahil edilmesi gerektiği konusunda da önemli soruları gündeme getiriyor. Suudi Arabistan’daki yapay zeka sohbet robotları Suudi değerlerine göre eğitilmeli mi? Kolektif Anayasal Yapay Zeka ile eğitilmiş bir sohbet robotu, çoğunluğu Katolik olan bir ülkede kürtajla veya Cumhuriyetçilerin kontrolündeki bir Kongre ile Amerika’da trans haklarıyla ilgili sorulara nasıl yanıt verir?
Hala açıklığa kavuşturulması gereken çok şey var. Ancak yapay zeka şirketlerinin halka karşı şu anda olduklarından daha fazla sorumlu olmaları gerektiği yönündeki genel ilkeye katılıyorum. Bir yanım bu şirketlerin bizim görüşümüzü almasını diliyordu Önce Gelişmiş yapay zeka sistemlerini milyonlarca insanın kullanımına sunduğumuzda, geç kalmak kesinlikle hiç olmamasından iyidir.
Yapay zeka, sistemlerini olabildiğince güvenli ve zararsız hale getirmek için ellerinden gelenin en iyisini yapan bir avuç şirket tarafından mı yönetilmeli? Düzenleyiciler ve politikacılar devreye girip kendi korkuluklarını mı yerleştirmeli? Yoksa kullanıcıların ve geliştiricilerin kendi kurallarını seçebilmesi için yapay zeka modelleri açık kaynaklı olmalı ve özgürce paylaşılmalı mı?
Claude sohbet robotunun yaratıcısı Anthropic’in yeni bir deneyi ilginç bir orta yol sunuyor: Bir yapay zeka şirketinin bir grup sıradan vatandaştan bazı kurallar yazmasını ve bir sohbet robotunu bu kurallara uyması için eğitmesini isteseydi ne olurdu?
“Kolektif Anayasal Yapay Zeka” olarak bilinen deney, Anthropic’in yazılı ilkelere dayanan büyük dil modellerini eğitmeye yönelik bir yöntem olan Anayasal Yapay Zeka konusundaki önceki çalışmasına dayanıyor. Chatbot’a hassas sorgularla nasıl başa çıkılacağı, hangi konuların tabu olduğu ve insani değerlere uygun nasıl davranılması gerektiği konusunda net talimatlar vermelidir.
Kolektif anayasal yapay zeka işe yararsa (ve Antropik araştırmacılar bunun işaretlerinin olduğuna inanıyor), yapay zeka yönetişimindeki diğer deneylere ilham verebilir ve yapay zeka şirketlerine dışarıdan gelenleri kendi kural koyma süreçlerine katılmaya davet etme konusunda daha fazla fikir verebilir.
Bu iyi bir şey olurdu. Şu anda, yüksek performanslı yapay zeka sistemlerinin kuralları, kişisel etik, ticari teşvikler ve dış baskıların bir kombinasyonuna dayanarak modellerinin nasıl davranması gerektiğine karar veren küçük bir sektör içi kişiler grubu tarafından belirlenmektedir. Bu performansa ilişkin herhangi bir kontrol yoktur ve normal kullanıcıların herhangi bir şeyi tahmin etmesi mümkün değildir.
Yapay zeka yönetiminin açılması, toplumun bu araçlarla rahatlığını artırabilir ve düzenleyicilere, bunların ustaca yönetildiğine dair daha fazla güven verebilir. Bu aynı zamanda, bir avuç Silikon Vadisi devinin çevrimiçi konuşmaların çoğunu kontrol ettiği 2010’lardaki sosyal medya patlamasının neden olduğu bazı sorunları da önleyebilir.
Kısacası, anayasal yapay zeka, yapay zeka modelinin davranışını denetlemek için yazılı bir dizi kural (“anayasa”) kullanarak çalışır. Claude Anayasası’nın ilk versiyonu, Birleşmiş Milletler’in İnsan Hakları Evrensel Bildirgesi ve Apple’ın Hizmet Şartları da dahil olmak üzere diğer yönetim belgelerinden kurallar ödünç aldı.
Bu yaklaşım Claude’un diğer sohbet robotlarına kıyasla daha iyi huylu olmasını sağladı. Ancak hangi kuralların benimseneceğine karar vermek yine de Anthropic’e kalıyordu; bu, şirket içindeki bazılarını rahatsız eden bir tür güçtü.
Anthropic’in politika şefi Jack Clark, bir röportajda şunları söyledi: “San Francisco’daki bir laboratuvarda çalışan insanlar yerine bir grup üçüncü taraf tarafından geliştirilen bir anayasa geliştirmenin bir yolunu bulmaya çalışıyoruz.” hafta.
Anthropic – Kolektif Zeka Projesi, kitle kaynak sitesi Polis ve çevrimiçi anket sitesi PureSpectrum ile işbirliği içinde – yaklaşık 1000 Amerikalı yetişkinden oluşan bir grup oluşturdu. Panelistlere bir dizi prensip verdiler ve her birine katılıp katılmadıklarını sordular. (Panel katılımcıları gerekirse kendi kurallarını da yazabilirler.)
Panelin genel olarak üzerinde mutabakata vardığı bazı kurallar – “Yapay zeka tehlikeli/nefret dolu olmamalı” ve “Yapay zeka doğruyu söylemeli” gibi – Claude’un mevcut anayasasındaki ilkelere benziyordu. Ancak diğerleri daha az tahmin edilebilirdi. Örneğin panel, Claude’un orijinal anayasasında açıkça belirtilmeyen bir ilke olan “Yapay zekanın engelli insanlar için uyarlanabilir, erişilebilir ve esnek olması gerektiği” fikrine ezici bir çoğunlukla katılıyordu.
Grubun konuşmasının ardından Anthropic, önerilerini 75 ilkeden oluşan bir listeye indirgedi ve Anthropic buna “kamu anayasası” adını verdi. Şirket daha sonra Claude’un biri mevcut anayasa, diğeri kamu anayasası olmak üzere iki minyatür versiyonunu eğitti ve bunları karşılaştırdı.
Araştırmacılar, Claude’un kamuya açık versiyonunun, bazı yapay zeka modeli kıyaslama testlerinde standart versiyon kadar iyi performans gösterdiğini ve orijinalinden biraz daha az önyargılı olduğunu buldu. (Bu versiyonların hiçbiri halka açıklanmadı; Claude’un orijinal anayasası hala Anthropic tarafından yazılmış durumda ve şirket yakın zamanda bunu kitle kaynaklı versiyonla değiştirme planının olmadığını söylüyor.)
Konuştuğum Antropik araştırmacılar, kolektif anayasal yapay zekanın erken bir deney olduğunu ve daha büyük, daha karmaşık yapay zeka modelleriyle veya daha büyük grupların girdi sağladığı durumlarda o kadar iyi çalışmayabileceğini vurgulamakta zorluk çekiyorlardı.
Anthropic’ten politika analisti Liane Lovitt, “Küçük başlamak istedik” dedi. “Buna gerçekten bir ön prototip olarak bakıyoruz, üzerine inşa edebileceğimiz ve toplumdaki değişikliklerin nasıl farklı anayasalara yol açtığını ve daha sonra bir modeli eğitirken bunun neye benzeyeceğini gerçekten keşfedebileceğimiz bir deney.”
Anthropic’in politika direktörü Bay Clark, aylardır Washington’daki yasa yapıcılara ve düzenleyicilere gelişmiş yapay zekanın riskleri konusunda brifing veriyor. Yapay zeka sistemlerinin nasıl çalıştığı konusunda halka ses vermenin önyargı ve manipülasyon korkularını giderebileceğini söyledi.
““Sonuçta sistemlerinizin değerlerinin ne olduğu ve bu değerlerin nasıl seçildiği sorusunun giderek daha fazla tartışılacağını düşünüyorum” dedi.
Bu tür teknoloji platformu yönetişim deneylerine yönelik ortak itiraz, gerçekte olduklarından daha demokratik görünmeleridir. (Hangi kuralların kamu anayasasına dahil edileceği konusunda nihai kararı hâlâ antropik çalışanlar veriyordu.) Ve Mark’ın hayal kırıklığından yola çıkılarak oluşturulan yarı bağımsız bir organ olan Meta’nın Gözetim Kurulu gibi kontrolü kullanıcılara devretmeye yönelik önceki teknik girişimler Zuckerberg’in tam olarak başarılı olmasını sağlayamadı. Facebook’taki tartışmalı içerikler hakkında kendi kararlarını vermek zorunda oldukları için bu platformlara olan güvenin arttırılması.
Bu deney aynı zamanda demokratik sürece tam olarak kimin sesinin dahil edilmesi gerektiği konusunda da önemli soruları gündeme getiriyor. Suudi Arabistan’daki yapay zeka sohbet robotları Suudi değerlerine göre eğitilmeli mi? Kolektif Anayasal Yapay Zeka ile eğitilmiş bir sohbet robotu, çoğunluğu Katolik olan bir ülkede kürtajla veya Cumhuriyetçilerin kontrolündeki bir Kongre ile Amerika’da trans haklarıyla ilgili sorulara nasıl yanıt verir?
Hala açıklığa kavuşturulması gereken çok şey var. Ancak yapay zeka şirketlerinin halka karşı şu anda olduklarından daha fazla sorumlu olmaları gerektiği yönündeki genel ilkeye katılıyorum. Bir yanım bu şirketlerin bizim görüşümüzü almasını diliyordu Önce Gelişmiş yapay zeka sistemlerini milyonlarca insanın kullanımına sunduğumuzda, geç kalmak kesinlikle hiç olmamasından iyidir.