Bir grup OpenAI çalışanı, şimdiye kadarki en güçlü yapay zeka sistemlerini geliştirmek için yarışan San Francisco merkezli yapay zeka şirketindeki acımasızlık ve gizlilik kültürünü ortaya çıkarıyor.
Dokuz mevcut ve eski OpenAI çalışanını içeren grup, son günlerde şirketin yapay zeka sistemlerinin tehlikeli hale gelmesini önlemek için yeterince çaba göstermediği yönündeki ortak endişe üzerine bir araya geldi.
Üyeler, kar amacı gütmeyen bir araştırma laboratuvarı olarak başlayan ve 2022'de ChatGPT'nin piyasaya sürülmesiyle kamuoyunun gözüne çarpan OpenAI'nin, endüstride yapay genel zeka (AGI) oluşturmayı amaçlarken kâr ve büyümeye vurgu yaptığını söylüyor. Bir insanın yapabildiği her şeyi yapabilen bilgisayar programı.
Ayrıca OpenAI'nin çalışanları teknolojiyle ilgili endişelerini dile getirmekten caydırmak için sert taktikler kullandığını da iddia ediyorlar. Buna, ayrılan çalışanların imzalaması gereken kısıtlayıcı, aşağılayıcı olmayan anlaşmalar da dahildi.
OpenAI'nin yönetişim departmanında eski bir araştırmacı ve grubun organizatörlerinden biri olan Daniel Kokotajlo, “OpenAI, AGI'yi inşa etme konusunda gerçekten heyecanlı ve bunu ilk yapan kişi olmak için acımasız bir yarış içindeler” dedi.
Grup Salı günü OpenAI dahil olmak üzere önde gelen yapay zeka şirketlerini ihbarcılara daha fazla şeffaflık ve koruma sağlamaya çağıran açık bir mektup yayınladı.
Diğer üyeler arasında Şubat ayında OpenAI'den ayrılan araştırma mühendisi William Saunders ve diğer üç eski OpenAI çalışanı yer alıyor: Carroll Wainwright, Jacob Hilton ve Daniel Ziegler. Bay Kokotajlo, mevcut birçok OpenAI çalışanının şirketin misillemesinden korktukları için mektubu isimsiz olarak imzaladığını söyledi. Google'ın merkezi yapay zeka laboratuvarı olan Google DeepMind'ın mevcut ve eski bir çalışanı da imzayı attı.
OpenAI sözcüsü Lindsey Held yaptığı açıklamada şunları söyledi: “En güçlü ve güvenli yapay zeka sistemlerini sunma konusundaki geçmiş performansımızdan gurur duyuyoruz ve risk yönetimine yönelik bilimsel yaklaşımımıza inanıyoruz. Bu teknolojinin önemi göz önüne alındığında kapsamlı bir tartışmanın kritik önem taşıdığı konusunda hemfikiriz ve dünya çapında hükümetler, sivil toplum ve diğer topluluklarla çalışmaya devam edeceğiz.”
Bir Google sözcüsü yorum yapmaktan kaçındı.
Kampanya OpenAI için zor bir zamana denk geliyor. Şirket, geçen yıl yönetim kurulu üyelerinin İcra Kurulu Başkanı Sam Altman'ın açık sözlülüğünün her zaman tutarlı olmaması nedeniyle görevden alınması yönünde oy kullandığı darbe girişiminin ardından hâlâ toparlanmaya çalışıyor. Altman birkaç gün sonra yeniden göreve getirildi ve yönetim kurulu yeni üyelerle yeniden dolduruldu.
Şirket ayrıca, onu modellerini eğitmek için telif hakkıyla korunan eserleri çalmakla suçlayan içerik oluşturucuların açtığı davalarla da karşı karşıya. (Haberler geçen yıl OpenAI ve ortağı Microsoft'a telif hakkı ihlali nedeniyle dava açmıştı.) Ve son zamanlarda hipergerçekçi bir ses asistanının tanıtılması, OpenAI'nin izinsiz olarak sesini taklit ettiğini iddia eden Hollywood oyuncusu Scarlett Johansson ile kamuoyunda yaşanan tartışmayla gölgelendi.
Ancak hiçbir şey OpenAI'nin güvenlik konusunda çok dikkatsiz olduğu suçlaması kadar akılda kalıcı olmadı.
Geçen ay iki kıdemli yapay zeka araştırmacısı Ilya Sutskever ve Jan Leike kötü koşullar altında OpenAI'den ayrıldı. Dr. OpenAI yönetim kurulunda yer alan ve Bay Altman'ın görevden alınması yönünde oy kullanan Sutskever, güçlü yapay zeka sistemlerinin potansiyel riskleri konusunda uyarıda bulunmuştu. Onun ayrılışı güvenlik bilincine sahip bazı çalışanlar tarafından bir aksilik olarak görüldü.
Aynı durum Dr.'un ayrılışı için de geçerlidir. Leike, birlikte Dr. Sutskever, OpenAI'nin yüksek performanslı yapay zeka modellerinin risklerini yönetmeye odaklanan “süper hizalama” ekibine liderlik etmişti. Ayrılışını duyuran bir dizi kamuya açık gönderide Dr. Leike'ye göre “güvenlik kültürü ve süreçleri, parlak ürünlerin arka planda kaldı.”
Ne de Dr. Sutskever ve Dr. Leike eski çalışanlardan gelen açık mektubu imzaladı. Ancak onun ayrılışı diğer eski OpenAI çalışanlarının da sesini yükseltmesine neden oldu.
Saunders, “OpenAI'ye kaydolduğumda, 'Hadi bazı şeyleri ortaya koyalım, ne olacağını görelim ve sonra düzeltelim' zihniyetini benimsemedim” dedi.
Eski çalışanlardan bazılarının, son yıllarda yapay zekanın oluşturduğu varoluşsal tehditleri savuşturmaya odaklanan faydacı bir hareket olan “Etkili Altruizm” ile bağlantıları var. Eleştirmenler hareketi, kontrolden çıkmış bir yapay zeka sisteminin kontrolü ele geçirip insanlığı yok edebileceği fikri gibi teknolojiyi çevreleyen kıyamet senaryolarını teşvik etmekle suçladı.
31 yaşındaki Bay Kokotajlo, OpenAI'ye 2022 yılında yönetişim araştırmacısı olarak katıldı ve yapay zekanın ilerlemesini tahmin etmesi istendi. En azından iyimser değildi.
Bir yapay zeka güvenlik organizasyonundaki önceki işinde, YGZ'nin 2050 yılında kullanıma sunulabileceğini öngörmüştü. Ancak yapay zekanın ne kadar hızlı geliştiğini görünce zaman çizelgelerini kısalttı. Artık AGI'nin 2027 yılına kadar, yani sadece üç yıl sonra kullanıma sunulma ihtimalinin yüzde 50 olduğuna inanıyor.
Kendisi aynı zamanda gelişmiş yapay zekanın insanlığı yok etme veya insanlığa feci zararlar verme ihtimalinin (yapay zeka çevrelerinde sıklıkla “p(doom)” olarak kısaltılan korkunç bir istatistik) yüzde 70 olduğuna inanıyor.
OpenAI'de Kokotajlo, yeni modelleri piyasaya sürülmeden önce büyük risklere karşı taramak için tasarlanan, Dağıtım Güvenliği Kurulu olarak bilinen Microsoft ile ortak bir proje de dahil olmak üzere şirketin güvenlik protokollerinin yürürlükte olmasına rağmen, bunların nadiren bunlarla sonuçlandığını keşfetti. bir yavaşlama.
Örneğin, 2022'de Microsoft, Hindistan'da Bing arama motorunun yeni bir sürümünü sessizce test etmeye başladı; bazı OpenAI çalışanları, OpenAI'nin son teknoloji ürünü büyük dil modeli olan GPT-4'ün o zamanlar yayınlanmamış bir sürümünü içerdiğine inanıyordu. Bay Kokotajlo, Microsoft'un yeni modeli test etmeden önce güvenlik komitesinden onay istemediğinin kendisine söylendiğini ve komitenin, Bing'in kullanıcılara tuhaf davrandığına dair bir dizi rapor aracılığıyla testleri öğrendikten sonra harekete geçtiğini, hiçbir şey olmadığının söylendiğini söyledi. Microsoft'un modeli daha büyük ölçekte sunmasını engellemek için.
Microsoft sözcüsü Frank Shaw bu iddiaları yalanladı. Hindistan'daki testlerde GPT-4 veya herhangi bir OpenAI modelinin kullanılmadığını söyledi. Kendisi, Microsoft'un GPT-4 tabanlı teknolojiyi ilk kez 2023'ün başında piyasaya sürdüğünü ve bunun güvenlik komitesinden bir öncül tarafından incelenip onaylandığını söyledi.
Kokotajlo, bir noktada o kadar endişelendiğini ve geçen yıl Altman'a şirketin “güvenliğe yönelmesi” gerektiğini ve modellerini geliştirmeye başlamak yerine kendisini yapay zekanın risklerinden korumaya daha fazla zaman ve kaynak ayırması gerektiğini söylediğini söylüyor. . Altman'ın kendisiyle aynı fikirde olduğunu iddia ettiğini ancak pek bir şeyin değişmediğini söyledi.
Nisan ayında istifa etti. Ekibine gönderdiği bir e-postada, sistemleri insan zekasına yaklaştıkça “OpenAI'nin sorumlu davranacağına dair güvenini kaybettiği” için ayrıldığını yazdı.
Bay Kokotajlo, “Dünya hazır değil ve biz de hazır değiliz” diye yazdı. “Ve ne olursa olsun, eylemlerimizi haklı çıkarmak için aceleyle ilerleyeceğimizden endişeleniyorum.”
OpenAI geçen hafta yeni bir amiral gemisi yapay zeka modelinin eğitimine başladığını ve yeni model ve diğer gelecek teknolojilerle ilişkili riskleri incelemek üzere yeni bir güvenlik komitesi kurulacağını duyurmuştu.
Bay Kokotajlo, ayrılırken OpenAI'nin ayrılan çalışanlara ilişkin standart belgelerini imzalamayı reddetti. Bunlar, çalışanların şirket hakkında olumsuz yorumlarda bulunmasını yasaklayan katı bir aşağılama yasağı maddesi içeriyordu; aksi takdirde kazanılmış hisselerinin elinden alınması riskiyle karşı karşıya kalacaklardı.
Birçok çalışan imzalamayı reddederse milyonlarca dolar kaybedebilir. Kokotajlo'nun kazanılmış sermayesinin yaklaşık 1,7 milyon dolar değerinde olduğunu, bunun net servetinin çoğunluğunu oluşturduğunu ve hepsinden vazgeçmeye hazır olduğunu söyledi.
(Geçen ay Vox'un bu düzenlemeleri bildirmesinin ardından küçük bir yangın fırtınası yaşandı. OpenAI daha sonra eski çalışanlardan kazanılmış sermayeyi hiçbir zaman geri almadığını ve bunu yapmayacağını iddia etti. Bay Altman “gerçekten utandığını” söyledi ve böyle bir şey yapmadığını iddia etti. anlaşmalar hakkında bilgi sahibiydi ve şirket, standart belgelerinden aşağılayıcı olmayan hükümleri çıkaracağını ve eski çalışanları sözleşmelerinden muaf tutacağını söyledi.)
Bay Kokotajlo ve diğer eski OpenAI çalışanları, açık mektuplarında, OpenAI ve diğer AI şirketlerinde ifşa etmeme ve gizlilik anlaşmalarının kullanılmasına son verilmesi çağrısında bulunuyor.
“Geniş gizlilik anlaşmaları, bu sorunları ele almayan şirketler dışında endişelerimizi dile getirmemizi engelliyor” diye yazıyorlar.
Ayrıca yapay zeka şirketlerine “açık eleştiri kültürünü geliştirmeleri” ve çalışanların güvenlikle ilgili endişelerini isimsiz olarak dile getirebilecekleri bir raporlama süreci kurmaları yönünde çağrıda bulunuyorlar.
Tanınmış hukuk uzmanı ve aktivist Lawrence Lessig'i, hayırsever bir avukat olarak tuttular. Bay Lessig ayrıca, ihbarcı olan ve şirketi kârı güvenliğin önüne koymakla suçlayan eski bir Facebook çalışanı olan Frances Haugen'e de danışmanlık yaptı.
Bir röportajda Lessig, teknolojinin önemi göz önüne alındığında, geleneksel ihbarcı korumalarının yalnızca yasa dışı faaliyetlerin bildirilmesi için geçerli olmasına rağmen, yapay zeka şirketi çalışanlarının riskler ve potansiyel zararlar hakkında özgürce konuşabilmesinin önemli olduğunu söyledi.
“Personel, güvenlik savunmasının önemli bir hattıdır ve misilleme riski olmadan özgürce konuşamazlarsa bu kanal kapatılacaktır” dedi.
OpenAI sözcüsü Bayan Held, şirketin anonim bir dürüstlük yardım hattı da dahil olmak üzere “çalışanların endişelerini ifade etmeleri için fırsatlar yarattığını” söyledi.
Kokotajlo ve grubu, daha güçlü yapay zeka sistemlerine sahip bir dünyaya hazırlanmak için tek başına öz düzenlemenin yeterli olacağı konusunda şüpheci. Bu nedenle yasama organının sektörü de düzenlemesini talep ediyorlar.
Kokotajlo, “Bu sürece rehberlik eden, demokratik açıdan hesap verebilir, şeffaf bir idari yapıya ihtiyaç var” dedi. “Birbirleriyle rekabet eden ve her şeyi gizli tutan birkaç farklı özel şirket yerine.”
Dokuz mevcut ve eski OpenAI çalışanını içeren grup, son günlerde şirketin yapay zeka sistemlerinin tehlikeli hale gelmesini önlemek için yeterince çaba göstermediği yönündeki ortak endişe üzerine bir araya geldi.
Üyeler, kar amacı gütmeyen bir araştırma laboratuvarı olarak başlayan ve 2022'de ChatGPT'nin piyasaya sürülmesiyle kamuoyunun gözüne çarpan OpenAI'nin, endüstride yapay genel zeka (AGI) oluşturmayı amaçlarken kâr ve büyümeye vurgu yaptığını söylüyor. Bir insanın yapabildiği her şeyi yapabilen bilgisayar programı.
Ayrıca OpenAI'nin çalışanları teknolojiyle ilgili endişelerini dile getirmekten caydırmak için sert taktikler kullandığını da iddia ediyorlar. Buna, ayrılan çalışanların imzalaması gereken kısıtlayıcı, aşağılayıcı olmayan anlaşmalar da dahildi.
OpenAI'nin yönetişim departmanında eski bir araştırmacı ve grubun organizatörlerinden biri olan Daniel Kokotajlo, “OpenAI, AGI'yi inşa etme konusunda gerçekten heyecanlı ve bunu ilk yapan kişi olmak için acımasız bir yarış içindeler” dedi.
Grup Salı günü OpenAI dahil olmak üzere önde gelen yapay zeka şirketlerini ihbarcılara daha fazla şeffaflık ve koruma sağlamaya çağıran açık bir mektup yayınladı.
Diğer üyeler arasında Şubat ayında OpenAI'den ayrılan araştırma mühendisi William Saunders ve diğer üç eski OpenAI çalışanı yer alıyor: Carroll Wainwright, Jacob Hilton ve Daniel Ziegler. Bay Kokotajlo, mevcut birçok OpenAI çalışanının şirketin misillemesinden korktukları için mektubu isimsiz olarak imzaladığını söyledi. Google'ın merkezi yapay zeka laboratuvarı olan Google DeepMind'ın mevcut ve eski bir çalışanı da imzayı attı.
OpenAI sözcüsü Lindsey Held yaptığı açıklamada şunları söyledi: “En güçlü ve güvenli yapay zeka sistemlerini sunma konusundaki geçmiş performansımızdan gurur duyuyoruz ve risk yönetimine yönelik bilimsel yaklaşımımıza inanıyoruz. Bu teknolojinin önemi göz önüne alındığında kapsamlı bir tartışmanın kritik önem taşıdığı konusunda hemfikiriz ve dünya çapında hükümetler, sivil toplum ve diğer topluluklarla çalışmaya devam edeceğiz.”
Bir Google sözcüsü yorum yapmaktan kaçındı.
Kampanya OpenAI için zor bir zamana denk geliyor. Şirket, geçen yıl yönetim kurulu üyelerinin İcra Kurulu Başkanı Sam Altman'ın açık sözlülüğünün her zaman tutarlı olmaması nedeniyle görevden alınması yönünde oy kullandığı darbe girişiminin ardından hâlâ toparlanmaya çalışıyor. Altman birkaç gün sonra yeniden göreve getirildi ve yönetim kurulu yeni üyelerle yeniden dolduruldu.
Şirket ayrıca, onu modellerini eğitmek için telif hakkıyla korunan eserleri çalmakla suçlayan içerik oluşturucuların açtığı davalarla da karşı karşıya. (Haberler geçen yıl OpenAI ve ortağı Microsoft'a telif hakkı ihlali nedeniyle dava açmıştı.) Ve son zamanlarda hipergerçekçi bir ses asistanının tanıtılması, OpenAI'nin izinsiz olarak sesini taklit ettiğini iddia eden Hollywood oyuncusu Scarlett Johansson ile kamuoyunda yaşanan tartışmayla gölgelendi.
Ancak hiçbir şey OpenAI'nin güvenlik konusunda çok dikkatsiz olduğu suçlaması kadar akılda kalıcı olmadı.
Geçen ay iki kıdemli yapay zeka araştırmacısı Ilya Sutskever ve Jan Leike kötü koşullar altında OpenAI'den ayrıldı. Dr. OpenAI yönetim kurulunda yer alan ve Bay Altman'ın görevden alınması yönünde oy kullanan Sutskever, güçlü yapay zeka sistemlerinin potansiyel riskleri konusunda uyarıda bulunmuştu. Onun ayrılışı güvenlik bilincine sahip bazı çalışanlar tarafından bir aksilik olarak görüldü.
Aynı durum Dr.'un ayrılışı için de geçerlidir. Leike, birlikte Dr. Sutskever, OpenAI'nin yüksek performanslı yapay zeka modellerinin risklerini yönetmeye odaklanan “süper hizalama” ekibine liderlik etmişti. Ayrılışını duyuran bir dizi kamuya açık gönderide Dr. Leike'ye göre “güvenlik kültürü ve süreçleri, parlak ürünlerin arka planda kaldı.”
Ne de Dr. Sutskever ve Dr. Leike eski çalışanlardan gelen açık mektubu imzaladı. Ancak onun ayrılışı diğer eski OpenAI çalışanlarının da sesini yükseltmesine neden oldu.
Saunders, “OpenAI'ye kaydolduğumda, 'Hadi bazı şeyleri ortaya koyalım, ne olacağını görelim ve sonra düzeltelim' zihniyetini benimsemedim” dedi.
Eski çalışanlardan bazılarının, son yıllarda yapay zekanın oluşturduğu varoluşsal tehditleri savuşturmaya odaklanan faydacı bir hareket olan “Etkili Altruizm” ile bağlantıları var. Eleştirmenler hareketi, kontrolden çıkmış bir yapay zeka sisteminin kontrolü ele geçirip insanlığı yok edebileceği fikri gibi teknolojiyi çevreleyen kıyamet senaryolarını teşvik etmekle suçladı.
31 yaşındaki Bay Kokotajlo, OpenAI'ye 2022 yılında yönetişim araştırmacısı olarak katıldı ve yapay zekanın ilerlemesini tahmin etmesi istendi. En azından iyimser değildi.
Bir yapay zeka güvenlik organizasyonundaki önceki işinde, YGZ'nin 2050 yılında kullanıma sunulabileceğini öngörmüştü. Ancak yapay zekanın ne kadar hızlı geliştiğini görünce zaman çizelgelerini kısalttı. Artık AGI'nin 2027 yılına kadar, yani sadece üç yıl sonra kullanıma sunulma ihtimalinin yüzde 50 olduğuna inanıyor.
Kendisi aynı zamanda gelişmiş yapay zekanın insanlığı yok etme veya insanlığa feci zararlar verme ihtimalinin (yapay zeka çevrelerinde sıklıkla “p(doom)” olarak kısaltılan korkunç bir istatistik) yüzde 70 olduğuna inanıyor.
OpenAI'de Kokotajlo, yeni modelleri piyasaya sürülmeden önce büyük risklere karşı taramak için tasarlanan, Dağıtım Güvenliği Kurulu olarak bilinen Microsoft ile ortak bir proje de dahil olmak üzere şirketin güvenlik protokollerinin yürürlükte olmasına rağmen, bunların nadiren bunlarla sonuçlandığını keşfetti. bir yavaşlama.
Örneğin, 2022'de Microsoft, Hindistan'da Bing arama motorunun yeni bir sürümünü sessizce test etmeye başladı; bazı OpenAI çalışanları, OpenAI'nin son teknoloji ürünü büyük dil modeli olan GPT-4'ün o zamanlar yayınlanmamış bir sürümünü içerdiğine inanıyordu. Bay Kokotajlo, Microsoft'un yeni modeli test etmeden önce güvenlik komitesinden onay istemediğinin kendisine söylendiğini ve komitenin, Bing'in kullanıcılara tuhaf davrandığına dair bir dizi rapor aracılığıyla testleri öğrendikten sonra harekete geçtiğini, hiçbir şey olmadığının söylendiğini söyledi. Microsoft'un modeli daha büyük ölçekte sunmasını engellemek için.
Microsoft sözcüsü Frank Shaw bu iddiaları yalanladı. Hindistan'daki testlerde GPT-4 veya herhangi bir OpenAI modelinin kullanılmadığını söyledi. Kendisi, Microsoft'un GPT-4 tabanlı teknolojiyi ilk kez 2023'ün başında piyasaya sürdüğünü ve bunun güvenlik komitesinden bir öncül tarafından incelenip onaylandığını söyledi.
Kokotajlo, bir noktada o kadar endişelendiğini ve geçen yıl Altman'a şirketin “güvenliğe yönelmesi” gerektiğini ve modellerini geliştirmeye başlamak yerine kendisini yapay zekanın risklerinden korumaya daha fazla zaman ve kaynak ayırması gerektiğini söylediğini söylüyor. . Altman'ın kendisiyle aynı fikirde olduğunu iddia ettiğini ancak pek bir şeyin değişmediğini söyledi.
Nisan ayında istifa etti. Ekibine gönderdiği bir e-postada, sistemleri insan zekasına yaklaştıkça “OpenAI'nin sorumlu davranacağına dair güvenini kaybettiği” için ayrıldığını yazdı.
Bay Kokotajlo, “Dünya hazır değil ve biz de hazır değiliz” diye yazdı. “Ve ne olursa olsun, eylemlerimizi haklı çıkarmak için aceleyle ilerleyeceğimizden endişeleniyorum.”
OpenAI geçen hafta yeni bir amiral gemisi yapay zeka modelinin eğitimine başladığını ve yeni model ve diğer gelecek teknolojilerle ilişkili riskleri incelemek üzere yeni bir güvenlik komitesi kurulacağını duyurmuştu.
Bay Kokotajlo, ayrılırken OpenAI'nin ayrılan çalışanlara ilişkin standart belgelerini imzalamayı reddetti. Bunlar, çalışanların şirket hakkında olumsuz yorumlarda bulunmasını yasaklayan katı bir aşağılama yasağı maddesi içeriyordu; aksi takdirde kazanılmış hisselerinin elinden alınması riskiyle karşı karşıya kalacaklardı.
Birçok çalışan imzalamayı reddederse milyonlarca dolar kaybedebilir. Kokotajlo'nun kazanılmış sermayesinin yaklaşık 1,7 milyon dolar değerinde olduğunu, bunun net servetinin çoğunluğunu oluşturduğunu ve hepsinden vazgeçmeye hazır olduğunu söyledi.
(Geçen ay Vox'un bu düzenlemeleri bildirmesinin ardından küçük bir yangın fırtınası yaşandı. OpenAI daha sonra eski çalışanlardan kazanılmış sermayeyi hiçbir zaman geri almadığını ve bunu yapmayacağını iddia etti. Bay Altman “gerçekten utandığını” söyledi ve böyle bir şey yapmadığını iddia etti. anlaşmalar hakkında bilgi sahibiydi ve şirket, standart belgelerinden aşağılayıcı olmayan hükümleri çıkaracağını ve eski çalışanları sözleşmelerinden muaf tutacağını söyledi.)
Bay Kokotajlo ve diğer eski OpenAI çalışanları, açık mektuplarında, OpenAI ve diğer AI şirketlerinde ifşa etmeme ve gizlilik anlaşmalarının kullanılmasına son verilmesi çağrısında bulunuyor.
“Geniş gizlilik anlaşmaları, bu sorunları ele almayan şirketler dışında endişelerimizi dile getirmemizi engelliyor” diye yazıyorlar.
Ayrıca yapay zeka şirketlerine “açık eleştiri kültürünü geliştirmeleri” ve çalışanların güvenlikle ilgili endişelerini isimsiz olarak dile getirebilecekleri bir raporlama süreci kurmaları yönünde çağrıda bulunuyorlar.
Tanınmış hukuk uzmanı ve aktivist Lawrence Lessig'i, hayırsever bir avukat olarak tuttular. Bay Lessig ayrıca, ihbarcı olan ve şirketi kârı güvenliğin önüne koymakla suçlayan eski bir Facebook çalışanı olan Frances Haugen'e de danışmanlık yaptı.
Bir röportajda Lessig, teknolojinin önemi göz önüne alındığında, geleneksel ihbarcı korumalarının yalnızca yasa dışı faaliyetlerin bildirilmesi için geçerli olmasına rağmen, yapay zeka şirketi çalışanlarının riskler ve potansiyel zararlar hakkında özgürce konuşabilmesinin önemli olduğunu söyledi.
“Personel, güvenlik savunmasının önemli bir hattıdır ve misilleme riski olmadan özgürce konuşamazlarsa bu kanal kapatılacaktır” dedi.
OpenAI sözcüsü Bayan Held, şirketin anonim bir dürüstlük yardım hattı da dahil olmak üzere “çalışanların endişelerini ifade etmeleri için fırsatlar yarattığını” söyledi.
Kokotajlo ve grubu, daha güçlü yapay zeka sistemlerine sahip bir dünyaya hazırlanmak için tek başına öz düzenlemenin yeterli olacağı konusunda şüpheci. Bu nedenle yasama organının sektörü de düzenlemesini talep ediyorlar.
Kokotajlo, “Bu sürece rehberlik eden, demokratik açıdan hesap verebilir, şeffaf bir idari yapıya ihtiyaç var” dedi. “Birbirleriyle rekabet eden ve her şeyi gizli tutan birkaç farklı özel şirket yerine.”