• Forumumuza Moderatörlük ve İçerik Ekibi Alımları Başlamıştır. Başvuru İçin "Zeo" İle İrtibata Geçebilirsiniz.

Imran Khan, Pakistan'da zafer konuşması yapmak için yapay zekayı kullanıyor

Teletabi

Administrator
Yetkili
Administrator
Pakistan'ın eski başbakanı İmran Han, ülkenin seçim kampanyası süresini hapiste geçirdi ve uzmanların ülkenin 76 yıllık tarihindeki en az güvenilir genel seçimlerden biri olarak nitelendirdiği seçimlere katılmaktan men edildi.

Ancak son aylarda parmaklıklar ardında, partisinin askeri baskıyı atlatmak için kullandığı teknoloji meraklısı bir stratejinin parçası olarak, kendi sesini taklit etmek için yapay zekayı kullanan konuşmalarla destekçilerini bir araya getirdi.

Ve Cumartesi günü, resmi sayımlar, Pakistan Tehreek-e-Insaf (PTI) partisiyle ittifak halindeki adayların en fazla sandalyeyi kazandığını gösterdiğinde – ülkenin siyasi sistemini kaosa sürükleyen sürpriz bir sonuç – Bay'ın yapay zeka sesi Khan'ın zaferini ilan etti.


“Hepinizin oy vereceğine dair inancım tamdı. Size olan güvenimi yerine getirdiniz ve muazzam katılımınız herkesi hayrete düşürdü,” dedi Bay Khan'ın tarihi görüntülerini ve görüntülerini kullanan ve yapay zekanın kökenleri hakkında bir sorumluluk reddi beyanı içeren bir dakikalık videodaki yumuşak, hafif robotik ses. Konuşmada Bay Khan'ın rakibi Navaz Şerif'in zafer iddiası reddedildi ve destekçileri zaferi savunmaya çağırıldı.


Yapay zekanın kullanımı ve özellikle seçimlerde yanıltma gücü konusundaki endişelerin arttığı bir dönemde, Bay Khan'ın videoları, yapay zekanın baskının üstesinden gelmeye nasıl yardımcı olabileceğine dair bir örnek sunuyor. Ancak uzmanlar, bunların potansiyel tehlikelere yönelik korkuyu da artırdığını söylüyor.

“Faking It: Artificial” kitabının yazarı Toby Walsh, “Bu dava iyi bir sonla, belki de bizim destekleyeceğimiz bir sonla ilgili; uydurma yolsuzluk suçlamalarıyla hapsedilen birinin destekçileriyle konuşabilmesiyle ilgili” dedi. İnsan Dünyasında Zeka” ve New South Wales Üniversitesi'nde Profesör. “Fakat aynı zamanda gördüğümüz ve duyduğumuz şeylere olan inancımızı da zayıflatıyor.”

Karizmatik eski bir kriket yıldızı olan Bay Khan, 2022'de iktidardan uzaklaştırıldı ve geçen yıl aralarında devlet sırlarının sızdırılmasının da bulunduğu suçlamalar nedeniyle hapse atıldı. Kendisi ve destekçileri, onun görevden alınmasını askeri liderlerin planladığını söylediler ancak bu suçlamayı reddediyorlar.

Kampanya sırasında yetkililer adaylarının kampanya yapmasını engelledi ve partiyle ilgili haberleri sansürledi. Buna yanıt olarak organizatörler YouTube ve TikTok gibi platformlarda çevrimiçi mitingler düzenlediler.


Aralık ayında partisi, Bay Khan'ın mesajını yaymak için yapay zekayı kullanmaya başladı; partinin, onun hapishaneden avukatlarına ilettiğini söylediği notlara dayanarak konuşmalar oluşturdu ve bunları videoya kaydetti.

Bu, siyasi partilerin yapay zekayı ilk kez kullanmaları değil.

Güney Kore'de, o zamanki muhalefetteki Halkın Gücü Partisi, 2022 seçimleri öncesinde seçmenlerle sanal olarak etkileşime giren ve daha genç bir demografiye hitap etmek için argo ve şakalar konuşan başkan adayı Yoon Suk Yeol'un yapay zeka destekli bir avatarını yarattı. (O kazandı.)

Amerika Birleşik Devletleri, Kanada ve Yeni Zelanda'da politikacılar, Jordan Peele ve deepfake Barack Obama'nın yer aldığı bir videoda olduğu gibi, kendi görüşlerini belirtmek veya teknolojinin potansiyel olarak tehlikeli yeteneklerini açığa çıkarmak amacıyla distopik görüntüler oluşturmak için yapay zekayı kullandılar.

Hindistan'ın Delhi kentindeki 2020 eyalet seçimleri sırasında, iktidardaki Bharatiya Janata Partisi'nin adayı Manoj Tiwari, bu demografideki seçmenleri hedeflemek için Haryanvi lehçesini konuştuğu bir yapay zeka deepfake'i yarattı. Khan videosunun aksine, açıkça AI olarak etiketlenmiş gibi görünmüyordu

Singapur'daki Nanyang Teknoloji Üniversitesi İletişim ve Enformasyon Fakültesi'nde yardımcı doçent olan Saifuddin Ahmed, “Yapay zekanın, özellikle de deepfake'lerin siyasi kampanyalara entegrasyonu geçici bir trend değil, zamanla gelişecek bir trend” dedi.
 
Üst