Yapay zeka sosyal medyada insanlardan daha fazla aldatıyor

Yapay zekanın yanıltıcılığı insan yanıltıcılığından daha kolay: Akıllı ifadeler, yalan, yanlış ve çarpıtma haber döngüsünü işletiyor.

Son on yılda interneti yanlış bilgiler sahte haberler doldurdu. 2018’de yapılan bir araştırma, Twitter platformunda yanlış, çarpıtma ve yalan haberlerin gerçek bilgilerden ve doğru haberlerden altı kat daha hızlı iletildiğini ortaya koydu.

Yalan haber döngüsü

Tarihsel olarak, akıllı haber çarkı dönmeye devam etmek için çok fazla çaba, zaman ve insan gerektiriyor. Bazı ülkelerdeki hükümet propaganda makineleri, internete gerçek görünen sahte içerik enjekte etmek için binlerce kişiyi istihdam ediyor. Ancak yeni bir çalışma, bu süreçlerin, halkı aldatmada daha büyük başarı elde etmek için insan sahte habercileri yapay zeka sistemleriyle değiştirebileceğini öne sürüyor.

Science dergisinde yayınlanan çalışmaya göre insanların, insanlar tarafından yazılan benzer gönderilere göre GPT3 (şu anda ChatGPT’ye güç veren büyük dil modelinin önceki sürümü) tarafından üretilen yanlış bilgilere inanma olasılığının daha yüksek olduğu bilgisine ulaştı.

Zürih Üniversitesi Biyoetik Enstitüsü’nden çalışmanın ortak yazarları Giovanni Spitale ve Federico Germani, GPT3’ün ‘web sitelerinde gördüğümüz aynı türden yanlış bilgileri daha hızlı, daha yüksek sıklıkta ve daha düşük maliyetle üretmek için’ bir silah olarak nasıl kullanılıp kullanılamayacağını analiz etti. Spitale ve Germani, çalışmalarına GPT3’ün iklim değişikliği, aşı güvenliği, evrim teorisi ve 5G gibi tartışmalı konular hakkında hem doğru hem de yanlış tweetler üretmesini sağlayacak komutlar tasarlayarak başladılar. Bu arada ikili, Twitter’da aynı konularda doğru ve yanıltıcı bilgiler içeren tweetler de araştırdı.

Şarku’l Avsat’ın Tribune Media’dan aktardığına göre araştırmacılar, araştırmaya katılan 700 kişiye gerçek insan tweetleri, sahte insan tweetleri ve doğru ve yanlış yapay zeka tweetlerini gösterdi. Daha sonra katılımcılardan tüm tweetlerde belirtilen doğru ve yanıltıcı bilgileri belirlemeleri istendi. Yüzde 92’si, insanlar tarafından yazılan yanlış bilgileri ve yapay zeka tarafından üretilen tweetlerdeki doğru bilgilerin doğruluğunu tespit etmeyi başardı. Buna karşılık yüzde 11’lik kesim, yapay zeka tarafından üretilen yanlış bilgilerin, insan yapımı içerikten yüzde 37,5 daha fazla gerçek olduğuna inanıyor.

Spitale, bu durumu ‘şaşırtıcı’ olarak nitelendirdi ve ‘ana odak noktamızın, insanların organik (yani insan yapımı) ile endüstriyel olanı ayırt edip edemediğine’ dikkat çekti.

Akıllı gramer

Spitale ve Germani, insanların yapay zeka tarafından üretilen yanlış bilgilere insanlar tarafından yazılanlardan daha fazla inanma eğilimini açıklamak için bilimsel bir neden bulamadı. Ancak bunun yapay zeka araçlarının cümleleri ustaca formüle etme biçimiyle bir ilgisi olduğuna inanıyor. Bu çerçevede Spitale, “Bir tweetin tartışmacı biçimi, yapay zeka tarafından oluşturulduğunda doğru veya yanıltıcı olsa da aynı görünüyor” dedi. Çalışma katılımcıları ayrıca, doğru yapay zeka tweetinin doğruluğunu insan tweetlerinden yüzde 72 daha kolay bir şekilde yüzde 84 doğrulamayı başardı.

Katılımcılar, yapay zeka tarafından üretilen yanlış bilgileri insanlardan daha hızlı okuyup onaylayabildiler. Çünkü muhtemelen daha net ve otomatik bir formatta yazılmıştı.

Yapay zekanın yardımıyla yaratılan ve yayılan dezenformasyonun ölçeğine baktığımızda, bu ikna gücü ve gerçekleşme hızı büyük bir sorun. Spitale, “Bu olgu, bağışıklama teorisi olarak biliniyor. Bu teori sayesinde biri, insanları yanıltıcı bilgilere maruz bırakan ve yanlış bilgiyi tespit etme becerilerine olan güvenlerinin arttığı bir bağlam yaratır. Yapay zeka içeriğini tanımada da aynı sonucu görmeyi umuyordum. Ama gördüğümüz tam tersiydi, yani yanlış bilgilendirme karşısında yapay zekanın ürünlerini belirlemeye olan güven kayboluyor” ifadelerini kullandı. İki araştırmacı, internetteki yapay zeka içeriğinin yaygınlığından dolayı çalışmalarının sonuçlarının endişe verici olduğunu belirtiyor.

İnsanların ‘belirli insanları akıllarından uzaklaştırmak ve kendi ağlarına dahil etmek için tasarlanmış’ dezenformasyon yaratabileceği fikri, yayılan bu yalan haberlerin uzun zamandır yapmaya çalıştığı bir şey.

Spitale, insanların bir yapay zeka silahlanma yarışına dahil olması fikri karşısında endişeli. Öyle ki şirketler, daha güçlü ve daha ikna edici dil modelleri geliştirmede birbirlerini geçmeye çalışıyor. Bu, müşterileri aldatmada daha etkili içerik üretmeye çalışılacağı anlamına geliyor. Spitale’nin araştırmasının yalnızca yazılı sözcüklere odaklandığını, üretken yapay zekanın ise görseller, videolar ve işitsel materyaller oluşturmada her an daha sofistike hale geldiğini unutmamamız gerekiyor. Bu da dezenformasyon riskini katlanarak artıracak.

Spitale, yapay zeka konusunda son derece iyimser, ancak aynı zamanda yönetişim fırsatını kaçıracağımız konusunda da korkuyor. Son olarak “Yapay zekayı düzenlemek için gereken hızda hareket etmiyoruz. Sanırım geri dönülmez bir noktaya ulaşıyoruz. Bu teknoloji çok hızlı gelişiyor” dedi.

Şarku'l Avsat haber Ajansı

Avatar
Adınız
Yorum Gönder
Kalan Karakter:
Yorumunuz onaylanmak üzere yöneticiye iletilmiştir.×
Dikkat! Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, müstehcen, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen Üye/Üyeler’e aittir.