150

IŞİD gibi örgütler de kullanıyor: Yapay zeka güvenlik tehdidine mi dönüşüyor?

Son dönemde yapılan bir ABD Kongresi oturumunda, IŞİD ve El Kaide’nin destekçilerine yapay zeka kullanımını öğretmek için eğitim çalışmaları düzenlediği bilgisi de paylaşıldı.

Dünyanın geri kalanı yapay zekanın sunduğu imkânlardan yararlanmaya çalışırken, militan gruplar da bu teknolojiyi denemeye başladı. Bu grupların yapay zekayı tam olarak nasıl kullanacakları konusunda net bir planları olmasa da denemelerin giderek arttığı belirtiliyor.

Ulusal güvenlik uzmanları ve istihbarat servisleri, yapay zekanın aşırıcı örgütler için yeni üye kazanımı, gerçekçi 'deepfake' görüntüler üretimi ve siber saldırıların geliştirilmesi gibi alanlarda güçlü bir araç haline gelebileceği uyarısında bulunuyor.

Geçen ay IŞİD (Irak Şam İslam Devleti) yanlısı bir internet sitesinde paylaşım yapan bir kullanıcı, örgüt destekçilerine yapay zekayı faaliyetlerinin parçası haline getirmeleri çağrısında bulundu. İngilizce yazılan mesajda, “Yapay zekanın en iyi yanlarından biri kullanımının kolay olması,” ifadeleri yer aldı. Aynı kullanıcı, istihbarat servislerinin yapay zekanın örgütlere eleman kazandıracağı yönündeki endişelerine atıfla, “Onların kâbuslarını gerçeğe dönüştürün,” dedi.

Geçmişte Irak ve Suriye’de toprak kontrol eden ancak bugün daha merkeziyetsiz bir ağ haline gelen IŞİD’in, sosyal medyanın propaganda ve dezenformasyon açısından gücünü erken fark ettiği biliniyor. Uzmanlara göre bu nedenle örgütün yapay zekayı test etmeye başlaması şaşırtıcı değil.

Az kaynaklı ve dağınık yapıdaki aşırıcı gruplar ya da tek başına hareket eden bir kişi bile, yapay zeka sayesinde büyük ölçekte propaganda ve sahte içerik üretebiliyor. Bu da etki alanlarını genişletmelerine imkân tanıyor. ABD Ulusal Güvenlik Ajansı’nda (NSA) eski bir araştırmacı olan ve bugün bir siber güvenlik şirketinin CEO’luğunu yapan John Laliberte, “Yapay zeka, az parası olan küçük bir grubun bile etkili olmasını mümkün kılıyor,” dedi.

Aşırıcı gruplar yapay zekayı nasıl kullanıyor?

ChatGPT gibi programların yaygınlaşmasıyla birlikte militan gruplar, yapay zeka araçlarını kullanmaya başladı. Son yıllarda özellikle gerçekçi fotoğraf ve video üretiminde kullanılan üretken yapay zeka programlarına yöneldikleri görülüyor.

Bu tür sahte içerikler, sosyal medya algoritmalarıyla birlikte kullanıldığında, yeni destekçilerin kazanılmasına, 'düşmanların' korkutulmasına ve propaganda faaliyetlerinin geçmişe kıyasla çok daha geniş ölçekte yayılmasına imkân tanıyor.

Geçen yıl Rusya’da bir konser salonuna düzenlenen ve yaklaşık 140 kişinin hayatını kaybettiği bir saldırı yaşanmıştı. Saldırıyı üstlenen IŞİD bağlantılı bir grubun ardından, yapay zeka ile hazırlanmış propaganda videoları çevrimiçi platformlarda hızla dolaşıma girdi.

SITE Intelligence Group araştırmacılarına göre IŞİD, liderlerinin kutsal metinler okuduğu deepfake ses kayıtları oluşturdu ve mesajlarını çok sayıda dile hızla çevirmek için yapay zekadan yararlandı.

Eski bir CIA ajanı olan ve bugün bir siber güvenlik şirketinin yöneticiliğini yapan Marcus Fowler, risklerin göz ardı edilemeyecek kadar yüksek olduğunu ve ucuz, güçlü yapay zeka araçlarının yaygınlaşmasıyla bu risklerin artacağını vurguluyor.

Siber suçluların halihazırda yapay ses ve görüntüleri kimlik avı saldırılarında kullandığına dikkat çeken uzmanlar, militan grupların da kötü amaçlı yazılım üretimi ya da siber saldırıların otomasyonu için yapay zekadan yararlanabileceğini belirtiyor.

Daha da endişe verici olan ise, teknik bilgi eksikliklerini telafi etmek amacıyla yapay zekanın biyolojik ya da kimyasal silah üretiminde kullanılması ihtimali. Bu risk, ABD İç Güvenlik Bakanlığı’nın güncellenmiş Tehdit Değerlendirmesi raporunda da yer aldı.

Büyüyen tehdide karşı önlemler

ABD’de yasa yapıcılar, yapay zekanın kötüye kullanımına karşı acil önlem alınması gerektiğini savunuyor. Senato İstihbarat Komitesi’nin kıdemli Demokrat üyesi Mark Warner, yapay zeka geliştiricilerinin ürünlerinin aşırıcı gruplar, siber suçlular ya da yabancı istihbarat servisleri tarafından nasıl kullanıldığına dair bilgileri daha kolay paylaşabilmesi gerektiğini söyledi.

Son dönemde yapılan bir Kongre oturumunda, IŞİD ve El Kaide’nin destekçilerine yapay zeka kullanımını öğretmek için eğitim çalışmaları düzenlediği bilgisi de paylaşıldı. Temsilciler Meclisi’nden geçen bir yasa tasarısı, iç güvenlik yetkililerinin bu grupların oluşturduğu yapay zeka risklerini her yıl değerlendirmesini öngörüyor.

Tasarıyı sunan Cumhuriyetçi Temsilci August Pfluger ise, “Yarınların tehditlerine karşı politikalarımızın ve kapasitemizin de aynı hızla gelişmesi gerekiyor,” dedi.

Euronews-Anil Can Tuncer, AP

Avatar
Adınız
Yorum Gönder
Kalan Karakter:
Yorumunuz onaylanmak üzere yöneticiye iletilmiştir.×
Dikkat! Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, müstehcen, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen Üye/Üyeler’e aittir.
150