Video tersebut menampilkan sebuah episode dari serial komedi Family Guy, di mana karakter utama Peter Griffin berkendara melintasi jembatan yang penuh bom dengan senjata berkobar.
Adegan tersebut diambil dari episode “Turban Cowboy” yang tayang pada tahun 2013. Namun, sulih suara telah diubah dengan video tersebut, dengan Peter Griffin, yang biasanya disuarakan oleh pembuat acara Seth MacFarlane, malah menyanyikan lagu-lagu yang tidak biasa.
“Senjata kita berat, tentara kita hebat, tapi tentara Tuhan sudah siap,” nyanyiannya dengan aksen khas Rhode Island di perbatasan utara Amerika Serikat. Sebuah video propaganda dirilis baru-baru ini.
Animasi tersebut jelas bukan lagu satir terbaru MacFarlane, namun hanyalah contoh lain bagaimana kelompok ekstremis menggunakan komputasi canggih, atau AI, untuk membuat konten bagi pengikutnya.
Istilah kecerdasan buatan mencakup berbagai teknologi digital yang melibatkan pemrosesan data dalam jumlah besar dan pemrosesan cepat, atau disebut dengan “kecerdasan buatan generatif”. Begitulah asal mula lagu Peter Griffin ini.
“Pesatnya demokratisasi teknologi AI yang produktif dalam beberapa tahun terakhir telah berdampak besar pada cara organisasi ekstremis mengelola operasi online mereka,” kata Daniel Siegel, seorang peneliti Amerika yang menganalisis penggunaan AI untuk tujuan jahat, dalam sebuah artikel untuk Global Jaringan. tentang Ekstremisme. dan Penerapan Teknologi AI oleh kelompok teroris
Selama setahun terakhir, pengamat dari berbagai lembaga penelitian mengamati bagaimana ISIS dan kelompok ekstremis lainnya aktif menggunakan perangkat lunak digital terkini.
Pada bulan Februari, sebuah kelompok yang berafiliasi dengan al-Qaeda mengumumkan akan mulai mengadakan lokakarya kecerdasan buatan secara online, Washington Post melaporkan. Segera, kelompok yang sama menerbitkan panduan untuk menggunakan chatbot AI.
Pada bulan Maret, ketika seorang anggota ISIS membunuh lebih dari 135 orang dalam serangan teroris di Moskow, salah satu pengikut kelompok tersebut membuat berita palsu tentang insiden tersebut dan menerbitkannya empat hari setelah serangan tersebut.
“Apa yang kita ketahui saat ini tentang penggunaan kecerdasan buatan adalah bahwa hal itu melengkapi propaganda al-Qaeda dan ISIS,” kata Mustafa Ayad, direktur Afrika, Timur Tengah dan Asia di Institute for Strategic Dialogue di London. , ISD.
“Hal ini memungkinkan para pendukung dan kelompok pendukung informal untuk membuat konten emosional yang secara khusus digunakan untuk menggalang pendukung seputar konsep inti.” Pengadopsi awal teknologi
Saat ISIS pertama kali muncul sekitar tahun 2014, organisasi teroris tersebut sudah mampu memproduksi video propaganda berkualitas tinggi untuk menakut-nakuti musuh dan merekrut pengikut.
“Semua ini menunjukkan bahwa ISD terus memantau,” kata Ayad, “kelompok teroris dan pendukungnya terus menggunakan kemajuan teknologi untuk kepentingan mereka.”
Banyak lembaga penelitian telah mencantumkan cara dan metode penggunaan kecerdasan buatan yang digunakan oleh kelompok ekstremis. Selain propaganda, mereka dapat menggunakan chatbots dari model bahasa utama seperti ChatGPT untuk berkomunikasi dengan calon anggota baru, saran para ahli. .
Model AI seperti ChatGPT juga memiliki beberapa aturan yang tertulis di sistemnya untuk mencegah penyalahgunaan. Namun, peraturan ini dapat dengan mudah dielakkan untuk mendistribusikan konten berbahaya. Bom palsu vs. Bom palsu adalah bom asli
Dalam artikel yang dimuat di jurnal Perspectives on Terrorism tahun 2019, peneliti mengamati hubungan antara propaganda yang diterbitkan kelompok ISIS dengan serangan teroris yang terjadi. “Tidak ada hubungan yang kuat dan dapat diprediksi”.
“Ini mirip dengan perdebatan yang kita lakukan tentang senjata siber dan bom siber 10 tahun lalu,” kata Lilly Pijnenburg Muller, peneliti dan pakar keamanan siber di Departemen Studi Perang King’s College.
Jangan khawatir tentang AI, bahkan saat ini rumor dan video lama bisa beredar di media sosial dan menimbulkan banyak informasi yang salah, katanya kepada DW. “Negara-negara mempunyai bom konvensional yang dapat dijatuhkan jika mereka berniat melakukannya.”
“Saya tidak tahu apakah pada saat ini penggunaan AI oleh organisasi teroris dan pendukungnya lebih berbahaya daripada propaganda nyata yang melibatkan pembunuhan brutal terhadap warga sipil dan serangan terhadap pasukan keamanan,” kata Ayad.
“Saat ini ancaman yang lebih besar adalah kelompok-kelompok yang melakukan serangan, menginspirasi aktor tunggal atau anggota baru yang ingin merespons kancah geopolitik, yaitu perang Israel di Gaza sebagai respons terhadap 7 Oktober,” lanjutnya, membunuh warga Israel dan tindakannya. sebagai alat retorika untuk merekrut dan membangun kampanye.”
Rzn/suka