Sebuah investigasi yang dilakukan oleh Associated Press (AP) mengungkap bahwa perusahaan teknologi raksasa Amerika Serikat secara diam-diam telah memberikan dukungan bagi Israel dalam melacak dan membunuh individu yang diduga sebagai pejuang di Gaza dan Lebanon melalui penggunaan kecerdasan buatan (AI) dan layanan komputasi. Namun, meningkatnya jumlah korban sipil memicu kekhawatiran bahwa alat-alat ini justru berkontribusi terhadap kematian orang-orang yang tidak bersalah.
Selama bertahun-tahun, militer di berbagai negara-negara telah menggunakan perusahaan swasta untuk mengembangkan senjata otonom. Namun, agresi terbaru Israel menandai salah satu kasus pertama ketika model AI komersial buatan AS digunakan dalam peperangan aktif.
Militer Israel menggunakan AI untuk memilah data intelijen dalam jumlah besar, komunikasi yang disadap, serta rekaman pengawasan guna mengidentifikasi ucapan atau perilaku mencurigakan serta melacak pergerakan musuh. Setelah serangan Hamas pada 7 Oktober 2023, penggunaan teknologi dari Microsoft dan OpenAI oleh militer Israel melonjak drastis. AP juga menemukan bahwa sistem AI ini memiliki kelemahan serius, termasuk data yang keliru atau algoritma yang cacat, sehingga berpotensi menyebabkan kesalahan dalam penentuan target.
Salah satu contoh kasus yang diungkap dalam investigasi menunjukkan bagaimana sistem penargetan AI militer Israel pernah salah mengidentifikasi daftar siswa sekolah menengah sebagai potensi pejuang bersenjata. Seorang perwira intelijen Israel mengungkap bahwa daftar tersebut hanyalah lampiran file Excel yang berjudul “finals” dalam bahasa Arab, berisi lebih dari 1.000 nama siswa yang mengikuti ujian di suatu daerah di Gaza.
Kesalahan seperti itu bisa saja membuat ratusan warga sipil tak bersalah menjadi sasaran serangan. Ia juga mengkhawatirkan bahwa petugas militer muda—bahkan belum berusia 20 tahun—yang bekerja di bawah tekanan tinggi dan bergantung pada AI dalam menentukan target, bisa mengambil kesimpulan secara gegabah.
Para pakar AI menyoroti risiko besar dari penggunaan teknologi komersial dalam perang. Heidy Khlaaf, ilmuwan utama di AI Now Institute dan mantan insinyur keamanan senior di OpenAI, mengatakan bahwa ini adalah pertama kalinya ada konfirmasi bahwa model AI komersial digunakan dalam peperangan secara langsung. “Peran teknologi memiliki implikasi yang sangat besar dalam memungkinkan perang yang tidak etis dan melanggar hukum pada masa mendatang,” ujarnya.
Laporan ini menyoroti bagaimana perkembangan teknologi AI yang pesat kini menjadi bagian dari konflik bersenjata, sekaligus menimbulkan dilema etika dan kemanusiaan yang mendalam.
Sumber:
***
Kunjungi situs resmi Adara Relief International
Ikuti media sosial resmi Adara Relief di Facebook, Twitter, YouTube, dan Instagram untuk informasi terkini.
Baca berita harian kemanusiaan, klik di sini
Baca juga artikel terbaru, klik di sini








