
DALAM 12 jam pertama serangan ke Iran, hampir 900 target dihantam.
Bukan hanya rudal yang bekerja. Algoritma ikut membaca peta perang.
Militer Amerika Serikat (AS) mengakui menggunakan teknologi AI Claude buatan Anthropic untuk menganalisis data intelijen dalam jumlah besar. Sistem ini membantu menyaring rekaman drone, intersepsi komunikasi, hingga laporan intelijen manusia sebelum target dipilih.
Perang bergerak cepat. Sangat cepat.
AI dan Kompresi Keputusan
Teknologi seperti Claude tidak menarik pelatuk. Tapi, mempercepat proses pengambilan keputusan.
Sistem analitik yang dikembangkan bersama perusahaan teknologi pertahanan Palantir memungkinkan militer memprioritaskan target, merekomendasikan jenis persenjataan berdasarkan ketersediaan stok, bahkan mengevaluasi dasar hukum serangan melalui penalaran otomatis.
Fenomena ini dikenal sebagai decision compression atau kompresi keputusan.
Baca juga: 5 Kandidat Pengganti Ali Khamenei, Siapa Paling Berpeluang?
Craig Jones, dosen senior geografi politik di Universitas Newcastle, mengatakan percepatan ini mengubah wajah peperangan modern.
“Mesin AI memberikan rekomendasi tentang apa yang harus ditargetkan, yang sebenarnya jauh lebih cepat dalam beberapa hal daripada kecepatan berpikir,” kata Jones kepada The Guardian, Selasa (3/3).
Ia menambahkan, operasi yang dulu membutuhkan waktu berhari-hari atau berminggu-minggu kini bisa dilakukan hampir bersamaan dalam satu gelombang serangan terpadu.
Kecepatan menjadi senjata.
Claude Dihentikan, Perang Tetap Berjalan
Ironisnya, Anthropic sempat berselisih dengan Pemerintah AS pada Januari 2026. Perusahaan itu menolak penggunaan Claude untuk operasi yang dinilai melanggar ketentuan penggunaan, termasuk untuk tujuan kekerasan atau pengembangan senjata.
Beberapa jam sebelum serangan ke Iran dimulai, Presiden AS Donald Trump memerintahkan lembaga federal menghentikan penggunaan Claude dan mengecam Anthropic di media sosialnya.
Baca juga: Konflik Timur Tengah Tunda Kepulangan Jemaah Umrah
Namun militer tetap diberi masa transisi enam bulan sebelum beralih penuh ke model AI lain, termasuk ChatGPT milik OpenAI.
Artinya, penggunaan AI di medan perang tidak berhenti. Hanya modelnya yang berubah.

Gaza dan Lonjakan AI Komersial
Penggunaan AI dalam konflik bukan hal baru.
Investigasi Associated Press pada awal 2025 mengungkap bahwa Microsoft dan OpenAI memasok model AI ke Israel selama operasi di Gaza dan Lebanon. Model OpenAI diakses melalui platform cloud Azure milik Microsoft. Penggunaannya melonjak tajam sejak awal 2024.
Menurut laporan The Guardian pada 2024, sistem penargetan internal Israel yang dikenal sebagai “Lavender” memproses data besar untuk mengidentifikasi ribuan calon target. Beberapa sumber menyebut sistem ini pernah mencatat puluhan ribu nama yang dikaitkan dengan kelompok militan.
AI digunakan untuk menyaring panggilan telepon, pesan teks, dan pola komunikasi dalam waktu singkat. Namun risiko kesalahan tetap ada.
Baca juga: Serangan AS-Israel Tewaskan Ali Khamenei, Apa Dampaknya ke Dunia?
OpenAI sendiri mengakui model transkripsi seperti Whisper dapat menghasilkan teks yang tidak pernah diucapkan, termasuk menyisipkan retorika yang bias atau keliru.
Dalam konteks perang, satu kesalahan analisis bisa berdampak fatal.
Ketika Mesin Masuk Rantai Pembunuhan
Beberapa sumber yang dikutip The Guardian menyebut pada fase awal konflik, alokasi korban sipil bahkan telah dipertimbangkan sebelum serangan disetujui.
Teknologi membuat proses lebih statistik. Lebih otomatis. Lebih “dingin”.
AI kini bukan hanya alat bantu administratif. Tapi, menjadi bagian dari rantai keputusan militer, dari analisis data hingga rekomendasi target.
Baca juga: Serangan Israel-AS Picu Pembatalan Penerbangan Indonesia ke Timur Tengah
Bagi generasi yang tumbuh bersama ChatGPT dan platform digital lain, fakta ini terasa kontras. Teknologi yang biasa dipakai untuk tugas kuliah atau membuat konten, ternyata juga hidup di ruang komando perang.
Perang modern tidak lagi hanya soal strategi militer.
Tapi, juga soal kecepatan server dan akurasi algoritma.
Dan perdebatan tentang batas etika penggunaan AI dalam konflik bersenjata baru saja dimulai. ****
Dapatkan informasi menarik lainnya dengan bergabung di WhatsApp Channel Mulamula.id dengan klik tautan ini.