Presiden Amerika Serikat Donald Trump telah mengeluarkan perintah langsung kepada seluruh lembaga pemerintah federal untuk segera menghentikan penggunaan teknologi kecerdasan buatan (AI) dari perusahaan Anthropic.
Keputusan ini diumumkan pada Jumat, 27 Februari 2026, melalui postingan di platform Truth Social miliknya, menyusul perselisihan sengit dengan Pentagon terkait batasan penggunaan AI untuk keperluan militer.
Menurut laporan Reuters, Trump menyatakan bahwa pemerintah AS tidak akan lagi bekerja sama dengan Anthropic, perusahaan di balik model AI Claude yang populer. Ia menegaskan,
"Kami tidak membutuhkannya, kami tidak menginginkannya, dan kami tidak akan berbisnis lagi dengan mereka!"
Alasan Utama Perintah Trump dan Penetapan Risiko Supply Chain oleh Pentagon
Konflik ini bermula dari negosiasi berbulan-bulan antara Anthropic dan Departemen Pertahanan AS (Pentagon, yang oleh pemerintahan Trump disebut sebagai Department of War). Anthropic menolak menghapus guardrails atau batasan penggunaan AI-nya, khususnya untuk:
- Senjata otonom penuh (fully autonomous weapons) yang beroperasi tanpa campur tangan manusia.
- Pengawasan massal terhadap warga AS (mass domestic surveillance).
Pentagon menuntut akses tanpa batas untuk "semua penggunaan yang sah" sesuai hukum AS, dengan argumen bahwa kebijakan perusahaan swasta tidak boleh membatasi kemampuan militer dalam mempertahankan negara.
Akibat penolakan tersebut, Menteri Pertahanan Pete Hegseth menetapkan Anthropic sebagai supply-chain risk terhadap keamanan nasional.
Penetapan ini melarang ribuan kontraktor militer melakukan aktivitas komersial dengan Anthropic, mirip dengan pembatasan terhadap perusahaan China seperti Huawei di masa lalu.
Trump menambahkan periode phase-out selama enam bulan khusus untuk Departemen Pertahanan dan lembaga lain yang sudah mengintegrasikan produk Anthropic.
Jika perusahaan tidak kooperatif selama transisi, Trump mengancam akan menggunakan "kekuatan penuh kepresidenan" dengan konsekuensi sipil dan pidana yang signifikan.
Respons Anthropic dan Dampaknya
Anthropic langsung menyatakan akan menantang penetapan risiko supply chain ini di pengadilan. Dalam pernyataannya, perusahaan menyebut keputusan tersebut "secara hukum tidak berdasar" dan menetapkan preseden berbahaya bagi perusahaan AS yang bernegosiasi dengan pemerintah.
CEO Anthropic Dario Amodei menegaskan bahwa perusahaan tetap pada posisinya: "Tidak ada intimidasi atau hukuman dari Department of War yang akan mengubah sikap kami terhadap pengawasan massal domestik atau senjata otonom penuh."
Langkah tersebut menjadi pukulan berat bagi Anthropic, yang sebelumnya menjadi salah satu penyedia AI pertama yang bekerja dengan jaringan rahasia Pentagon melalui kesepakatan dengan Amazon.
Penetapan sebagai risiko supply chain bisa mengancam bisnis pemerintah mereka, hubungan sektor swasta, dan bahkan rencana IPO yang direncanakan.
Sementara itu, rival Anthropic seperti OpenAI (didukung Microsoft) mengumumkan kesepakatan baru dengan Pentagon untuk mengerahkan model AI mereka di jaringan rahasia, dengan memasukkan prinsip tanggung jawab manusia atas sistem senjata dan larangan pengawasan massal AS.
CEO OpenAI Sam Altman menyatakan bahwa mereka juga membangun safeguards teknis sesuai keinginan Pentagon.
Implikasi Lebih Luas bagi Industri AI dan Keamanan Nasional
Keputusan ini menandai preseden penting: pemerintah AS menegaskan bahwa hukum negara, bukan kebijakan perusahaan swasta, yang mengatur penggunaan AI di medan perang.
Para ahli menyebutnya sebagai regulasi AI domestik paling keras yang pernah dikeluarkan pemerintah mana pun, bahkan dibandingkan dengan ancaman dari perusahaan AI China.
Langkah ini juga menimbulkan kekhawatiran tentang "killer robots" dan sistem otomatis dalam konflik modern, seperti yang terlihat di Ukraina dan Gaza. Mantan pejabat Pentagon Jack Shanahan menyatakan kekhawatiran bahwa tanpa batasan, bisa terjadi kurangnya due process, korban sipil, atau kerusakan kolateral.
Sumber: Reuters (27 Februari 2026) – Trump directs US agencies to toss Anthropic's AI as Pentagon calls startup a supply risk.
