Baru-baru ini, perusahaan kecerdasan buatan terkemuka, Anthropic, membuat pengumuman yang mengejutkan industri teknologi. Mereka memutuskan untuk tidak merilis secara penuh model AI terbaru dan paling canggih mereka, yang dinamakan Claude Mythos Preview, kepada masyarakat umum.
Langkah penahanan tersebut diambil secara sadar karena model tersebut dianggap memiliki kemampuan yang terlalu berisiko jika diakses secara bebas, khususnya terkait keamanan siber global.
Berikut adalah ulasan mendalam mengenai apa itu model Mythos, alasan di balik penahanannya, dan langkah alternatif yang diambil oleh Anthropic.
Mengapa Claude "Mythos" Dianggap Sangat Berbahaya?
Berbeda dengan model AI bahasa pada umumnya yang difokuskan pada penulisan teks atau analisis data dasar, Claude Mythos Preview menunjukkan lompatan kemampuan yang luar biasa—khususnya dalam bidang rekayasa perangkat lunak dan keamanan siber.
Alasan utama mengapa model ini dinilai terlalu berbahaya bagi publik meliputi:
Pendeteksian Celah Keamanan Skala Besar
Dalam pengujian internal, Mythos mampu menemukan ribuan kerentanan keamanan yang belum diketahui oleh pembuat perangkat lunak (zero-day) di berbagai sistem operasi utama dan web browser.
Membongkar Bug Berusia Puluhan Tahun
Kemampuan analisis kodenya melampaui kejelian manusia. Mythos bahkan berhasil mendeteksi kerentanan kritis berusia 27 tahun pada sistem operasi OpenBSD dan menemukan cacat tersembunyi pada kernel Linux yang memungkinkan peretas mengambil kendali penuh atas sebuah server dari jarak jauh.
Risiko Eksploitasi Otomatis
Meskipun AI ini dirancang untuk tujuan analisis, kemampuannya merangkai berbagai kerentanan menjadi satu pola serangan yang rumit (exploit chain) sangat canggih. Jika model ini diakses oleh peretas, kelompok kriminal siber, atau aktor ancaman lintas negara,
Mythos dapat memicu gelombang serangan siber otomatis berskala global dengan kecepatan dan efisiensi yang tidak dapat diantisipasi oleh sistem pertahanan tradisional.
Oleh karena itu, Anthropic menilai bahwa garis batas antara kemampuan pertahanan (defensive) dan kemampuan peretasan (offensive) dalam sistem ini sudah terlalu kabur untuk dilepas ke ranah publik.
"Project Glasswing": Solusi Pertahanan Infrastruktur Digital
Untuk memastikan teknologi ini membawa manfaat tanpa mengorbankan keamanan internet, Anthropic memilih jalur distribusi eksklusif. Daripada peluncuran publik, perusahaan meluncurkan inisiatif kolaboratif baru bernama Project Glasswing.
Melalui proyek tersebut, Anthropic membatasi akses model Mythos dan hanya membagikannya kepada sekelompok kecil mitra strategis. Beberapa poin utama dari inisiatif ini meliputi:
- Anthropic bekerja sama dengan 11 perusahaan industri raksasa, termasuk Apple, Google, JPMorgan Chase, Amazon Web Services (AWS), Microsoft, NVIDIA, Cisco, dan The Linux Foundation.
- Akses tertutup ke Mythos diberikan semata-mata agar perusahaan-perusahaan pemelihara infrastruktur ini dapat memindai sistem mereka sendiri, menemukan celah keamanan yang selama ini tersembunyi, dan segera menambalnya (patching) sebelum teknologi AI serupa berhasil diciptakan dan dieksploitasi oleh pihak yang tidak bertanggung jawab.
- Anthropic mengalokasikan hingga $100 juta dalam bentuk kredit penggunaan model AI untuk mendukung para mitra memburu bug, serta menyuntikkan donasi jutaan dolar kepada organisasi keamanan perangkat lunak open-source.
Babak Baru dalam Etika dan Keselamatan AI
Keputusan Anthropic untuk menahan Claude Mythos menandai pergeseran krusial dalam industri kecerdasan buatan. Hal ini membuktikan bahwa para pengembang AI mulai secara proaktif menerapkan kebijakan keselamatan (Responsible Scaling Policy) dibandingkan sekadar mengejar profit.
Daripada berlomba merilis produk ke pasar demi memenangkan persaingan komersial, langkah pembatasan ini menyoroti realitas bahwa model frontier (model AI perintis tingkat lanjut) memiliki potensi setara dengan senjata siber.
Seiring berkembangnya AI yang semakin mandiri dan memiliki kemampuan penalaran tingkat tinggi, kasus "Mythos" akan menjadi cetak biru bagaimana teknologi masa depan yang terlalu canggih harus diatur dan didistribusikan secara ekstra hati-hati.
Sumber: https://www.anthropic.com/glasswing.
