Bayangkan Anda telah menghabiskan bertahun-tahun, sumber daya miliaran dolar, dan tenaga para jenius terbaik untuk menciptakan sebuah mahakarya teknologi. Lalu, pesaing Anda datang, menyalin prinsip karya itu dengan langkah nan licik, dan mengklaimnya sebagai hasil kerja keras mereka sendiri. Itulah afinitas nan tepat untuk menggambarkan gugatan keras nan baru saja dilayangkan oleh Anthropic, sang pembuat chatbot pandai Claude, terhadap tiga raksasa AI asal China.
Dunia kepintaran buatan, nan sering digambarkan sebagai lomba senjata teknologi terbaru, kembali diwarnai skandal. Kali ini, bukan tentang chip canggih alias info rahasia, melainkan tentang sebuah teknik training nan disebut “distillation” alias penyulingan. Pada dasarnya, distillation adalah proses di mana model AI nan kurang canggih “belajar” dari respons model nan lebih pandai untuk meningkatkan kemampuannya. Praktik ini sah dan umum dilakukan dalam penelitian, seperti seorang siswa nan belajar dari guru. Namun, apa jadinya jika proses belajar itu dilakukan secara masif, terselubung, dan dengan niat mencuri?
Anthropic dengan tegas menyatakan bahwa nan terjadi adalah nan terakhir. Dalam sebuah pengumuman resmi, perusahaan nan didukung oleh Google dan Amazon ini menuding tiga perusahaan AI China—DeepSeek, Moonshot, dan MiniMax—telah melancarkan kampanye skala industri untuk secara terlarangan mengekstrak keahlian Claude. Tuduhan ini bukan sekadar kecurigaan, melainkan klaim nan didukung oleh bukti digital nan menurut Anthropic mempunyai tingkat kepercayaan “sangat tinggi”. Lantas, seberapa serius ancaman “distillation attack” ini bagi masa depan penemuan AI nan sehat?
Skala Penyerangan nan Mencengangkan: 16 Juta Pertukaran dari 24.000 Akun Palsu
Yang membikin tudingan Anthropic begitu mengguncang adalah skalanya nan luar biasa besar. Perusahaan menyatakan bahwa ketiga perusahaan China tersebut bertanggung jawab atas lebih dari 16 juta pertukaran percakapan dengan Claude. Bayangkan, 16 juta percakapan nan dirancang untuk menguliti setiap logika, kreativitas, dan keamanan nan tertanam dalam model bahasa besar (LLM) Claude. Semua hubungan masif ini dilakukan melalui sekitar 24.000 akun nan diduga tiruan alias fraudulen.
Metode ini mengingatkan kita pada strategi botnet dalam keamanan siber, di mana serangan dilancarkan dari banyak titik untuk menyamarkan identitas asli. Dalam konteks ini, akun-akun tiruan tersebut digunakan untuk secara sistematis mengusulkan beragam pertanyaan, skenario kompleks, dan prompt nan dirancang unik untuk memetakan kekuatan dan kelemahan Claude. Data hasil “interogasi” ini kemudian diduga digunakan sebagai bahan bakar training untuk mempercepat pengembangan model milik DeepSeek, Moonshot, dan MiniMax.
Dari perspektif pandang Anthropic, ini adalah jalan pintas nan tidak etis. Alih-alih berinvestasi dalam penelitian fundamental, arsitektur model, dan training dari nol—proses nan menyantap biaya komputasi raksasa—perusahaan pesaing diduga menggunakan Claude sebagai “guru privat” nan dipaksa mengajar. Praktik ini tidak hanya merugikan dari segi intelektual, tetapi juga berpotensi melemahkan sistem keamanan nan dengan susah payah dibangun. Bagaimana jika model hasil “saduran” itu tidak mewarisi pagar etis nan sama?
Bagaimana Anthropic Bisa Melacak Serangan Tersebut?
Lalu, gimana Anthropic bisa begitu percaya dan berani menunjuk langsung ketiga perusahaan tersebut? Jawabannya terletak pada forensik digital tingkat lanjut. Anthropic mengaku sukses menghubungkan setiap kampanye serangan distillation ini ke perusahaan spesifik dengan “keyakinan tinggi” melalui kombinasi beberapa bukti:
- Korelasi Alamat IP: Melacak asal-usul geografis dan blok jaringan nan digunakan oleh akun-akun penyerang.
- Permintaan Metadata: Menganalisis pola dan karakter permintaan info nan tidak wajar dari akun-akun tersebut.
- Indikator Infrastruktur: Mengidentifikasi sidik jari server, pola koneksi, dan perangkat otomatisasi nan digunakan.
Yang lebih menarik, Anthropic juga menyatakan telah bekerja-sama dengan “pihak lain di industri AI” nan memperhatikan perilaku serupa. Ini mengisyaratkan bahwa praktik tersebut mungkin lebih luas dan menjadi perhatian berbareng di kalangan developer AI utama. Faktanya, ini bukan kali pertama kejadian seperti ini terjadi. Awal tahun lalu, OpenAI juga mengaku telah mengambil tindakan terhadap perusahaan rival nan diduga melakukan distillation pada modelnya, dengan memblokir akun-akun nan dicurigai.
Kesamaan respons ini menunjukkan bahwa “distillation attack” telah menjadi ancaman nyata nan dipandang serius oleh para pionir AI. Jika dibiarkan, suasana kejuaraan nan setara bisa runtuh, dan penemuan original nan menyantap biaya besar justru tidak terlindungi.
Batas Tipis Antara Belajar dan Mencuri dalam Dunia AI
Pertanyaan mendasar nan muncul adalah, di mana pemisah antara distillation nan sah dan “distillation attack” nan ilegal? Dalam lingkungan akademis dan open-source, berbagi pengetahuan dan model adalah perihal nan lumrah. Banyak kemajuan AI justru dibangun di atas fondasi nan dibuat oleh orang lain. Namun, konteksnya berubah ketika masuk ke ranah komersial nan kompetitif.
Anthropic menegaskan bahwa nan mereka tentang adalah kampanye terorganisir, terselubung, dan skala industri nan dirancang untuk mengeksploitasi jasa mereka secara melanggar ketentuan penggunaan. Ini berbeda dengan seorang peneliti independen nan mempelajari output model untuk memahami konsep. Serangan ini diduga dilakukan secara sistematis untuk mengekstrak nilai komersial secara langsung, sebuah tindakan nan bisa disamakan dengan industrial espionage alias mata-mata industri di era digital.
Lebih jauh, praktik semacam ini berpotensi menciptakan akibat keamanan nan lebih luas. Bayangkan jika model hasil saduran tidak mewarisi alias justru sengaja menghilangkan kode moral Claude. Atau, gimana jika kerentanan tertentu dalam model asli, seperti nan terkadang bisa dipicu oleh format tak terduga semacam puisi, justru diperbesar? Integritas dan keamanan ekosistem AI dunia bisa terancam.
Langkah Antisipasi dan Masa Depan Perlindungan Model AI
Menanggapi serangan ini, Anthropic tidak hanya berakhir pada tuduhan. Perusahaan menyatakan bakal meningkatkan sistemnya untuk membikin serangan distillation menjadi lebih susah dilakukan dan lebih mudah diidentifikasi. Meski perincian teknisnya tidak diungkap, langkah-langkah ini mungkin mencakup penemuan pola penggunaan nan anomali, pengesahan identitas pengguna nan lebih ketat, dan mungkin watermarking alias penanaman sidik digital tertentu pada output model.
Namun, ironisnya, di saat nan sama Anthropic menuding pihak lain, perusahaan ini sendiri sedang berhadapan dengan gugatan norma dari penerbit musik nan menuduhnya menggunakan salinan lagu terlarangan untuk melatih Claude. Pertanyaan tentang sumber info training nan etis dan legal kembali mencuat, menunjukkan bahwa seluruh industri AI tetap melangkah di area abu-abu nan kompleks.
Insiden ini juga menyoroti dinamika geopolitik teknologi. Ketegangan teknologi antara AS dan China semakin merambah ke ranah kepintaran buatan. Sementara perusahaan AS seperti Anthropic dan OpenAI memimpin inovasi, perusahaan China seperti nan dituding berupaya keras mengejar ketertinggalan. Namun, langkah nan ditempuh menjadi bahan perdebatan sengit. Apakah ini bakal memicu izin nan lebih ketat terhadap akses ke model AI premium? Atau justru mendorong perlombaan senjata teknologi nan lebih tertutup?
Sebagai perbandingan, persetujuan pemerintah AS terhadap Grok xAI milik Elon Musk menunjukkan sungguh strategisnya kepemilikan dan kontrol atas teknologi AI ini di tingkat nasional. Perlindungan kekayaan intelektual model AI tidak lagi sekadar urusan bisnis, tetapi juga urusan keamanan nasional.
Pada akhirnya, kasus Anthropic versus ketiga perusahaan AI China ini adalah titik kembali penting. Kasus ini memaksa kita semua untuk merenung: Dalam perlombaan menciptakan kepintaran buatan nan semakin canggih, apakah segala langkah dihalalkan? Atau ada pemisah etika dan norma nan kudu dijunjung tinggi untuk memastikan penemuan tumbuh dalam ekosistem nan sehat, kompetitif, dan saling menghormati? Jawabannya bakal menentukan wajah AI nan bakal membentuk masa depan kita.