Anthropic Bongkar Dugaan Pencurian AI Claude: Tiga Lab China Terseret dalam Kontroversi Internasional

Anthropic Bongkar Dugaan Pencurian AI Claude: Tiga Lab China Terseret dalam Kontroversi Internasional

Ketegangan dalam industri kecerdasan buatan global semakin memanas di awal tahun 2026. Anthropic, perusahaan AI asal Amerika Serikat yang mengembangkan chatbot canggih bernama Claude, baru-baru ini secara terbuka menuduh tiga perusahaan kecerdasan buatan asal China melakukan praktik “pencurian” teknologi skala besar yang melibatkan model AI mereka. Tuduhan ini tidak hanya mengguncang dunia AI, tetapi juga memperkuat diskusi seputar etika pelatihan model, keamanan data, serta persaingan geopolitik di sektor teknologi tinggi.

Menurut Anthropic, perusahaan-perusahaan bernama DeepSeek, Moonshot AI, dan MiniMax diduga telah memanfaatkan Claude untuk melatih model AI mereka sendiri melalui taktik yang disebut distillation (distilasi), namun dilakukan secara tidak sah dan masif. Metode ini, meskipun digunakan secara sah dalam riset AI, dalam kasus ini dituduh dilakukan melalui jaringan akun palsu dan dalam jumlah luar biasa besar—hingga jutaan interaksi—yang dianggap melampaui batas etika dan perjanjian penggunaan platform.

Kasus ini turut menyoroti dilema besar seputar hak kekayaan intelektual di era AI, serta bagaimana perusahaan melindungi teknologi mereka di tengah persaingan global yang kian tajam.

1. Claude dan Posisi Anthropic di Dunia AI

Anthropic didirikan oleh mantan peneliti OpenAI dan sejak awal fokus pada pengembangan model AI yang tidak hanya canggih, tetapi juga aman dan beretika. Produk unggulannya, Claude, merupakan model bahasa besar (LLM) yang dirancang untuk mampu memahami konteks kompleks, menjawab pertanyaan rumit, menulis kode, serta mendukung aplikasi produktivitas dan riset.

Claude digadang-gadangkan sebagai salah satu pesaing utama berbagai model generatif lain dari Amerika Serikat, sehingga teknologi inti di baliknya menjadi aset strategis bernilai tinggi bagi Anthropic. Karena itu, perusahaan sangat menjaga akses ke model ini, terutama di wilayah yang memiliki peraturan akses terbatas seperti China.

2. Apa Itu “Distillation” dan Bagaimana Cara Kerjanya?

Distillation adalah teknik pelatihan model yang cukup umum dalam machine learning. Dalam praktiknya, model yang lebih kecil (student) belajar dari output model yang lebih besar (teacher) untuk meniru perilakunya, sehingga bisa mendapatkan kemampuan serupa dengan sumber yang jauh lebih kuat tanpa memerlukan sumber daya besar untuk pelatihan dari awal.

Dalam konteks AI komersial, perusahaan sering melakukan distillation untuk menghasilkan versi yang lebih ringkas dari model utama yang dapat dijalankan lebih efisien di aplikasi dengan keterbatasan sumber daya. Namun, Anthropic mengklaim bahwa teknik ini kali ini dilakukan secara tidak sah dalam skala industri, menggunakan output Claude yang dikumpulkan melalui metode yang melanggar aturan.

Dalam tuduhan Anthropic, akun palsu digunakan untuk melakukan lebih dari 16 juta pertukaran data dan prompt dengan Claude—sebuah jumlah yang sangat besar dalam konteks pelatihan model. Mereka menuduh hingga 24.000 akun palsu dibuat untuk tujuan ini, yang kemudian menjadi dasar pelatihan model pesaing.

Baca juga : LEGO Perkenalkan Sistem Smart Play: Menyulap Mainan Jadi “Hidup” Tanpa Layar

3. Tiga Perusahaan AI China yang Terseret Tuduhan

Anthropic menamai tiga perusahaan yang dianggap terlibat dalam kampanye distilasi ini:

• DeepSeek

Perusahaan ini diduga menggunakan Claude untuk menghasilkan data reasoning atau chain of thought yang kemudian diolah ke dalam pelatihan model mereka sendiri. Teknik ini memungkinkan model baru meniru kemampuan Claude dalam menjelaskan langkah pemikiran secara implisit—yang merupakan aspek penting dalam pemahaman konteks kompleks.

• Moonshot AI

Moonshot disebut terlibat dalam jutaan interaksi yang menargetkan kemampuan agentic reasoning, penggunaan alat (tool use), serta domain lain seperti visi komputer. Data ini diduga menjadi fondasi model yang tengah mereka kembangkan, seperti versi terbaru dari model Kimi yang mereka suarakan sebelumnya.

• MiniMax

MiniMax menjadi pihak dengan volume interaksi terbanyak, dengan klaim lebih dari 13 juta pertukaran, yang difokuskan pada kemampuan coding, algoritma lanjutan, dan analisis multimodal. Model mereka diduga secara agresif memanfaatkan output Claude untuk meningkatkan kapabilitas internal.

Dalam rincian interaksi ini, terdapat pola penggunaan yang menurut Anthropic menunjukkan strategi terkoordinasi yang konsisten dengan distillation industri besar, bukan sekadar riset atau eksperimen kecil.

4. Metode Ilegal Disebutkan Melibatkan Akun Palsu dan Proxy

Menurut Anthropic, pendekatan para perusahaan tersebut bukan hanya distillation biasa, tetapi melibatkan jaringan akun yang dimanipulasi untuk menghindari deteksi dan pembatasan akses. Bahkan Claude sendiri secara resmi tidak tersedia secara komersial di China karena pembatasan regional tertentu.

Dalam tuduhan tersebut, penggunaan layanan proxy dan cluster infrastruktur yang rumit memungkinkan para pelaku membuat trafic yang tampak seperti permintaan normal dari banyak sumber berbeda. Teknik semacam itu memungkinkan mereka menyembunyikan asal sebenarnya, membuat deteksi awal menjadi jauh lebih sulit.

Pendekatan ini dianggap tidak hanya melanggar syarat layanan Anthropic, tetapi juga memanfaatkan Celah dalam pengawasan teknologi AI yang bisa dimanfaatkan pihak tertentu untuk berkembang tanpa investasi sebanding dalam riset asli.

5. Dampak Terhadap Keamanan dan Etika AI

Tuduhan ini memicu reaksi luas di komunitas teknologi global karena menimbulkan beberapa kekhawatiran penting:

■ Pencurian Kekayaan Intelektual

Jika klaim Anthropic benar, maka ini menunjukkan usaha terkoordinasi untuk mengekstrak kemampuan teknologi terdepan tanpa membayar biaya riset dan pengembangan yang biasa diperlukan. Hal semacam ini dinilai bisa merugikan inovator utama dan melemahkan sistem insentif dalam industri AI.

■ Ancaman Keamanan

Anthropic menambahkan bahwa distillation yang dilakukan tanpa pembatasan keamanan bisa menghasilkan model yang tidak memiliki safeties atau protokol pencegahan bahaya yang semestinya ada. Ini meningkatkan risiko bahwa teknologi tersebut digunakan untuk aktivitas seperti pengembangan bioweapon, serangan siber, atau disinformasi skala besar.

■ Menghindari Kontrol Ekspor Teknologi

Dengan memanfaatkan teknik ini, perusahaan bisa “mengakali” pembatasan ekspor terhadap perangkat keras canggih (misalnya chip AI terbaru) yang diberlakukan oleh negara seperti AS. Jika kemampuan model dipelajari melalui distillation, maka sebagian kemajuan teknologi bisa diperoleh tanpa mengimpor hardware yang dibatasi.

Ini berarti bahwa distillation ilegal berpotensi menjadi jalan memutar yang mengurangi efektivitas kebijakan teknologi internasional yang dibentuk untuk kontrol geopolitik.

6. Respons dan Tindakan Anthropic

Sebagai tanggapan terhadap temuan ini, Anthropic mengatakan bahwa mereka tidak hanya mempublikasikan tuduhan ini untuk memberikan transparansi, tetapi juga sedang memperkuat sistem deteksi dan pencegahan terhadap jenis serangan seperti ini. Ini termasuk:

Menambah sistem untuk mengidentifikasi pola distillation yang tidak biasa.

Memperketat verifikasi akun dan deteksi akun palsu.

Berbagi intelijen ancaman dengan perusahaan AI lain.

Mengembangkan langkah tangkal teknologi untuk memblokir akses otomatis.

Langkah ini dipandang sebagai call to action bagi seluruh industri AI, yang memerlukan koordinasi lebih besar antara pembangun teknologi, penyedia cloud, dan pembuat kebijakan demi melindungi inovasi dan integritas sistem.

7. Kritik dan Reaksi Publik

Sementara Anthropic menyerukan tindakan tegas, tidak semua respons terhadap tuduhan ini mendukung sepenuhnya. Beberapa komentar di komunitas teknologi bahkan menyoroti apa yang disebut “kaca gelas” — bahwa perusahaan besar juga sering menggunakan data terbuka atau metode serupa untuk melatih model mereka sendiri, dan kini mengeluh ketika menjadi korban praktik yang mirip.

Sejumlah pengamat menilai perdebatan ini mencerminkan kompleksitas industri AI saat ini: di satu sisi ada kebutuhan untuk melindungi hak kekayaan intelektual; di sisi lain, pengembangan AI sering kali masih bergantung pada data dan model berbasis contoh dari model lain.

Diskusi ini semakin relevan mengingat beberapa perusahaan AI besar sebelumnya menghadapi tuntutan hukum terkait cara mereka mengumpulkan data atau konten yang dipakai untuk melatih model mereka sendiri, sehingga industri berada dalam pertarungan etika dan hukum yang tumpang tindih di banyak aspek.

8. Geopolitik dan Perlombaan Teknologi Global

Kontroversi ini juga mencerminkan persaingan yang lebih luas antara negara besar dalam pengembangan AI. Teknologi AI saat ini dipandang sebagai salah satu pilar utama masa depan industri, ekonomi, dan kekuatan strategis nasional. Tuduhan seperti ini bukan sekadar masalah komersial, tetapi dapat memengaruhi hubungan diplomatik, peraturan ekspor, dan strategi riset nasional.

Amerika Serikat, misalnya, telah memberlakukan berbagai kontrol ekspor chip dan teknologi tinggi untuk memperlambat akses China ke komponen dan teknologi AI paling canggih. Namun, praktik seperti distillation—yang hanya memerlukan akses ke model melalui API—menimbulkan tantangan baru bagi kebijakan semacam itu.

Di sisi lain, negara lain mungkin melihat ini sebagai cara untuk mempercepat persaingan teknologi mereka tanpa perlu waktu dan biaya besar untuk membangun dari nol. Ini menciptakan ketegangan baru dalam persaingan AI global yang belum banyak diatur oleh hukum internasional.

9. Kesimpulan: Titik Balik Industri AI?

Tuduhan Anthropic terhadap tiga perusahaan AI China membawa industri kecerdasan buatan ke titik diskusi penting: sejauh mana suatu entitas dapat “belajar” dari model lain tanpa melanggar etika, hukum, atau perjanjian layanan? Dan bagaimana kita menyeimbangkan perlindungan inovasi dengan kebutuhan untuk memajukan riset AI secara kolaboratif?

Kasus ini tidak hanya tentang Anthropic, DeepSeek, Moonshot AI, dan MiniMax; ia tentang batasan baru yang harus diformulasikan dalam era di mana teknologi AI paling mutakhir bisa diuji, disalin, atau dikembangkan melalui teknik yang sebelumnya kontroversial.

Di tengah persaingan global yang makin tajam, industri AI akan terus menghadapi dilema besar antara inovasi dari data terbuka dan kebutuhan untuk menjaga integritas teknologi yang dilindungi. Dan kejadian seperti ini mungkin akan menjadi landasan reformasi etika, hukum, dan keamanan di masa depan.