Dalam beberapa tahun terakhir, kecerdasan buatan (AI) berkembang jauh melampaui sekadar alat bantu komputasi. Model-model AI generatif kini dapat berkomunikasi secara responsif, memahami teks, gambar, suara, bahkan merespons secara emosional—seolah berinteraksi dengan manusia nyata. Fenomena ini membuka beragam peluang baru di berbagai sektor, dari layanan pelanggan hingga hiburan digital. Namun di sisi lain, kemampuan AI yang semakin mirip manusia juga memunculkan risiko etika, keamanan, serta dampak psikologis yang tidak bisa diabaikan begitu saja.
Merespons perkembangan tersebut, pemerintah China tengah menyusun aturan baru yang akan mengatur penggunaan teknologi AI yang memiliki interaksi mirip manusia di masyarakat. Peraturan ini bukan sekadar pembatasan teknologi, tetapi upaya mengatur bagaimana AI harus beroperasi secara etis, aman, dan transparan dalam kehidupan sehari-hari. Rancangan aturan ini telah dirilis untuk konsultasi publik hingga Januari 2026 sebagai langkah awal menuju kebijakan yang lebih komprehensif.
1. Latar Belakang Dorongan Regulasi AI di China
China menjadi salah satu negara dengan adopsi teknologi AI yang sangat cepat. Penggunaan AI generatif dan interaktif telah meluas ke platform konsumen, layanan publik, hingga aplikasi kehidupan sosial digital. Namun, seiring popularitasnya, muncul pula kekhawatiran bahwa AI yang “terlalu manusiawi” bisa berdampak negatif bagi pengguna.
Salah satu perhatian utama adalah potensi AI untuk memengaruhi emosi dan perilaku manusia secara tidak sehat. AI yang mampu meniru pola bicara, gaya komunikasi emosional, atau perilaku manusia dapat saja menciptakan ketergantungan psikologis, termasuk kecanduan interaksi digital. Selain itu, teknologi ini berisiko menyebarkan konten yang berbahaya, salah informasi, atau konten yang melanggar hukum seperti ujaran kebencian dan propaganda.
China, sebagai salah satu negara dengan basis pengguna AI yang besar, juga ingin memastikan bahwa pengembangan teknologi ini tidak bertentangan dengan kebijakan sosial serta keamanan nasionalnya. Otoritas siber China menilai penting untuk tidak hanya mendorong inovasi teknologi, tetapi juga mengatur penggunaan AI agar tidak merugikan masyarakat luas atau mengancam stabilitas sosial.
2. Inti Rancangan Aturan Baru untuk AI Interaktif
Rancangan aturan yang tengah disusun oleh otoritas siber China fokus pada layanan AI yang meniru perilaku manusia dan mampu berinteraksi secara emosional melalui berbagai format, termasuk teks, gambar, suara, atau video. Hal ini mencakup model generatif, chatbot canggih, dan sistem lain yang dirancang untuk meniru kepribadian manusia.
Salah satu ketentuan penting dalam rancangan ini adalah kewajiban bagi penyedia layanan AI untuk memberitahukan kepada pengguna bahwa mereka sedang berinteraksi dengan AI. Notifikasi ini harus diberikan saat pertama kali login, secara berkala setiap dua jam, atau ketika sistem mendeteksi adanya tanda-tanda ketergantungan berlebihan dari pengguna. Tujuan dari ketentuan ini adalah agar pengguna tetap sadar bahwa mereka berinteraksi dengan program mesin, bukan manusia sungguhan.
Aturan ini juga akan mewajibkan penyedia layanan untuk mengimplementasikan mekanisme keamanan dan peninjauan etika yang kuat sepanjang siklus hidup produk. Dengan demikian, pengawasan tidak hanya bersifat teknis, tetapi juga mempertimbangkan aspek moral, sosial, dan psikologis dari penggunaan AI.
Baca juga : 8 Prompt Gemini AI Terbaik untuk Bikin Poster Tahun Baru 2026
3. Transapransi dan Kesadaran Pengguna
Salah satu elemen inti dalam peraturan baru adalah memastikan transparansi penuh dalam interaksi AI. Artinya, pengguna harus jelas mengetahui bahwa mereka sedang berkomunikasi dengan AI—tidak hanya sekali saat mendaftar, melainkan secara berkala. Pendekatan ini diharapkan dapat mencegah kecanduan dan persepsi yang salah tentang identitas entitas digital.
Selain itu, transparansi ini juga mencakup informasi tentang bagaimana data pengguna diproses dan bagaimana algoritma bekerja secara umum. Dalam ekosistem digital yang semakin kompleks, banyak pengguna tidak menyadari bahwa konten, saran, atau respons yang mereka terima sejak awal telah dipengaruhi oleh model AI yang tertanam dalam platform. Memberi tahu pengguna tentang sifat teknis dari layanan ini adalah langkah penting untuk menjaga hak pengguna serta mengurangi potensi manipulasi emosional yang tidak diinginkan.
Langkah ini sejalan dengan tren global yang menempatkan kebijakan explainability dan user awareness sebagai bagian dari regulasi teknologi AI, sebagaimana juga didorong oleh diskusi di Uni Eropa dan Amerika Serikat.
4. Konten Berbahaya dan Nilai Sosial
Peraturan baru juga akan mencakup ketentuan yang melarang AI memproduksi atau menyebarkan konten yang dapat menimbulkan risiko bagi keamanan nasional, menyebarkan rumor, atau konten yang mendorong kekerasan dan pornografi. Ini adalah penggabungan standar etika konten digital ke dalam teknologi AI.
Selain itu, otoritas China menekankan bahwa layanan AI semacam ini harus dijalankan dengan prinsip yang sejalan dengan “nilai-nilai inti sosialisme”. Ketentuan seperti ini mencerminkan konteks unik regulasi teknologi di China, di mana kebijakan teknologi dan nilai ideologis sering kali saling terkait.
Ketentuan tersebut menimbulkan tantangan tersendiri bagi perusahaan teknologi, terutama perusahaan asing atau yang menggunakan model global, dalam menyelaraskan standar etika internasional dengan tuntutan nilai sosial internal China. Hal ini juga menunjukkan bahwa regulasi bukan hanya soal keamanan teknis, tetapi juga menyentuh aspek politik dan budaya dalam masyarakat.
5. Kewajiban Pelaporan dan Pengawasan Lanjutan
Rancangan aturan juga mensyaratkan bahwa penyedia layanan AI harus melakukan penilaian keamanan dan menyampaikan laporan kepada otoritas siber di tingkat provinsi jika mereka meluncurkan fitur AI interaktif baru. Ketentuan ini berlaku terutama bagi layanan yang memiliki pengguna aktif dalam jumlah besar—misalnya setidaknya satu juta pengguna terdaftar atau lebih dari 100.000 pengguna aktif bulanan.
Kewajiban pelaporan tersebut membantu regulator dalam memantau secara langsung bagaimana teknologi ini dioperasikan di lapangan, termasuk bagaimana data dikumpulkan dan digunakan, serta bagaimana respons sistem dapat berdampak pada interaksi sosial. Ini juga berarti bahwa perusahaan teknologi harus lebih transparan dan siap diaudit oleh regulator setempat.
6. Melindungi Pengguna dan Kesehatan Mental
Salah satu fokus penting dalam draft peraturan adalah perlindungan terhadap kesehatan mental pengguna. Dengan mensyaratkan intervensi ketika AI mendeteksi perilaku ketergantungan atau tanda-tanda emosional yang ekstrem, China berusaha memasukkan dimensi perlindungan psikologis ke dalam regulasinya.
Misalnya, jika sistem AI mendeteksi bahwa seseorang terlalu sering berinteraksi secara emosional atau menunjukkan pola kecanduan terhadap layanan tersebut, penyedia harus mengambil tindakan tertentu—misalnya menampilkan peringatan, menyarankan jeda, atau bahkan membatasi waktu penggunaan. Ini merupakan langkah maju jika dibandingkan dengan regulasi konten semata, karena mempertimbangkan efek interaksi jangka panjang pada kesejahteraan pengguna.
Pendekatan ini juga mencerminkan keprihatinan regulator global terhadap dampak media sosial dan AI terhadap kesehatan mental, terutama di kalangan generasi muda yang lebih rentan terhadap interaksi digital intensif.
7. Menyeimbangkan Inovasi dan Kontrol
Regulasi AI semacam ini menyisakan tantangan besar: bagaimana menyeimbangkan antara inovasi teknologi dan perlindungan masyarakat? Di satu sisi, China ingin tetap menjadi pemimpin global dalam teknologi AI, dengan investasi besar dan adopsi luas di berbagai sektor. Di sisi lain, kekhawatiran etika, risiko ketergantungan, serta dampak sosial membuat pengawasan ketat menjadi prioritas.
Langkah ini juga mencerminkan kecenderungan regulator global yang semakin berhati-hati dalam mengatur AI konsumen, terutama yang bersentuhan langsung dengan kehidupan sosial dan emosional manusia. Beberapa negara lain juga mulai mengevaluasi bagaimana memastikan AI generatif beroperasi dengan aman dan bertanggung jawab.
Menariknya, melalui konsultasi publik yang dibuka hingga 25 Januari 2026, China memberi ruang bagi berbagai pemangku kepentingan—termasuk perusahaan teknologi, akademisi, hingga masyarakat sipil—untuk memberikan masukan. Ini menunjukkan bahwa meskipun kontrol ketat diharapkan, regulasi masih akan dipengaruhi oleh masukan pihak lain.
8. Prospek dan Tantangan ke Depan
Penerapan aturan baru ini bisa menjadi model bagi negara lain dalam mengatur teknologi AI yang semakin canggih. Regulator akan menghadapi tantangan dalam penegakan, terutama dalam menilai secara objektif kapan interaksi AI menjadi terlalu manusiawi atau berpotensi adiktif. Selain itu, kebutuhan untuk menerjemahkan prinsip etika ke dalam aturan teknis yang dapat dipantau juga bukan perkara mudah.
Namun, dengan langkah awal yang sistematis seperti mensyaratkan transparansi, mekanisme intervensi, serta pelaporan wajib, China menunjukkan satu pendekatan komprehensif terhadap governance teknologi AI. Pembahasan draft ini juga mengindikasikan bahwa isu AI tidak lagi hanya soal teknologi, tetapi juga menyentuh aspek sosial, politik, dan budaya dalam masyarakat.
Kesimpulan
Regulasi baru China tentang penggunaan AI mirip manusia adalah respons strategis terhadap kemajuan teknologi yang pesat dan dampaknya terhadap kehidupan digital masyarakat. Aturan ini memadukan kebutuhan untuk memacu inovasi dengan kewajiban melindungi pengguna dari risiko psikologis, sosial, dan keamanan. Dengan mencakup aspek transparansi, etika, perlindungan kesehatan mental, serta kewajiban pengawasan, China berupaya menciptakan keseimbangan antara manfaat teknologi dan tanggung jawab sosial.
Di tengah berkembangnya teknologi AI global, pendekatan China dapat menjadi salah satu referensi penting dalam diskusi internasional mengenai tata kelola kecerdasan buatan yang aman dan bertanggung jawab.