Telset.id – Bayangkan sebuah AI nan nyaris sempurna menghindari pembicaraan politik sensitif. Itulah nan ditawarkan DeepSeek-R1-Safe, jenis baru model bahasa besar China nan diklaim “hampir 100% sukses” mencegah obrolan topik kontroversial. Apakah ini masa depan AI nan alim regulasi?
Menurut laporan eksklusif Reuters, model ini dikembangkan oleh raksasa teknologi China, Huawei, bekerja sama dengan peneliti dari Zhejiang University. nan menarik, DeepSeek sebagai developer original justru tidak terlibat dalam proyek ini. Mereka mengambil model open-source DeepSeek R1 dan melatihnya menggunakan 1.000 chip AI Huawei Ascend untuk menciptakan jenis nan lebih “aman” secara politis.
Hasilnya? Sebuah model AI nan menurut Huawei hanya kehilangan sekitar 1% dari kecepatan dan keahlian model original, namun jauh lebih bisa menghindari “ucapan berbisa dan berbahaya, konten politis sensitif, dan hasutan aktivitas ilegal.” Sebuah trade-off nan menarik antara keahlian dan kepatuhan.
Keberhasilan dan Kelemahan nan Tak Terhindarkan
Meski diklaim nyaris sempurna, DeepSeek-R1-Safe bukan tanpa celah. Dalam penggunaan dasar, model ini menunjukkan tingkat keberhasilan nyaris 100%. Namun, ketika pengguna menyamarkan maksud mereka melalui tantangan alias skenario role-playing, keahlian model untuk menghindari percakapan bermasalah turun drastis menjadi hanya 40%.
Fenomena ini mengingatkan kita pada kecenderungan model AI modern nan seringkali terlalu antusias menjalankan skenario hipotetis, sehingga melanggar batas nan telah ditetapkan. Seperti remaja nan pandai mencari celah aturan, AI ini tetap bisa dibujuk untuk berbincang hal-hal nan semestinya dihindari.
Kepatuhan Regulasi sebagai Prioritas Utama
Pengembangan DeepSeek-R1-Safe tidak terjadi dalam vacuum. Menurut Reuters, model ini dirancang unik untuk mematuhi persyaratan regulator China nan mewajibkan semua model AI nan dirilis untuk publik kudu mencerminkan nilai-nilai negara dan mematuhi pembatasan berbicara.
Ini bukan perihal baru di China. Chatbot Ernie dari Baidu, misalnya, terkenal lantaran menolak menjawab pertanyaan tentang politik domestik China alias Partai Komunis China nan berkuasa. Pola nan sama terlihat di beragam model AI China lainnya nan secara ketat mengikuti pedoman konten pemerintah.
Perkembangan ini juga mengingatkan pada rencana DeepSeek meluncurkan AI agent canggih akhir 2025 nan jelas kudu mempertimbangkan aspek kepatuhan izin ini. Bahkan kerjasama seperti Hey Tesla nan dikembangkan berbareng ByteDance pasti menghadapi tantangan serupa.
Fenomena Global AI nan “Dijinakkan”
China bukan satu-satunya negara nan berupaya memastikan AI nan digunakan di wilayahnya tidak terlalu “mengguncang perahu”. Tahun ini saja, perusahaan teknologi Arab Saudi, Humain, meluncurkan chatbot native Arab nan fasih berkata Arab dan dilatih untuk mencerminkan “budaya, nilai, dan warisan Islam”.
Model buatan Amerika juga tidak kebal terhadap ini. OpenAI secara definitif menyatakan bahwa ChatGPT “condong ke pandangan Barat”. Dan di bawah pemerintahan Trump, rencana tindakan AI Amerika termasuk persyaratan bahwa model AI mana pun nan berinteraksi dengan lembaga pemerintah kudu netral dan “tidak bias”.
Definisi “tidak bias” ini pun menjadi menarik. Menurut perintah pelaksana nan ditandatangani Trump, model nan mengamankan perjanjian pemerintah kudu menolak hal-hal seperti “dogma suasana radikal”, “keberagaman, kesetaraan, dan inklusi”, serta konsep seperti “teori ras kritis, transgenderisme, bias tidak sadar, interseksionalitas, dan rasisme sistemik”.
Jadi, sebelum kita melemparkan kritik tentang “pemimpin tersayang” ke China, mungkin lebih baik kita memandang ke cermin terlebih dahulu. Setiap negara mempunyai caranya sendiri dalam “menjinakkan” AI sesuai dengan nilai-nilai dan kepentingannya.
Perkembangan DeepSeek-R1-Safe juga mengingatkan pada kendala nan dihadapi DeepSeek dalam pengembangan model sebelumnya, menunjukkan bahwa tantangan teknis dan izin seringkali melangkah beriringan.
Lalu, apa artinya semua ini untuk masa depan AI? Apakah kita bakal memandang semakin banyak model nan “dijinakkan” untuk mematuhi nilai-nilai tertentu? Ataukah bakal muncul resistensi dari developer nan mau menjaga netralitas AI? nan jelas, pertarungan antara kebebasan berekspresi dan kepatuhan izin dalam bumi AI baru saja dimulai.
DeepSeek-R1-Safe mungkin hanya merupakan babak pertama dari saga panjang ini. Sebagai pengguna AI, kita perlu terus kritis dan aware terhadap bias nan mungkin dibawa oleh setiap model, baik nan berasal dari China, Amerika, alias negara manapun. Karena pada akhirnya, AI nan betul-betul pandai adalah nan bisa memahami kompleksitas manusia tanpa terjebak dalam agenda politik tertentu.