Dunia kepintaran buatan kembali dikejutkan dengan temuan nan cukup ironis. Di tengah klaim bombastis mengenai keahlian model bahasa terbaru nan digadang-gadang sebagai puncak perkembangan AI untuk kalangan profesional, realitas di lapangan justru menunjukkan celah nan mengkhawatirkan. OpenAI mungkin sangat percaya diri saat melabeli model terbarunya sebagai “frontier model” paling canggih, namun ujian independen menyingkap kebenaran bahwa kecanggihan teknologi tidak selalu berbanding lurus dengan kecermatan fakta.
Laporan investigasi terbaru dari The Guardian memberikan tamparan keras bagi kredibilitas model anyar tersebut. Alih-alih menyajikan info nan steril dan terverifikasi layaknya asisten profesional, AI ini justru tertangkap basah mengutip sumber nan kredibilitasnya sangat dipertanyakan. nan lebih mengejutkan, sumber rujukan tersebut adalah Grokipedia, ensiklopedia daring nan ditenagai oleh xAI, pesaing langsung mereka nan kerap menuai polemik mengenai moderasi konten.
Insiden ini bukan sekadar kesalahan teknis biasa, melainkan sebuah peringatan serius bagi pengguna korporat nan mulai berjuntai pada otomatisasi. Ketika sebuah model AI nan dirancang untuk menangani tugas rumit seperti kajian info dan pembuatan lembar kerja justru mengambil referensi dari platform nan pernah memuat tautan ke forum ekstremis, pertanyaan besar pun muncul: seberapa kondusif kita mempercayakan pekerjaan ahli pada algoritma nan tetap bisa “berhalusinasi” dalam memilih sumber?
Blunder Sitasi nan Mengejutkan
Dalam pengetesan nan dilakukan, ditemukan pola nan cukup meresahkan ketika model AI ini dihadapkan pada topik-topik spesifik namun sensitif. Laporan tersebut menyoroti gimana ChatGPT, nan ditenagai oleh model anyar ini, menggunakan Grokipedia sebagai landasan kebenaran untuk klaim nan mengaitkan pemerintah Iran dengan perusahaan telekomunikasi MTN-Irancell. Hal ini tentu menjadi sorotan tajam mengingat sensitivitas geopolitik nan menyertainya.
Tidak berakhir di situ, kesalahan pemilihan sumber juga terjadi pada topik sejarah nan sangat krusial. Model ini merujuk pada Grokipedia saat menjawab pertanyaan mengenai Richard Evans, seorang sejarawan Inggris ternama nan pernah menjadi saksi mahir dalam sidang pencemaran nama baik melawan penyangkal Holocaust, David Irving. Mengingat rekam jejak Grokipedia nan menurut studi peneliti AS pernah menyertakan sitasi ke forum neo-Nazi, penggunaan sumber ini oleh model sekelas GPT-5.2 Codex tentu menjadi blunder fatal bagi reputasi OpenAI.
OpenAI sebenarnya merilis model GPT-5.2 pada bulan Desember dengan janji performa nan lebih baik untuk penggunaan profesional. Tujuannya jelas: membantu pengguna menangani tugas kompleks dengan presisi tinggi. Namun, temuan bahwa ensiklopedia buatan AI—yang sering dianggap memuat sumber “bermasalah” dan “dipertanyakan”—menjadi rujukan, seolah mencederai janji profesionalisme tersebut.
Filter Keamanan alias Standar Ganda?
Menariknya, investigasi The Guardian menemukan adanya inkonsistensi dalam perilaku model AI tersebut. Meskipun AI ini “tergelincir” saat membahas Iran alias Holocaust dengan mengutip Grokipedia, sistem tersebut justru menunjukkan perilaku berbeda pada topik politik Amerika Serikat. Ketika diberi perintah alias prompt nan menanyakan tentang bias media terhadap Donald Trump, ChatGPT tidak menggunakan Grokipedia sebagai sumber rujukan.
Perbedaan perlakuan ini memicu spekulasi mengenai gimana filter keamanan bekerja di kembali layar. Apakah sistem hanya sensitif terhadap rumor politik domestik AS, namun lenggang terhadap rumor sejarah dunia dan geopolitik internasional? Padahal, Grokipedia sendiri sudah ada sebelum rilisnya GPT-5.2 dan telah lama menuai kontroversi lantaran kontennya. Inkonsistensi ini menjadi catatan penting, terutama bagi perusahaan nan mungkin menggunakan AI untuk riset pasar dunia alias kajian akibat nan memerlukan Data Kerja nan betul-betul valid.
Respon OpenAI dan Risiko Pengguna Pro
Menanggapi laporan nan menyudutkan tersebut, OpenAI memberikan penjelasan kepada The Guardian. Mereka menyatakan bahwa model GPT-5.2 dirancang untuk mencari info dari “berbagai sumber dan perspektif pandang nan tersedia untuk umum” di web. Perusahaan nan dipimpin Sam Altman ini juga menegaskan bahwa mereka menerapkan “filter keamanan untuk mengurangi akibat munculnya tautan nan mengenai dengan ancaman tingkat tinggi.”
Namun, jawaban normatif ini mungkin belum cukup memuaskan bagi pengguna ahli nan memerlukan kepastian kecermatan 100 persen. Bagi Anda nan menggunakan AI untuk menyusun laporan finansial alias kajian hukum, akibat masuknya info dari sumber nan tidak andal adalah mimpi buruk. Fitur canggih seperti keahlian Atur Kehangatan respon mungkin menarik untuk hubungan kasual, namun dalam konteks kerja profesional, validitas info adalah nilai mati.
Kasus ini menjadi pengingat bahwa secerdas apapun sebuah model AI, dia tetaplah mesin nan memproses info dari internet—tempat di mana kebenaran dan fiksi seringkali bercampur aduk. Verifikasi manusia (human in the loop) tetap menjadi tembok terakhir nan tak tergantikan, terutama ketika “sumber bermasalah” tetap bisa lolos dari saringan algoritma tercanggih sekalipun.