Bayangkan ini: ponsel Anda bergetar, notifikasi buletin dari Google muncul. Anda membacanya, dan di sana, terselip kata nan paling ofensif, kata nan penuh sejarah kelam rasial—N-word. Bukan dalam konteks quote alias laporan, tapi muncul begitu saja di bawah tautan berita. Itulah nan dialami oleh beberapa pengguna, memicu gelombang kejutan dan kemarahan di tengah seremoni Bulan Sejarah Kulit Hitam. Insiden ini bukan sekadar bug teknis biasa; ini adalah potret nyata dari kegagalan sistem kepintaran buatan nan paling canggih sekalipun dalam memahami kompleksitas manusia, etika, dan sejarah.
Laporan dari Deadline mengungkap bahwa Google mengirimkan notifikasi buletin nan dihasilkan AI nan mengandung kata-N. Notifikasi tersebut menampilkan tautan ke tulisan The Hollywood Reporter mengenai sebuah kejadian di arena BAFTA Film Awards baru-baru ini. Namun, di bawah tautan itu, algoritma Google secara keliru menempatkan kata nan sangat rasis tersebut. Bocoran ini pertama kali diunggah ke IG oleh pengguna Danny Price, nan menyertakan tangkapan layar dengan keterangan pedas: “what an interesting Black History Month this has turned out to be.” Komentar itu menyiratkan ironi nan pahit: di bulan nan didedikasikan untuk menghormati pencapaian dan perjuangan organisasi kulit hitam, teknologi justru mengulangi luka lama.
Insiden ini segera memicu reaksi sigap dari Google. Perusahaan raksasa teknologi itu telah meminta maaf dan menyatakan telah “menghapus notifikasi ofensif tersebut” serta “bekerja untuk mencegah perihal ini terjadi lagi.” Namun, permintaan maaf itu hanyalah permulaan dari sebuah obrolan nan jauh lebih dalam. Bagaimana bisa sistem AI, nan semestinya netral dan cerdas, melakukan kesalahan nan begitu mendasar dan menyakitkan? Apa nan sebenarnya terjadi di kembali layar algoritma nan mengatur info nan kita terima setiap hari? Mari kita selidiki lebih dalam.
Kesalahan AI nan Memalukan dan Pola nan Mengkhawatirkan
Ini bukan pertama kalinya AI membikin kesalahan memalukan dalam penyampaian berita. Referensi dari tulisan sumber mengungkapkan bahwa Apple apalagi memutuskan untuk menghentikan notifikasi push berbasis AI mereka tahun lampau setelah perangkat tersebut membikin serangkaian kesalahan nan memalukan. Salah satu contohnya adalah ketika AI Apple secara keliru memberitakan bahwa Luigi Mangione, laki-laki nan dituduh membunuh CEO UnitedHealthcare Brian Thompson, telah menembak dirinya sendiri. Kesalahan-kesalahan semacam ini menunjukkan sebuah pola: AI, dalam upayanya untuk meringkas, menarik perhatian, alias menggenerasi konten dengan cepat, sering kali kehilangan konteks, akurasi, dan—yang paling krusial—sensitivitas.
Dalam kasus Google kali ini, mekanismenya diduga kuat mengenai dengan langkah AI meringkas alias mengekstrak info dari tulisan sumber. Artikel The Hollywood Reporter nan dirujuk membahas kejadian di panggung BAFTA, di mana seorang personil audiens dengan sindrom Tourette secara tidak sengaja meneriakkan kata-N saat Michael B. Jordan dan Delroy Lindo naik panggung. Kemungkinan besar, algoritma Google nan memindai alias meringkas teks tersebut kandas memahami bahwa kata itu muncul dalam konteks laporan tentang sebuah kejadian nan melibatkan tic vokal (gerakan alias ucapan involunter), bukan sebagai bagian dari narasi buletin itu sendiri. AI memandang kata kunci, tetapi buta terhadap nuansa.
Lebih Dari Sekadar Bug: Tabrakan Teknologi dan Realitas Sosial
Insiden ini dengan jelas mempertemukan dua dunia: bumi teknologi nan dingin, deterministik, dan berbasis data, dengan bumi sosial manusia nan hangat, kompleks, dan penuh sejarah nan sarat beban. Bagi mesin, kata-kata mungkin hanyalah kumpulan info dan pola statistik. Namun, bagi manusia—khususnya organisasi kulit hitam—kata-N bukan sekadar huruf. Ia adalah simbol dari beratus-ratus tahun penindasan, perbudakan, dan dehumanisasi. Melewatkannya begitu saja sebagai “kesalahan pemrosesan bahasa” adalah corak pengabaian nan berbahaya.
Insiden di BAFTA itu sendiri sudah menjadi bahan obrolan nan pelik. John Davidson, aktivis sindrom Tourette nan membikin komentar tersebut, menyatakan dirinya “sangat malu jika ada nan menganggap tic involunter saya sebagai sesuatu nan disengaja alias mempunyai makna.” Situasi ini menempatkan dua narasi nan sama-sama sah dalam posisi nan sulit: perjuangan hidup dengan kondisi neurologis versus pengalaman traumatis mendengar kata rasis di ruang publik. Seperti nan disorot oleh wartawan Jemele Hill dalam cuitannya, seringkali ekspektasi nan tidak setara jatuh pada korban: meminta pengertian lebih untuk orang nan meneriakkan hinaan rasial, alih-alih untuk Michael B. Jordan dan Delroy Lindo nan kudu memperkuat menghadapi rasa malu di depan rekan-rekan mereka.
Lalu, kehadiran AI dalam menyebarkan kembali kejadian ini—dengan langkah nan keliru—hanya memperkeruh suasana. Alih-alih menjadi perangkat nan netral, AI justru menjadi amplifier nan memperbesar kebisingan dan rasa sakit, tanpa memberikan pemahaman alias resolusi.
Pertanggungjawaban dan Jalan ke Depan untuk AI Konten
Permintaan maaf Google adalah langkah nan diperlukan, tetapi jelas tidak cukup. Pertanyaan besarnya adalah: apa nan bakal dilakukan untuk “mencegah perihal ini terjadi lagi”? Apakah hanya dengan menambahkan filter kata-kata kasar nan lebih ketat? Solusi semacam itu terlalu simplistis. Kata-N mungkin muncul dalam konteks akademis, historis, alias dalam laporan seperti kasus BAFTA ini. Melarangnya sama sekali justru bisa menghapus konteks penting.
Yang dibutuhkan adalah pendekatan nan lebih canggih. Sistem AI perlu dilatih tidak hanya pada bahasa, tetapi juga pada etika, konteks sosial, dan sejarah. Mereka perlu memahami perbedaan antara mengutip sebuah kejadian dan mengucapkan sebuah hinaan. Mereka perlu mempunyai “kesadaran kontekstual” nan memadai. Ini memerlukan investasi besar dalam diversifikasi tim pengembang, melibatkan master etika, sejarawan, dan sosiolog dalam proses training model, serta menerapkan lapisan peninjauan manusia (human-in-the-loop) nan kuat untuk konten-konten sensitif, terutama nan menyangkut rumor ras, gender, dan trauma.
Sebagai pengguna, kejadian ini juga menjadi pengingat untuk kita semua. Dalam era di mana info datang dengan sigap dan seringkali disaring oleh algoritma, kita kudu tetap kritis. Notifikasi buletin bukanlah kebenaran mutlak. Mereka adalah hasil dari proses algoritmik nan bisa cacat. Verifikasi silang dan membaca buletin secara utuh, bukan hanya dari headline alias notifikasi, menjadi keahlian nan semakin vital.
Kesalahan Google ini adalah sirine nan nyaring. Ia menunjukkan bahwa perjalanan kita menuju integrasi AI nan mulus dan bertanggung jawab tetap sangat panjang dan penuh ranjau. Teknologi telah sampai pada titik di mana dia dapat meniru kepintaran manusia, tetapi untuk memahami hati nurani dan kebijaksanaan manusia? Tampaknya kita tetap kudu menunggu sangat lama. Sampai saat itu tiba, tanggung jawab terbesar tetap berada di pundak para pembuatnya—untuk memastikan bahwa mesin nan mereka ciptakan tidak mengulangi kesalahan terkelam dalam sejarah manusia, apalagi memperburuknya.