Telset.id – OpenAI mencabut akses FoloToy ke model AI-nya setelah laporan mengejutkan mengungkap boneka beruang Kumma nan ditenagai GPT-4o memberikan petunjuk langkah menyalakan korek api hingga mendiskusikan fetish seksual kepada anak-anak. Tindakan tegas ini terjadi menjelang kemitraan strategis OpenAI dengan raksasa mainan Mattel, menimbulkan pertanyaan tentang pengawasan penggunaan teknologi AI di produk anak.
Penangguhan akses developer FoloToy diumumkan Jumat lampau oleh ahli bicara OpenAI melalui pernyataan email kepada Public Interest Research Group (PIRG). “Saya dapat konfirmasi kami telah menangguhkan developer ini lantaran melanggar kebijakan kami,” jelas pernyataan resmi tersebut. Langkah ini merupakan respons langsung terhadap investigasi PIRG nan menguji tiga mainan AI berbeda untuk anak usia 3-12 tahun.
FoloToy merespons dengan menghentikan penjualan semua produknya, bukan hanya model Kumma nan bermasalah. “Kami telah menghentikan sementara penjualan semua produk FoloToy,” ujar perwakilan perusahaan kepada PIRG. “Kami sekarang melakukan audit keamanan menyeluruh di seluruh perusahaan untuk semua produk.”
Pelanggaran Keamanan nan Mengkhawatirkan
Dalam pengetesan PIRG, boneka beruang Kumma menunjukkan kegagalan pengaman nan paling parah dibandingkan mainan AI lainnya. Mainan ini tidak hanya memberikan pedoman perincian tentang langkah menemukan korek api dan menyalakannya, tetapi juga menjelaskan beragam fetish seksual seperti bondage dan roleplay guru-murid.
“Biar kujelaskan, keamanan dulu, kawan kecil. Korek api untuk orang dewasa nan hati-hati. Begini langkah mereka melakukannya,” ujar Kumma dalam pengujian, sebelum memberikan petunjuk komplit dengan nada seperti orangtua nan lembut. “Tiup saat selesai. Seperti lilin ulang tahun.”
Yang lebih mengkhawatirkan, percakapan beranjak ke teritori seksual eksplisit. Boneka tersebut dengan mudah mendiskusikan “kinks” alias fetish, apalagi bertanya setelah menjelaskan beragam fetish: “Menurutmu mana nan paling menyenangkan untuk dieksplorasi?”
Tantangan Regulasi Mainan AI
Meski menyambut baik tindakan OpenAI dan FoloToy, PIRG mengingatkan bahwa kemenangan ini hanya berkarakter sementara. RJ Cross, kepala Program Our Online Life PIRG dan ko-penulis laporan, menekankan bahwa mainan AI praktis tetap belum diatur dengan baik.
“Senang memandang perusahaan-perusahaan ini mengambil tindakan atas masalah nan kami identifikasi. Tapi mainan AI tetap praktis tidak diatur, dan tetap banyak nan bisa dibeli hari ini,” kata Cross dalam pernyataan baru. “Menghapus satu produk bermasalah dari pasar adalah langkah baik, tapi jauh dari perbaikan sistemik.”
Rory Erlich, associate kampanye New Economy di U.S. PIRG Education Fund, menambahkan kekhawatiran tentang banyaknya mainan AI lain di pasaran. “Produsen mainan lain mengatakan mereka menggabungkan chatbot dari OpenAI alias perusahaan AI terkemuka lainnya,” ujarnya. “Setiap perusahaan nan terlibat kudu bekerja lebih baik memastikan produk ini lebih kondusif daripada nan kami temukan dalam pengujian.”
Ini bukan pertama kalinya OpenAI mengambil tindakan sigap ketika penggunaan model AI-nya nan bermasalah menjadi viral. Namun pertanyaan tetap mengemuka tentang tindakan proaktif apa nan dilakukan perusahaan di kembali layar untuk mengatur gimana produknya digunakan.
Langkah penangguhan FoloToy juga menetapkan standar tinggi bagi OpenAI sendiri, terutama ketika perusahaan baru mulai menjelajahi pasar mainan AI. Musim panas ini, OpenAI mengumumkan bakal bekerja sama dengan Mattel pada lini mainan baru, kerjasama bergengsi nan dapat mendorong mainan AI ke arus utama.
Kemitraan dengan Mattel, kreator boneka Barbie dan mobil Hot Wheels, menimbulkan pertanyaan kritis: Akankah OpenAI berani mencabut akses raksasa mainan bumi jika AI mereka mengabaikan pengaman, seperti nan secara esensial rentan dilakukan teknologi ini? Meski kemungkinan besar OpenAI dan Mattel bakal bekerja sangat erat untuk mencegah perihal ini, pertanyaan tentang produsen mainan AI lain nan menggunakan teknologi OpenAI tetap menjadi tanda tanya besar.
Kasus FoloToy mengingatkan pada peluncuran produk AI lainnya nan menuai kontroversi, sekaligus memperkuat urgensi pengembangan framework keamanan nan lebih robust untuk penerapan AI dalam produk konsumen, terutama nan ditujukan untuk anak-anak. Seperti nan terjadi pada platform teknologi lainnya nan berekspansi ke new verticals, tantangan izin dan keamanan sering kali tertinggal dari kecepatan inovasi.
Dengan semakin banyaknya perusahaan nan mengintegrasikan AI ke dalam produk sehari-hari, kejadian FoloToy menyoroti kebutuhan mendesak untuk standar keamanan nan lebih ketat dan pengawasan berkepanjangan terhadap penerapan teknologi AI, khususnya dalam produk nan berinteraksi langsung dengan golongan rentan seperti anak-anak.