Bayangkan sebuah platform media sosial nan digunakan oleh jutaan remaja di seluruh dunia. Lalu, bayangkan para pelaksana perusahaan itu mengetahui adanya akibat serius—seperti pengiriman konten seksual eksplisit—melalui fitur pesan pribadi mereka. Apa nan Anda harapkan bakal mereka lakukan? Segera bertindak, tentu saja. Namun, dalam kasus Meta dan Instagram, rupanya butuh waktu nyaris enam tahun sejak kekhawatiran itu diungkapkan secara internal hingga sebuah fitur pengaman dasar akhirnya diluncurkan.
Fakta mengejutkan ini terungkap dari arsip pengadilan nan baru dibuka dalam gugatan norma besar-besaran terhadap raksasa teknologi. Gugatan ini menuduh platform seperti Instagram, Snapchat, TikTok, dan YouTube dirancang secara “cacat” untuk memaksimalkan waktu layar, sehingga mendorong perilaku adiktif dan membahayakan kesehatan mental remaja. Di tengah sorotan ini, kesaksian Adam Mosseri, kepala Instagram, menjadi pusat perhatian.
Kesaksian tersebut mengungkap celah antara kesadaran internal Meta bakal ancaman dan tindakan nyata mereka untuk melindungi pengguna termuda. Ini bukan sekadar soal fitur nan terlambat, tetapi tentang pertanyaan mendasar: seberapa besar prioritas keselamatan pengguna dibandingkan pertumbuhan bisnis? Mari kita telusuri narasi nan terungkap dari ruang sidang.
Email 2018 nan Mengungkap Kekhawatiran “Horor” di DM
Dalam sidang di Pengadilan Distrik AS untuk Distrik Utara California, jaksa penuntut mengungkapkan rantai email internal Meta dari Agustus 2018. Dalam percakapan antara Adam Mosseri dan Wakil Presiden Meta serta Kepala Petugas Keamanan Informasi, Guy Rosen, Mosseri menyebut hal-hal “mengerikan” bisa terjadi melalui pesan pribadi IG (DM).
Ketika pengacara penggugat menanyakan apakah perihal “mengerikan” itu termasuk pengiriman foto perangkat kelamin laki-laki (“dick pics”), Mosseri setuju. Pengakuan ini signifikan lantaran menunjukkan bahwa ketua puncak IG telah menyadari akibat spesifik konten seksual nan tidak diinginkan nan dialami pengguna, termasuk remaja, melalui fitur inti platformnya.
Namun, kesadaran pada 2018 itu tidak segera diterjemahkan menjadi solusi protektif untuk publik. Meta baru meluncurkan fitur nan secara otomatis mengaburkan gambar definitif dalam DM IG pada April 2024—hampir enam tahun kemudian. Penundaan inilah nan menjadi bahan pertanyaan keras jaksa: kenapa butuh waktu begitu lama untuk menerapkan perangkat keamanan dasar?
Nudity Filter: Solusi nan Tertunda Hampir Enam Tahun
Fitur “nudity filter” alias filter ketelanjangan nan akhirnya diluncurkan Meta berfaedah untuk melindungi remaja dari konten eksplisit, termasuk nan dikirim oleh orang dewasa nan mungkin melakukan “grooming”—proses membangun kepercayaan dengan minoritas untuk tujuan eksploitasi. Dalam sidang, Mosseri memihak keputusan perusahaan dengan mengatakan bahwa Meta berupaya menyeimbangkan minat privasi pengguna dengan keamanan.
“Saya pikir sudah cukup jelas bahwa Anda dapat mengirimkan konten bermasalah di aplikasi pesan apa pun, baik itu IG alias lainnya,” kata Mosseri. Ia juga menolak dugaan bahwa perusahaan semestinya menginformasikan kepada orang tua bahwa sistem pesannya tidak dipantau, di luar upaya menghapus Materi Pelecehan Seksual Anak (CSAM).
Namun, argumen “semua platform punya masalah nan sama” tampaknya tidak cukup meyakinkan di hadapan info statistik nan juga diungkap dalam kesaksiannya. Survei internal Meta mengungkap bahwa 19,2% responden berumur 13 hingga 15 tahun mengaku pernah memandang ketelanjangan alias gambar seksual nan tidak mereka inginkan di Instagram. Angka nan mengkhawatirkan lainnya, 8,4% dari golongan usia nan sama melaporkan memandang seseorang menyakiti diri sendiri alias menakut-nakuti bakal melakukannya di IG dalam tujuh hari terakhir mereka menggunakan aplikasi.
Gugatan Besar dan Tekanan Hukum nan Semakin Menguat
Kesaksian Mosseri ini adalah bagian dari serangkaian gugatan norma nan mau meminta pertanggungjawaban perusahaan teknologi besar atas dampaknya terhadap remaja. Gugatan di California ini menuduh platform media sosial “cacat” lantaran desainnya nan sengaja memaksimalkan keterlibatan dan waktu layar, nan pada gilirannya mendorong perilaku adiktif.
Para tergugat tidak hanya Meta, tetapi juga Snap, TikTok, dan YouTube (Google). Gugatan serupa juga sedang berjalan di Pengadilan Tinggi Kabupaten Los Angeles dan di New Mexico. Inti dari semua tuntutan norma ini adalah upaya untuk membuktikan bahwa perusahaan-perusahaan teknologi lebih memprioritaskan pertumbuhan pengguna dan peningkatan engagement daripada potensi ancaman nan menimpa pengguna termuda mereka.
Gelombang gugatan ini terjadi berbarengan dengan makin banyaknya undang-undang nan membatasi penggunaan media sosial oleh remaja, baik di beberapa negara bagian AS maupun di luar negeri. Tekanan izin dan norma tampaknya mulai menyatu, memaksa industri untuk memandang ulang praktik mereka. Seperti dilaporkan dalam gugatan New York, rumor kesehatan mental remaja telah menjadi perhatian serius pemerintah.
Menanggapi pertanyaan mengenai kasus ini, Juru Bicara Meta Liza Crenshaw mengarahkan perhatian pada beragam langkah lain nan telah ditempuh perusahaan untuk menjaga keselamatan remaja selama bertahun-tahun. “Selama lebih dari satu dekade, kami telah mendengarkan orang tua, bekerja sama dengan para mahir dan penegak hukum, serta melakukan penelitian mendalam untuk memahami masalah nan paling penting,” katanya.
Crenshaw mencatat bahwa wawasan tersebut digunakan untuk membikin perubahan berarti, seperti memperkenalkan Akun Remaja dengan perlindungan bawaan dan menyediakan perangkat bagi orang tua untuk mengelola pengalaman remaja mereka. “Kami bangga dengan kemajuan nan telah kami buat, dan kami selalu berupaya untuk menjadi lebih baik,” tambahnya.
Namun, komitmen “selalu berupaya menjadi lebih baik” itu dipertanyakan ketika dihadapkan pada kronologi penemuan masalah dan penerapan solusi. Email 2018 menjadi bukti nyata bahwa masalah telah diidentifikasi, tetapi solusi teknis nan relatif sederhana—filter blur otomatis—butuh waktu sangat lama untuk diwujudkan. Pertanyaannya, apa nan terjadi dalam kurun waktu enam tahun itu? Apakah rumor ini tidak menjadi prioritas tinggi?
Kekhawatiran tentang keamanan remaja di platform Meta juga muncul dalam konteks lain. Seperti pernah diberitakan, chatbot Meta diduga berperilaku ‘liar’ terhadap remaja, menunjukkan bahwa tantangan pengamanan produk mereka kompleks dan multidimensi.
Budaya Internal: Dari Pencarian Pengguna “Kecanduan” hingga Tanggapan nan Lamban
Kesaksian pengadilan juga menyentuh budaya internal Meta. Mosseri ditanyai tentang email dari seorang magang FB pada 2017 nan menyatakan keinginannya untuk menemukan pengguna FB nan “kecanduan” dan mencari langkah untuk membantu mereka. Meski berasal dari level magang, email ini mengindikasikan bahwa obrolan tentang sifat adiktif platform telah berjalan di dalam perusahaan.
Gabungan antara kesadaran bakal potensi kecanduan (2017) dan akibat konten definitif di DM (2018) melukiskan gambaran nan mengganggu: perusahaan mempunyai pengetahuan tentang ancaman tertentu nan dihadapi penggunanya, namun kecepatan untuk bertindak secara proaktif tampak tidak sebanding. Penundaan selama enam tahun untuk sebuah fitur filter nudity—di tengah statistik ancaman nan nyata—memperkuat narasi para penggugat bahwa keselamatan pengguna, khususnya remaja, bukanlah penggerak utama inovasi.
Fenomena ini tidak hanya terjadi di Meta. Tekanan izin juga mendorong platform lain untuk mengambil langkah. Misalnya, Character.AI memutuskan untuk membatasi hubungan pengguna remaja, menunjukkan respons nan lebih preventif terhadap akibat potensial.
Pengungkapan email 2018 dan kesaksian Mosseri bukanlah akhir dari cerita, melainkan sebuah babak krusial dalam pertarungan norma dan izin nan bakal membentuk lanskap media sosial ke depan. Kasus-kasus ini bisa menjadi preseden nan memaksa perusahaan teknologi untuk merancang ulang produk mereka dengan “keselamatan oleh desain” (safety by design) sebagai prinsip inti, bukan sekadar fitur tambahan nan datang belakangan.
Bagi orang tua dan pengguna, kisah ini adalah pengingat nan keras tentang realitas di kembali layar nan berkilau. Platform nan terlihat menyenangkan dan menghubungkan mungkin menyimpan sistem dan keputusan upaya nan tidak selalu sejalan dengan kesejahteraan pengguna. Ini juga menyoroti pentingnya literasi digital dan peran aktif pengawasan, meski tanggung jawab terbesar kudu tetap berada di pundak perusahaan nan menciptakan dan mengelola platform tersebut.
Gugatan ini pada akhirnya menguji sebuah premis: apakah model upaya nan dibangun di atas perhatian dan keterlibatan pengguna nan maksimal—seringkali tanpa batas—dapat berbaikan dengan tanggung jawab untuk melindungi golongan pengguna nan paling rentan? Jawabannya bakal menentukan tidak hanya nasib norma Meta dan perusahaan sejenis, tetapi juga pengalaman online generasi remaja selanjutnya. Ketika filter ketelanjangan akhirnya diterapkan, mungkin sudah terlambat bagi banyak pengguna nan telah terpapar konten rawan selama bertahun-tahun masa tunggu nan panjang itu. Pertanyaannya, apakah perusahaan betul-betul belajar, alias hanya sekadar bereaksi terhadap tekanan hukum?