Buka-bukaan Algoritma X: Transparansi Atau Cuma Gimik Elon Musk?

Sedang Trending 3 minggu yang lalu

Ketika logo X berkedip di layar ponsel pandai Anda, pernahkah terbesit pertanyaan tentang kenapa sebuah postingan tertentu muncul di lini masa? Bulan lalu, tim teknis X merilis kode nan menjadi otak di kembali algoritma “For You” mereka. Elon Musk, dengan style khasnya, menyatakan langkah ini sebagai kemenangan besar bagi transparansi media sosial. “Kami tahu algoritmanya tolol dan butuh perbaikan masif, tapi setidaknya Anda bisa memandang kami berjuang memperbaikinya secara real-time,” tulis Musk. Ia apalagi sesumbar bahwa tidak ada perusahaan media sosial lain nan berani melakukan perihal serupa.

Klaim tersebut memang terdengar heroik di telinga pengguna awam. Namun, realitas di lapangan rupanya tidak seindah narasi nan dibangun. Meskipun betul bahwa X adalah satu-satunya jejaring sosial raksasa nan membuka komponen rekomendasi mereka menjadi open source, para peneliti justru skeptis. Apa nan dipublikasikan perusahaan tersebut dianggap tidak memberikan transparansi nan sesungguhnya, terutama bagi siapa saja nan mau memahami langkah kerja X di tahun 2026 ini.

John Thickstun, asisten guru besar pengetahuan komputer di Cornell University, menyebut kode tersebut sebagai jenis nan “disensor”. Mirip dengan rilis jenis awal pada tahun 2023, kode terbaru ini memberikan ilusi keterbukaan tanpa substansi. “Apa nan mengganggu saya adalah rilis ini memberikan kepura-puraan bahwa mereka transparan… dan kesan bahwa seseorang mungkin bisa menggunakan rilis ini untuk melakukan audit alias pengawasan,” ujar Thickstun. Faktanya, melakukan audit mendalam dari kode nan dipangkas tersebut nyaris mustahil dilakukan.

Mitos Viral dan Realitas Kreator

Sudah bisa ditebak, sesaat setelah kode tersebut dirilis, para “pakar” dadakan di X mulai membedah dan membagikan teori persekongkolan tentang langkah meningkatkan visibilitas. Utas-utas panjang bermunculan, menjanjikan rahasia viral bagi para pembuat konten. Salah satu postingan nan dilihat lebih dari 350.000 kali menyarankan pengguna untuk “lebih banyak bercakap-cakap” demi meningkatkan “getaran” akun mereka. Ada pula nan menyatakan bahwa video adalah kunci segalanya, sementara nan lain menyarankan untuk tetap pada satu topik spesifik alias niche agar jangkauan tidak anjlok.

Namun, Thickstun memperingatkan Anda untuk tidak menelan mentah-mentah strategi tersebut. Menurutnya, mustahil menarik konklusi strategi viral hanya dari potongan kode nan dirilis X. Meskipun ada perincian mini nan terungkap—seperti kebenaran bahwa algoritma menyaring konten nan berumur lebih dari satu hari—sebagian besar info tersebut tidak dapat ditindaklanjuti secara teknis oleh kreator. Klaim-klaim viral tersebut seringkali hanya spekulasi tanpa dasar teknis nan kuat, berbeda dengan Janji Elon Musk nan seringkali terdengar manis di awal.

Struktur algoritma X saat ini juga telah mengalami perubahan esensial dibandingkan jenis 2023. Perbedaan terbesarnya terletak pada penggunaan model bahasa besar (LLM) nan mirip dengan Grok untuk memeringkat postingan. Jika sebelumnya sistem bekerja berasas metrik kaku seperti jumlah likes alias share, sekarang segalanya menjadi lebih absurd dan susah ditebak.

Pergeseran ke “Kotak Hitam” AI

Ruggero Lazzaroni, peneliti PhD di Universitas Graz, menjelaskan pergeseran drastis ini. “Pada jenis sebelumnya, ini di-hard code: Anda mengambil berapa kali sesuatu disukai, dibagikan, alias dibalas… lampau berasas itu Anda menghitung skor,” jelasnya. Namun kini, skor tersebut tidak lagi berasal dari jumlah hubungan nyata, melainkan dari prediksi AI tentang seberapa besar kemungkinan Grok “berpikir” Anda bakal menyukai alias membagikan sebuah postingan.

Perubahan ini membikin algoritma X menjadi jauh lebih tidak transparan dibandingkan sebelumnya. Thickstun menyebutnya sebagai pergeseran pengambilan keputusan ke dalam “jaringan saraf kotak hitam”. Ironisnya, semakin canggih sistemnya, semakin sedikit nan bisa dipahami oleh publik, apalagi mungkin oleh insinyur internal X sendiri. Keputusan algoritma sekarang terkubur dalam lapisan info training nan rumit, sebuah kejadian nan juga mulai terlihat pada Algoritma Instagram di platform tetangga.

Data Pelatihan nan Masih Misterius

Kekecewaan para peneliti semakin bertambah ketika menyadari bahwa rilis terbaru ini justru memuat lebih sedikit perincian dibandingkan tahun 2023. Kala itu, X tetap menyertakan info tentang berat interaksi—misalnya, satu jawaban setara dengan 27 retweet. Kini, info krusial tersebut telah disensor dengan argumen keamanan. Kode tersebut juga sama sekali tidak menyertakan info mengenai info apa nan digunakan untuk melatih algoritma tersebut.

Mohsen Foroughifar, asisten guru besar di Carnegie Mellon University, menekankan pentingnya transparansi info pelatihan. “Jika info nan digunakan untuk melatih model ini secara inheren bias, maka model tersebut mungkin bakal tetap bias, terlepas dari perihal apa pun nan Anda pertimbangkan dalam modelnya,” tegasnya. Tanpa mengetahui “makanan” apa nan diberikan kepada AI, kita tidak bakal pernah betul-betul tahu kenapa dia memuntahkan rekomendasi tertentu. Hal ini mengingatkan kita pada masalah serupa nan terjadi pada Algoritma Musik di platform streaming nan seringkali kandas memahami selera pengguna secara akurat.

Bagi Lazzaroni, nan sedang mengerjakan proyek didanai UE untuk mengeksplorasi algoritma alternatif, kode nan dirilis X tidak cukup untuk mereproduksi sistem rekomendasi mereka. “Kami mempunyai kode untuk menjalankan algoritma, tetapi kami tidak mempunyai model nan Anda butuhkan untuk menjalankan algoritma tersebut,” ujarnya. Ini seperti diberikan mesin mobil balap tanpa kunci kontak dan bahan bakarnya.

Profit di Atas Kesehatan Mental?

Implikasi dari ketertutupan ini melampaui sekadar urusan media sosial. Thickstun mengingatkan bahwa tantangan nan kita lihat pada algoritma rekomendasi X—seperti bias dan kotak hitam—kemungkinan besar bakal muncul kembali dalam konteks chatbot AI generatif. Apa nan terjadi di media sosial hari ini adalah gambaran masa depan hubungan kita dengan platform GenAI.

Lazzaroni memberikan pandangan nan lebih tajam dan menohok. Ia menilai bahwa perusahaan AI, demi memaksimalkan keuntungan, mengoptimalkan model bahasa besar mereka semata-mata untuk keterlibatan pengguna (engagement), bukan untuk kebenaran alias kesehatan mental. “Mereka mendapat lebih banyak keuntungan, tetapi pengguna mendapatkan masyarakat nan lebih buruk, alias kesehatan mental nan lebih buruk,” pungkasnya. Di tengah upaya platform lain seperti TikTok nan mulai menguji Fitur Reset untuk menyegarkan algoritma, X tampaknya tetap berkutat pada labirin AI nan membingungkan.

Pada akhirnya, transparansi nan dijanjikan Musk tampaknya tetap jauh panggang dari api. Bagi Anda pengguna setia X, memahami bahwa apa nan Anda lihat di “For You” adalah hasil prediksi mesin nan dilatih demi profit, mungkin bisa menjadi langkah awal untuk lebih bijak dalam berselancar di bumi maya.

Selengkapnya