Telset.id – Sebuah peringatan keras bagi para akademisi dan ahli nan terlalu berjuntai pada kepintaran buatan. Seorang guru besar pengetahuan tanaman dari University of Cologne, Marcel Bucher, kudu menelan pil pahit setelah kehilangan hasil kerja akademisnya selama dua tahun di ChatGPT. Insiden ini terjadi hanya lantaran dia mencoba mengubah pengaturan privasi info pada akunnya.
Kejadian ini menyoroti akibat fatal dari ketergantungan pada platform cloud tanpa persediaan lokal, sekaligus memicu perdebatan mengenai antarmuka pengguna OpenAI nan dianggap membingungkan oleh sebagian pihak.
Dalam sebuah kolom nan ditulis untuk jurnal ilmiah bergengsi Nature, Bucher menceritakan kronologi gimana “arsip digital” miliknya lenyap dalam sekejap. Ia mengaku telah kehilangan dokumen-dokumen krusial nan disusun dengan struktur akademis nan hati-hati, termasuk aplikasi hibah, revisi publikasi ilmiah, materi kuliah, hingga soal-soal ujian.
Bencana ini bermulai ketika Bucher memutuskan untuk mematikan opsi “persetujuan data” alias data consent di pengaturan ChatGPT. Tujuannya sederhana: dia mau menguji apakah dia tetap bisa mengakses fungsi-fungsi model AI tersebut tanpa kudu menyerahkan datanya kepada OpenAI untuk keperluan training model.
Namun, realitas berbicara lain. Alih-alih mendapatkan privasi lebih, dia justru kehilangan segalanya. “Tidak ada peringatan nan muncul,” tulis Bucher dengan nada kecewa. “Tidak ada opsi undo. Hanya laman kosong.” Riwayat percakapan nan berisi pekerjaan selama dua tahun itu lenyap tanpa jejak seketika setelah fitur tersebut dinonaktifkan.
Kasus ini menjadi ironi tersendiri, mengingat saat ini pakai ChatGPT memang semakin mudah dan terintegrasi dalam alur kerja harian banyak profesional.
Reaksi Keras dan Simpati Publik
Pengakuan jujur Bucher di kolom Nature tersebut segera memancing reaksi beragam di media sosial. Sebagian besar respons bersuara schadenfreude—rasa senang di atas penderitaan orang lain. Banyak netizen dan rekan akademisi nan mempertanyakan kompetensi teknis Bucher. Mereka heran gimana seorang guru besar bisa bekerja selama dua tahun tanpa membikin satu pun persediaan lokal (backup) di komputernya sendiri.
Kritik nan lebih pedas apalagi muncul dari beberapa pihak nan mendesak universitas untuk memecatnya. Mereka berdasar bahwa ketergantungan berlebihan pada AI untuk pekerjaan akademis adalah corak kelalaian profesional. Hal ini mengingatkan pada beragam kasus di mana celah keamanan alias kesalahan sistem AI bisa berakibat fatal.
Meski demikian, tidak sedikit nan meletakkan simpati. Roland Gromes, koordinator pengajaran di Heidelberg University, memihak Bucher melalui sebuah unggahan di Bluesky. “Salut untuk Marcel Bucher lantaran berbagi cerita tentang alur kerja nan sangat abnormal dan kesalahan bodoh,” tulis Gromes.
“Banyak akademisi percaya mereka bisa memandang jebakan-jebakan AI, tapi kita semua bisa menjadi naif dan mengalami masalah semacam ini!” tambahnya, menekankan bahwa kesalahan manusiawi adalah perihal nan wajar terjadi di tengah mengambil teknologi baru.
Bucher sendiri menyadari posisi AI nan problematis. Ia adalah orang pertama nan mengakui bahwa ChatGPT dapat menghasilkan pernyataan nan tampak percaya diri namun terkadang salah. Ia menegaskan bahwa dirinya tidak pernah menyamakan keandalan AI dengan kecermatan faktual.
Namun, kesalahan fatalnya terletak pada kepercayaan terhadap stabilitas ruang kerja digital tersebut. Ia menggunakan ChatGPT Plus sebagai “asisten setiap hari” dan mengandalkan kontinuitas platform tersebut untuk menyimpan data-data pentingnya.
Polemik AI dalam Dunia Ilmiah
Insiden nan menimpa Bucher hanyalah puncak gunung es dari masalah nan lebih besar mengenai penggunaan AI generatif di bumi sains. Laporan dari The Atlantic baru-baru ini menyoroti gimana jurnal ilmiah sekarang dibanjiri oleh materi “sampah” hasil AI nan berasal buruk. Proses tinjauan sejawat (peer review) berubah menjadi mimpi jelek lantaran banyaknya konten berbobot rendah nan masuk.
Lebih parah lagi, muncul kejadian jurnal ilmiah tiruan nan didirikan unik untuk menampung para peneliti nan mencoba mempublikasikan hasil riset berbasis AI nan meragukan. Situasi ini menciptakan siklus setan di mana materi sampah AI ditinjau oleh model AI lainnya, nan semakin mencemari literatur ilmiah global.
Para intelektual juga semakin sering menemukan karya mereka dikutip dalam makalah baru, hanya untuk menyadari bahwa referensi tersebut sepenuhnya merupakan fatamorgana AI. Kasus kesalahan info ini cukup serius, apalagi pernah ada kejadian di mana seseorang dituduh melakukan kejahatan fatal hanya lantaran orang lain bertanya di ChatGPT.
Penting untuk dicatat bahwa dalam kasus Bucher, tidak ada bukti nan menunjukkan bahwa dia mencoba menjual materi AI mentah kepada mahasiswanya alias mempublikasikan penelitian palsu. Namun, pengalaman pahitnya menjadi peringatan keras tentang volatilitas platform AI.
Tanggapan OpenAI
Dalam tulisannya, Bucher secara terbuka menuduh OpenAI menjual langganan ChatGPT Plus tanpa menjamin langkah-langkah perlindungan dasar. Ia menyayangkan gimana pekerjaan bertahun-tahun bisa lenyap dalam sekejap tanpa jaring pengaman.
Merespons tuduhan tersebut, OpenAI memberikan penjelasan kepada Nature. Perusahaan nan dipimpin Sam Altman tersebut menegaskan bahwa percakapan nan telah dihapus memang “tidak dapat dipulihkan”.
OpenAI juga membantah klaim Bucher nan menyatakan tidak ada peringatan sebelum penghapusan. “Kami menyediakan konfirmasi sebelum pengguna menghapus obrolan secara permanen,” jelas ahli bicara OpenAI. Sebagai penutup nan mungkin terdengar normatif namun krusial, perusahaan tersebut menyarankan agar pengguna selalu “memelihara persediaan pribadi untuk pekerjaan profesional.”
Kasus ini menjadi pelajaran mahal bagi siapa saja nan menjadikan platform cloud sebagai satu-satunya tempat penyimpanan data. Secanggih apapun teknologi AI, prinsip dasar manajemen info tetap berlaku: jika info itu penting, buatlah persediaan di tempat nan Anda kendalikan sepenuhnya.