OpenAI Bongkar Akar Masalah Halusinasi Chatbot, Ini Solusi Barunya

Abadikini.com, JAKARTA – OpenAI mengklaim telah menemukan akar persoalan di balik fenomena “halusinasi” pada chatbot kecerdasan buatan (AI) dan kini menawarkan solusi yang bisa membuat teknologi ini lebih bisa diandalkan.
Meski sudah dipakai luas dalam pekerjaan sehari-hari, chatbot AI masih menyimpan kelemahan klasik memberi jawaban keliru yang terdengar meyakinkan. Dalam makalah setebal 36 halaman yang ditulis bersama peneliti Georgia Tech, Santosh Vempala, OpenAI menegaskan bahwa masalah ini bukan sekadar akibat desain model, melainkan cara sistem diuji dan diperingkat, dikutip Sabtu (13/9/2025).
Selama ini, tolok ukur penilaian justru mendorong model untuk selalu menjawab, bahkan ketika tidak yakin. Alih-alih menghargai sikap hati-hati, sistem malah memberi “poin” lebih pada tebakan. Analogi yang dipakai ujian pilihan ganda yang memberi nilai untuk jawaban asal-asalan, tapi tidak untuk lembar kosong.
Sebagai jawaban, OpenAI mengusulkan kerangka evaluasi baru model harus diberi hukuman berat jika salah dengan percaya diri, dan sebaliknya mendapat apresiasi jika berani mengakui ketidaktahuan. Dalam uji coba, pendekatan ini menghasilkan model yang menjawab lebih sedikit pertanyaan, namun akurasinya melonjak—74 persen jawaban benar dibanding model lain yang asal menebak dengan tingkat kesalahan lebih tinggi.
Implikasinya, asisten AI di masa depan mungkin lebih sering mengatakan “saya tidak tahu” ketimbang mengarang sumber atau data palsu. Bagi sebagian pengguna mungkin terdengar kurang canggih, namun strategi ini diyakini lebih aman: mengurangi beban verifikasi manual dan membangun kepercayaan publik terhadap AI.
Dengan langkah ini, OpenAI berharap arah pengembangan AI tak lagi terjebak pada sekadar “percaya diri”, melainkan benar-benar mengutamakan keandalan dan ketepatan informasi.