Halusinasi AI: Apa Itu dan Mengapa Terjadi
Diterbitkan: 2024-06-27Apa itu halusinasi AI?
Halusinasi AI terjadi ketika alat AI menghasilkan informasi yang salah namun terlihat percaya diri. Kesalahan ini dapat bervariasi, mulai dari ketidakakuratan kecil, seperti salah menyebutkan tanggal bersejarah, hingga informasi yang sangat menyesatkan, seperti merekomendasikan pengobatan kesehatan yang sudah ketinggalan zaman atau berbahaya. Halusinasi AI dapat terjadi dalam sistem yang didukung oleh model bahasa besar (LLM) dan teknologi AI lainnya, termasuk sistem pembuatan gambar.
Misalnya, alat AI mungkin salah menyatakan bahwa Menara Eiffel tingginya 335 meter, padahal tinggi sebenarnya adalah 330 meter. Meskipun kesalahan seperti itu mungkin tidak penting dalam percakapan biasa, pengukuran yang akurat sangat penting dalam situasi berisiko tinggi, seperti memberikan nasihat medis.
Untuk mengurangi halusinasi dalam AI, pengembang menggunakan dua teknik utama: pelatihan dengan contoh-contoh permusuhan, yang memperkuat model, dan menyempurnakannya dengan metrik yang menghukum kesalahan. Memahami metode ini membantu pengguna memanfaatkan alat AI secara lebih efektif dan mengevaluasi secara kritis informasi yang mereka hasilkan.
Contoh halusinasi AI
Model AI generasi sebelumnya lebih sering mengalami halusinasi dibandingkan sistem saat ini. Insiden penting termasuk bot AI Microsoft, Sydney, yang mengatakan kepada reporter teknologi Kevin Roose bahwa mereka “jatuh cinta padanya,” dan generator gambar AI Gemini milik Google menghasilkan gambar yang secara historis tidak akurat.
Namun alat AI saat ini sudah mengalami kemajuan, meski halusinasi masih terus terjadi. Berikut adalah beberapa jenis halusinasi AI yang umum:
- Fakta sejarah: Alat AI mungkin menyatakan bahwa pendaratan pertama di bulan terjadi pada tahun 1968 padahal sebenarnya terjadi pada tahun 1969. Ketidakakuratan tersebut dapat menyebabkan kesalahan penyajian peristiwa penting dalam sejarah manusia.
- Kesalahan geografis: AI mungkin salah menyebut Toronto sebagai ibu kota Kanada meskipun ibu kota sebenarnya adalah Ottawa.Informasi yang salah ini dapat membingungkan pelajar dan wisatawan yang ingin mempelajari geografi Kanada.
- Data keuangan: Model AI dapat membuat halusinasi metrik keuangan, seperti mengklaim harga saham suatu perusahaan naik sebesar 30 persen pada hari ketika, pada kenyataannya, perubahannya jauh lebih rendah.Hanya mengandalkan nasihat keuangan yang salah dapat menyebabkan keputusan investasi yang buruk.
- Panduan hukum: Model AI mungkin memberikan informasi yang salah kepada pengguna bahwa perjanjian lisan sama mengikatnya secara hukum seperti kontrak tertulis dalam semua konteks.Hal ini mengabaikan fakta bahwa transaksi tertentu (misalnya, transaksi real estat) memerlukan kontrak tertulis untuk validitas dan keberlakuannya.
- Misinformasi penelitian ilmiah: Alat AI mungkin mengutip penelitian yang seharusnya mengonfirmasi terobosan ilmiah, padahal penelitian semacam itu tidak ada.Halusinasi semacam ini dapat menyesatkan peneliti dan masyarakat tentang pencapaian ilmiah yang signifikan.
Mengapa halusinasi AI terjadi?
Untuk memahami mengapa halusinasi terjadi pada AI, penting untuk mengenali cara kerja mendasar LLM. Model ini dibangun berdasarkan apa yang dikenal sebagai arsitektur transformator, yang memproses teks (atau token) dan memprediksi token berikutnya secara berurutan. Tidak seperti otak manusia, mereka tidak memiliki “model dunia” yang secara inheren memahami sejarah, fisika, atau subjek lainnya.
Halusinasi AI terjadi ketika model menghasilkan respons yang tidak akurat namun secara statistik serupa dengan data yang benar secara faktual. Artinya, meskipun responsnya salah, respons tersebut memiliki kemiripan semantik atau struktural dengan kemungkinan yang diprediksi oleh model.
Alasan lain halusinasi AI meliputi:
Data pelatihan tidak lengkap
Model AI sangat bergantung pada luas dan kualitas data yang dilatihnya. Jika data pelatihan tidak lengkap atau kurang beragam, hal ini akan membatasi kemampuan model untuk menghasilkan respons yang akurat dan menyeluruh. Model-model ini belajar melalui contoh, dan jika contoh-contoh tersebut tidak mencakup skenario, perspektif, dan kontrafaktual yang cukup luas, keluarannya mungkin mencerminkan kesenjangan ini.
Keterbatasan ini sering kali bermanifestasi sebagai halusinasi karena model AI dapat mengisi informasi yang hilang dengan detail yang masuk akal namun salah. Misalnya, jika AI sebagian besar terpapar data dari satu wilayah geografis—misalnya, wilayah dengan transportasi umum yang luas—maka AI akan menghasilkan respons yang berasumsi bahwa sifat-sifat ini bersifat global, padahal sebenarnya tidak. AI tidak dilengkapi untuk mengetahui bahwa ia bergerak melampaui batas-batas yang telah dilatihnya. Oleh karena itu, model tersebut mungkin membuat pernyataan yang meyakinkan dan tidak berdasar atau bias.
Bias dalam data pelatihan
Bias pada data latih berkaitan dengan kelengkapan, namun tidak sama. Meskipun data yang tidak lengkap mengacu pada kesenjangan informasi yang diberikan kepada AI, data yang bias berarti bahwa informasi yang tersedia tidak tepat sasaran. Hal ini tidak dapat dihindari sampai tingkat tertentu, mengingat model-model ini sebagian besar dilatih melalui internet, dan internet memiliki bias yang melekat. Misalnya, banyak negara dan populasi yang kurang terwakili secara online—hampir 3 miliar orang di seluruh dunia masih kekurangan akses internet. Artinya, data pelatihan mungkin tidak cukup mencerminkan perspektif, bahasa, dan norma budaya komunitas offline tersebut.
Bahkan di antara populasi online, terdapat perbedaan dalam hal siapa yang membuat dan membagikan konten, topik apa yang dibahas, dan bagaimana informasi tersebut disajikan. Ketidakseimbangan data ini dapat menyebabkan pembelajaran model AI dan melanggengkan bias dalam keluarannya. Adanya bias pada tingkat tertentu tidak dapat dihindari, namun tingkat dan dampak dari data yang menyimpang dapat sangat bervariasi. Jadi, tujuan pengembang AI adalah mewaspadai bias ini, berupaya memitigasinya jika memungkinkan, dan menilai apakah kumpulan data sesuai untuk kasus penggunaan yang dimaksudkan.
Kurangnya representasi pengetahuan eksplisit
Model AI belajar melalui pencocokan pola statistik tetapi tidak memiliki representasi fakta dan konsep yang terstruktur. Bahkan ketika mereka menghasilkan pernyataan faktual, mereka tidak “mengetahui” kebenarannya karena mereka tidak memiliki mekanisme untuk melacak mana yang nyata dan mana yang tidak.
Tidak adanya kerangka faktual yang jelas berarti bahwa meskipun LLM dapat menghasilkan informasi yang sangat andal, mereka unggul dalam meniru bahasa manusia tanpa pemahaman asli atau verifikasi fakta yang dimiliki manusia. Keterbatasan mendasar ini adalah perbedaan utama antara AI dan kognisi manusia. Seiring dengan terus berkembangnya AI, mengatasi tantangan ini tetap penting bagi pengembang untuk meningkatkan kepercayaan terhadap sistem AI.
Kurangnya pemahaman konteks
Konteks sangat penting dalam komunikasi manusia, namun model AI sering kali kesulitan menghadapinya. Jika diberikan dalam bahasa alami, tanggapan mereka bisa terlalu literal atau tidak dapat dipahami karena mereka tidak memiliki pemahaman mendalam yang diperoleh manusia dari konteksnya—pengetahuan kita tentang dunia, pengalaman hidup, kemampuan membaca yang tersirat, dan memahami asumsi-asumsi yang tidak terucapkan.
Selama setahun terakhir, model AI telah mengalami peningkatan dalam memahami konteks manusia, namun model tersebut masih kesulitan menghadapi elemen seperti nuansa emosional, sarkasme, ironi, dan referensi budaya. Frasa slang atau bahasa sehari-hari yang maknanya telah berubah mungkin disalahartikan oleh model AI yang belum diperbarui baru-baru ini. Sampai model AI dapat menafsirkan jaringan pengalaman dan emosi manusia yang kompleks, halusinasi akan tetap menjadi tantangan yang signifikan.
Seberapa sering chatbot AI berhalusinasi?
Sulit untuk menentukan frekuensi pasti halusinasi AI. Tarifnya sangat bervariasi berdasarkan model atau konteks di mana alat AI digunakan. Salah satu perkiraan dari Vectara, sebuah startup AI, menunjukkan bahwa chatbots berhalusinasi antara 3 persen dan 27 persen sepanjang waktu, menurut papan peringkat halusinasi publik Vectara di GitHub, yang melacak frekuensi halusinasi di antara chatbots populer ketika merangkum dokumen.
Perusahaan teknologi telah menerapkan penafian di chatbot mereka yang memperingatkan orang-orang tentang potensi ketidakakuratan dan perlunya verifikasi tambahan. Pengembang secara aktif berupaya menyempurnakan modelnya, dan kami telah melihat kemajuannya dalam setahun terakhir. Misalnya, OpenAI mencatat bahwa GPT-4 40 persen lebih mungkin menghasilkan tanggapan faktual dibandingkan pendahulunya.
Bagaimana mencegah halusinasi AI
Meskipun tidak mungkin untuk sepenuhnya memberantas halusinasi AI, ada beberapa strategi yang dapat mengurangi kejadian dan dampaknya. Beberapa dari metode ini lebih dapat diterapkan pada peneliti dan pengembang yang berupaya meningkatkan model AI, sementara metode lainnya lebih dapat diterapkan pada manusia biasa yang menggunakan alat AI.
Meningkatkan kualitas data pelatihan
Memastikan data berkualitas tinggi dan beragam sangat penting ketika mencoba mencegah halusinasi AI. Jika data pelatihan tidak lengkap, bias, atau variasinya kurang memadai, model akan kesulitan menghasilkan keluaran yang akurat ketika dihadapkan pada kasus baru atau kasus yang sulit. Peneliti dan pengembang harus berupaya untuk menyusun kumpulan data yang komprehensif dan representatif yang mencakup berbagai perspektif.
Batasi jumlah hasil
Dalam beberapa kasus, halusinasi AI terjadi ketika model menghasilkan respons dalam jumlah besar. Misalnya, jika Anda menanyakan 20 contoh perintah menulis kreatif kepada model, Anda mungkin menyadari kualitas hasilnya menurun menjelang akhir rangkaian. Untuk memitigasi hal ini, Anda dapat membatasi kumpulan hasil ke angka yang lebih kecil dan menginstruksikan alat AI untuk fokus pada respons yang paling menjanjikan dan koheren, sehingga mengurangi kemungkinan respons yang dibuat-buat atau tidak konsisten.
Pengujian dan validasi
Baik pengembang maupun pengguna harus menguji dan memvalidasi alat AI untuk memastikan keandalan. Pengembang harus mengevaluasi keluaran model secara sistematis berdasarkan kebenaran yang diketahui, penilaian ahli, dan heuristik evaluasi untuk mengidentifikasi pola halusinasi. Tidak semua halusinasi itu sama; pemalsuan yang lengkap berbeda dari salah tafsir karena petunjuk konteks yang hilang.
Pengguna harus memvalidasi kinerja alat untuk tujuan tertentu sebelum mempercayai keluarannya. Alat AI unggul dalam tugas-tugas seperti peringkasan teks, pembuatan teks, dan pengkodean, tetapi tidak sempurna dalam segala hal. Memberikan contoh keluaran yang diinginkan dan tidak diinginkan selama pengujian membantu AI mempelajari preferensi Anda. Menginvestasikan waktu dalam pengujian dan validasi dapat secara signifikan mengurangi risiko halusinasi AI pada aplikasi Anda.
Menyediakan templat untuk keluaran terstruktur
Anda dapat menyediakan templat data yang memberi tahu model AI tentang format atau struktur tepat yang Anda inginkan untuk menyajikan informasi. Dengan menentukan dengan tepat bagaimana hasil harus diatur dan elemen kunci apa yang harus disertakan, Anda dapat memandu sistem AI untuk menghasilkan respons yang lebih fokus dan relevan. Misalnya, jika Anda menggunakan alat AI untuk meninjau produk Amazon, cukup salin semua teks dari halaman produk, lalu perintahkan alat AI untuk mengkategorikan produk menggunakan contoh templat berikut:
Prompt:Analisis teks halaman produk Amazon yang disediakan dan isi template di bawah ini.Ekstrak detail yang relevan, jaga agar informasi tetap ringkas dan akurat, dan fokus pada aspek yang paling penting.Jika ada informasi yang hilang, tulis “T/A.” Jangan menambahkan informasi apa pun yang tidak dirujuk secara langsung dalam teks.
- Nama Produk: [Nama produk yang dikurangi AI di sini]
- Kategori Produk: [kategori produk yang dikurangi AI di sini]
- Kisaran Harga: [harga yang dikurangi AI di sini] [dolar AS]
- Fitur Utama: [deskripsi singkat di sini]
- Kelebihan [3 teratas dalam poin-poin]
- Kontra [3 teratas dalam poin-poin]
- Peringkat Keseluruhan: [peringkat pada skala 1–5]
- Ringkasan Produk: [maksimum 2–3 kalimat]
Keluaran yang dihasilkan kecil kemungkinannya berisi keluaran yang salah dan informasi yang tidak memenuhi spesifikasi yang Anda berikan.
Gunakan alat AI secara bertanggung jawab
Meskipun strategi yang disebutkan di atas dapat membantu mencegah halusinasi AI pada tingkat sistemik, pengguna individu dapat belajar menggunakan alat AI dengan lebih bertanggung jawab. Praktik-praktik ini mungkin tidak mencegah halusinasi, namun dapat meningkatkan peluang Anda memperoleh informasi yang andal dan akurat dari sistem AI.
- Hasil referensi silang dan diversifikasi sumber Anda: Jangan hanya mengandalkan satu alat AI untuk mendapatkan informasi penting.Referensi silang keluaran tersebut dengan sumber terpercaya lainnya, seperti organisasi berita mapan, publikasi akademis, pakar manusia yang tepercaya, dan laporan pemerintah untuk memvalidasi keakuratan dan kelengkapan informasi.
- Gunakan penilaian Anda: Sadarilah bahwa alat AI, bahkan yang paling canggih sekalipun, memiliki keterbatasan dan rentan terhadap kesalahan.Jangan secara otomatis mempercayai keluaran mereka. Dekati mereka dengan pandangan kritis dan gunakan penilaian Anda sendiri saat mengambil keputusan berdasarkan informasi yang dihasilkan AI.
- Gunakan AI sebagai titik awal: Perlakukan keluaran yang dihasilkan oleh alat AI sebagai titik awal untuk penelitian dan analisis lebih lanjut, bukan sebagai jawaban pasti.Gunakan AI untuk mengeksplorasi ide, menghasilkan hipotesis, dan mengidentifikasi informasi yang relevan, namun selalu memvalidasi dan memperluas wawasan yang dihasilkan melalui keahlian manusia dan penelitian tambahan.
Kesimpulan
Halusinasi AI muncul dari keterbatasan sistem LLM saat ini, mulai dari ketidakakuratan kecil hingga pemalsuan total. Hal ini terjadi karena data pelatihan yang tidak lengkap atau bias, pemahaman kontekstual yang terbatas, dan kurangnya pengetahuan eksplisit.
Meskipun menantang, teknologi AI tetap kuat dan terus berkembang. Para peneliti berupaya mengurangi halusinasi, dan kemajuan signifikan telah dicapai. Anda dapat membatasi halusinasi dengan menyediakan templat terstruktur, membatasi keluaran, dan memvalidasi model untuk kasus penggunaan Anda.
Jelajahi alat AI dengan pikiran terbuka. Mereka menawarkan kemampuan mengesankan yang meningkatkan kecerdikan dan produktivitas manusia. Namun, gunakan penilaian Anda dengan hasil yang dihasilkan AI dan informasi referensi silang dengan sumber yang dapat dipercaya. Manfaatkan potensi AI sambil tetap waspada terhadap halusinasi.