Halucinații AI: ce sunt și de ce se întâmplă

Publicat: 2024-06-27

Ce sunt halucinațiile AI?

Halucinațiile AI apar atunci când instrumentele AI generează informații incorecte în timp ce par încrezători. Aceste erori pot varia de la inexactități minore, cum ar fi prezentarea greșită a unei date istorice, până la informații înșelătoare, cum ar fi recomandarea de remedii învechite sau dăunătoare pentru sănătate. Halucinațiile AI pot apărea în sisteme alimentate de modele de limbaj mari (LLM) și alte tehnologii AI, inclusiv sisteme de generare de imagini.

De exemplu, un instrument AI ar putea afirma incorect că Turnul Eiffel are 335 de metri înălțime în loc de înălțimea sa reală de 330 de metri. Deși o astfel de eroare ar putea fi lipsită de importanță în conversația obișnuită, măsurătorile precise sunt critice în situații cu mize mari, cum ar fi furnizarea de sfaturi medicale.

Pentru a reduce halucinațiile în IA, dezvoltatorii folosesc două tehnici principale: antrenament cu exemple adverse, care întărește modelele și ajustarea lor cu metrici care penalizează erorile. Înțelegerea acestor metode ajută utilizatorii să utilizeze mai eficient instrumentele AI și să evalueze critic informațiile pe care le produc.

Lucrați mai inteligent cu Grammarly
Partenerul de scriere AI pentru oricine are de lucru

Exemple de halucinații IA

Generațiile anterioare de modele AI au experimentat halucinații mai frecvente decât sistemele actuale. Incidentele notabile includ botul AI al Microsoft, Sydney, care i-a spus reporterului tehnologic Kevin Roose că „era îndrăgostit de el” și generatorul de imagini Gemini AI de la Google care produce imagini inexacte din punct de vedere istoric.

Cu toate acestea, instrumentele AI de astăzi s-au îmbunătățit, deși încă apar halucinații. Iată câteva tipuri comune de halucinații AI:

  • Fapt istoric: un instrument AI ar putea afirma că prima aterizare pe Lună a avut loc în 1968, când a avut loc de fapt în 1969. Astfel de inexactități pot duce la denaturarea unor evenimente semnificative din istoria umanității.
  • Eroare geografică: o IA s-ar putea referi în mod incorect la Toronto ca fiind capitala Canadei, în ciuda faptului că capitala reală este Ottawa.Această dezinformare ar putea deruta studenții și călătorii care doresc să afle despre geografia Canadei.
  • Date financiare: Un model AI ar putea halucina valorile financiare, cum ar fi susținerea că prețul acțiunilor unei companii a crescut cu 30% într-o zi în care, de fapt, schimbarea a fost mult mai mică.Bazându-se exclusiv pe sfaturi financiare eronate ar putea duce la decizii proaste de investiții.
  • Îndrumări juridice: un model AI ar putea să informeze greșit utilizatorii că acordurile verbale sunt la fel de obligatorii din punct de vedere juridic ca și contractele scrise în toate contextele.Acest lucru trece cu vederea faptul că anumite tranzacții (de exemplu, tranzacții imobiliare) necesită contracte scrise pentru valabilitate și caracter executoriu.
  • Dezinformare în cercetare științifică: un instrument AI ar putea cita un studiu care se presupune că confirmă o descoperire științifică atunci când nu există un astfel de studiu.Acest tip de halucinație poate induce în eroare cercetătorii și publicul cu privire la realizările științifice semnificative.

De ce apar halucinațiile AI?

Pentru a înțelege de ce apar halucinațiile în IA, este important să recunoaștem funcționarea fundamentală a LLM. Aceste modele sunt construite pe ceea ce este cunoscut sub numele de arhitectură transformatoare, care procesează text (sau jetoane) și prezice următorul token într-o secvență. Spre deosebire de creierul uman, ei nu au un „model mondial” care să înțeleagă în mod inerent istoria, fizica sau alte subiecte.

O halucinație AI apare atunci când modelul generează un răspuns care este inexact, dar similar statistic cu datele corecte din punct de vedere faptic. Aceasta înseamnă că, în timp ce răspunsul este fals, are o asemănare semantică sau structurală cu ceea ce modelul prezice ca fiind probabil.

Alte motive pentru halucinațiile AI includ:

Date de antrenament incomplete

Modelele AI se bazează în mare măsură pe amploarea și calitatea datelor pe care sunt instruiți. Atunci când datele de antrenament sunt incomplete sau lipsite de diversitate, limitează capacitatea modelului de a genera răspunsuri precise și bine rotunjite. Aceste modele învață prin exemplu și, dacă exemplele lor nu acoperă o gamă suficient de largă de scenarii, perspective și contrafactuale, rezultatele lor pot reflecta aceste lacune.

Această limitare se manifestă adesea ca halucinații, deoarece un model AI poate completa informațiile lipsă cu detalii plauzibile, dar incorecte. De exemplu, dacă o inteligență artificială a fost expusă în mod predominant la date dintr-o regiune geografică - de exemplu, un loc cu transport public extins - ar putea genera răspunsuri care presupun că aceste trăsături sunt globale atunci când nu sunt. AI nu este echipat să știe că se aventurează dincolo de granițele pentru care a fost antrenat. Prin urmare, modelul ar putea face afirmații încrezătoare, fără temei sau părtinitoare.

Prejudecăți în datele de antrenament

Prejudecățile în datele de antrenament sunt legate de completitudine, dar nu este același lucru. În timp ce datele incomplete se referă la lacune în informațiile furnizate AI, datele părtinitoare înseamnă că informațiile disponibile sunt denaturate într-un fel. Acest lucru este inevitabil într-o oarecare măsură, având în vedere că aceste modele sunt instruite în mare parte pe internet, iar internetul are părtiniri inerente. De exemplu, multe țări și populații sunt subreprezentate online – aproape 3 miliarde de oameni din întreaga lume încă nu au acces la internet. Aceasta înseamnă că este posibil ca datele de instruire să nu reflecte în mod adecvat perspectivele, limbile și normele culturale ale acestor comunități offline.

Chiar și în rândul populațiilor online, există disparități în ceea ce privește cine creează și distribuie conținut, ce subiecte sunt discutate și cum sunt prezentate aceste informații. Aceste distorsiuni ale datelor pot duce la învățarea modelelor AI și la perpetuarea părtinirilor în rezultatele lor. Un anumit grad de părtinire este inevitabil, dar amploarea și impactul distorsiunii datelor pot varia considerabil. Deci, scopul dezvoltatorilor AI este să fie conștienți de aceste părtiniri, să lucreze pentru a le atenua acolo unde este posibil și să evalueze dacă setul de date este adecvat pentru cazul de utilizare prevăzut.

Lipsa reprezentării explicite a cunoștințelor

Modelele AI învață prin potrivirea modelelor statistice, dar le lipsește o reprezentare structurată a faptelor și conceptelor. Chiar și atunci când generează declarații faptice, ei nu „știu” că sunt adevărate, deoarece nu au un mecanism pentru a urmări ceea ce este real și ce nu este.

Această absență a unui cadru factual distinct înseamnă că, deși LLM-urile pot produce informații extrem de fiabile, ele excelează în a imita limbajul uman fără înțelegerea sau verificarea reală a faptelor pe care oamenii le posedă. Această limitare fundamentală este o diferență cheie între AI și cogniția umană. Pe măsură ce IA continuă să se dezvolte, abordarea acestei provocări rămâne crucială pentru dezvoltatori pentru a spori fiabilitatea sistemelor AI.

Lipsa înțelegerii contextului

Contextul este crucial în comunicarea umană, dar modelele AI se luptă adesea cu el. Atunci când sunt solicitate în limbaj natural, răspunsurile lor pot fi prea literale sau lipsite de atingere, deoarece le lipsește înțelegerea mai profundă pe care oamenii o atrag din context - cunoștințele noastre despre lume, experiențele trăite, capacitatea de a citi printre rânduri și înțelegerea presupunerilor nerostite.

În ultimul an, modelele AI s-au îmbunătățit în înțelegerea contextului uman, dar încă se luptă cu elemente precum subtextul emoțional, sarcasmul, ironia și referințele culturale. Argoul sau expresiile colocviale care au evoluat în sens pot fi interpretate greșit de un model AI care nu a fost actualizat recent. Până când modelele AI vor putea interpreta rețeaua complexă de experiențe și emoții umane, halucinațiile vor rămâne o provocare semnificativă.

Cât de des halucinează chatbot-ii AI?

Este dificil să se determine frecvența exactă a halucinațiilor IA. Rata variază foarte mult în funcție de modelul sau contextul în care sunt utilizate instrumentele AI. O estimare de la Vectara, un startup AI, sugerează că chatboții halucinează oriunde între 3 și 27 la sută din timp, conform clasamentului public al halucinațiilor Vectara de pe GitHub, care urmărește frecvența halucinațiilor printre chatboții populari atunci când sintetizează documentele.

Companiile de tehnologie au implementat clauze de declinare a răspunderii în chatbot-urile lor care avertizează oamenii despre potențialele inexactități și despre necesitatea verificărilor suplimentare. Dezvoltatorii lucrează activ pentru a perfecționa modelele și am observat deja progrese în ultimul an. De exemplu, OpenAI observă că GPT-4 are cu 40% mai multe șanse de a produce răspunsuri concrete decât predecesorul său.

Cum să preveniți halucinațiile IA

Deși este imposibil să eradicați complet halucinațiile AI, mai multe strategii pot reduce apariția și impactul acestora. Unele dintre aceste metode sunt mai aplicabile cercetătorilor și dezvoltatorilor care lucrează la îmbunătățirea modelelor AI, în timp ce altele se referă la oamenii obișnuiți care folosesc instrumente AI.

Îmbunătățiți calitatea datelor de formare

Asigurarea unor date de înaltă calitate și diverse este crucială atunci când se încearcă prevenirea halucinațiilor AI. Dacă datele de instruire sunt incomplete, părtinitoare sau lipsite de o varietate suficientă, modelul se va lupta să genereze rezultate precise atunci când se confruntă cu cazuri noi sau marginale. Cercetătorii și dezvoltatorii ar trebui să depună eforturi pentru a crea seturi de date cuprinzătoare și reprezentative care acoperă perspective diferite.

Limitați numărul de rezultate

În unele cazuri, halucinațiile AI apar atunci când modelele generează un număr mare de răspunsuri. De exemplu, dacă cereți modelului 20 de exemple de instrucțiuni de scriere creativă, s-ar putea să vă dați seama că calitatea rezultatului scade spre sfârșitul setului. Pentru a reduce acest lucru, puteți restricționa setul de rezultate la un număr mai mic și puteți instrui instrumentul AI să se concentreze pe cele mai promițătoare și coerente răspunsuri, reducând șansele ca acesta să răspundă cu rezultate exagerate sau inconsecvente.

Testare și validare

Atât dezvoltatorii, cât și utilizatorii trebuie să testeze și să valideze instrumentele AI pentru a asigura fiabilitatea. Dezvoltatorii trebuie să evalueze sistematic rezultatele modelului în raport cu adevărurile cunoscute, judecățile experților și euristicile de evaluare pentru a identifica modelele de halucinație. Nu toate halucinațiile sunt la fel; o fabricație completă diferă de o interpretare greșită din cauza lipsei unui indiciu de context.

Utilizatorii ar trebui să valideze performanța instrumentului în scopuri specifice înainte de a avea încredere în rezultatele sale. Instrumentele AI excelează la sarcini precum rezumarea textului, generarea textului și codificarea, dar nu sunt perfecte în orice. Furnizarea de exemple de rezultate dorite și nedorite în timpul testării ajută AI să învețe preferințele dvs. Investirea timpului în testare și validare poate reduce semnificativ riscul de halucinații AI în aplicația dvs.

Furnizați șabloane pentru rezultate structurate

Puteți oferi șabloane de date care le spun modelelor AI formatul sau structura exactă în care doriți să fie prezentate informațiile. Specificând exact cum trebuie organizate rezultatele și ce elemente cheie ar trebui incluse, puteți ghida sistemul AI pentru a genera răspunsuri mai concentrate și mai relevante. De exemplu, dacă utilizați un instrument AI pentru a examina produsele Amazon, pur și simplu copiați tot textul de pe pagina unui produs, apoi instruiți instrumentul AI să clasifice produsul folosind următorul șablon exemplu:

Solicitare:Analizați textul furnizat pe pagina produsului Amazon și completați șablonul de mai jos.Extrageți detalii relevante, păstrați informațiile concise și exacte și concentrați-vă pe cele mai importante aspecte.Dacă lipsește vreo informație, scrieți „N/A”. Nu adăugați informații care nu se referă direct în text.

  • Nume produs: [numele produsului dedus de AI aici]
  • Categoria de produs: [categoria de produs dedusă de AI aici]
  • Interval de preț: [preț dedus de AI aici] [dolari SUA]
  • Caracteristici cheie: [descrieri concise aici]
  • Pro [top 3 în puncte de marcaj]
  • Contra [top 3 în puncte de marcaj]
  • Evaluare generală: [clasat pe o scară de la 1 la 5]
  • Rezumatul produsului: [maximum 2–3 propoziții]

Rezultatul rezultat este mult mai puțin probabil să implice rezultate eronate și informații care nu îndeplinesc specificațiile pe care le-ați furnizat.

Utilizați instrumentele AI în mod responsabil

În timp ce strategiile menționate mai sus pot ajuta la prevenirea halucinațiilor AI la nivel sistemic, utilizatorii individuali pot învăța să folosească instrumentele AI în mod mai responsabil. Este posibil ca aceste practici să nu prevină halucinațiile, dar vă pot îmbunătăți șansele de a obține informații fiabile și precise din sistemele AI.

  • Faceți referințe încrucișate la rezultate și diversificați-vă sursele: nu vă bazați doar pe un singur instrument AI pentru informații critice.Încrucișați rezultatele cu alte surse de renume, cum ar fi organizații de știri consacrate, publicații academice, experți umani de încredere și rapoarte guvernamentale pentru a valida acuratețea și caracterul complet al informațiilor.
  • Folosiți-vă raționamentul: recunoașteți că instrumentele AI, chiar și cele mai avansate, au limitări și sunt predispuse la erori.Nu aveți încredere automat în rezultatele lor. Abordați-le cu un ochi critic și folosiți-vă propria judecată atunci când luați decizii pe baza informațiilor generate de AI.
  • Utilizați IA ca punct de plecare: tratați rezultatele generate de instrumentele AI ca un punct de plecare pentru cercetări și analize ulterioare, mai degrabă decât ca răspunsuri definitive.Folosiți inteligența artificială pentru a explora idei, a genera ipoteze și a identifica informații relevante, dar întotdeauna validați și extindeți cunoștințele generate prin expertiză umană și cercetări suplimentare.

Concluzie

Halucinațiile AI apar din limitările actuale ale sistemelor LLM, variind de la inexactități minore până la fabricații complete. Acestea apar din cauza datelor de formare incomplete sau părtinitoare, a înțelegerii contextuale limitate și a lipsei de cunoștințe explicite.

Deși este o provocare, tehnologia AI rămâne puternică și se îmbunătățește continuu. Cercetătorii lucrează pentru a reduce halucinațiile și s-au făcut progrese semnificative. Puteți limita halucinațiile furnizând șabloane structurate, constrângând rezultatul și validând modelul pentru cazul dvs. de utilizare.

Explorați instrumentele AI cu o minte deschisă. Ele oferă capabilități impresionante care sporesc ingeniozitatea și productivitatea umană. Cu toate acestea, folosiți-vă raționamentul cu rezultate generate de AI și informații de referință încrucișată cu surse de încredere. Îmbrățișați potențialul AI în timp ce rămâneți vigilenți pentru halucinații.