KI-Halluzinationen: Was sie sind und warum sie passieren

Veröffentlicht: 2024-06-27

Was sind KI-Halluzinationen?

KI-Halluzinationen treten auf, wenn KI-Tools falsche Informationen generieren und dabei selbstbewusst wirken. Diese Fehler können von geringfügigen Ungenauigkeiten wie der falschen Angabe eines historischen Datums bis hin zu ernsthaft irreführenden Informationen wie der Empfehlung veralteter oder gesundheitsschädlicher Heilmittel reichen. KI-Halluzinationen können in Systemen auftreten, die auf großen Sprachmodellen (LLMs) und anderen KI-Technologien basieren, einschließlich Bilderzeugungssystemen.

Beispielsweise könnte ein KI-Tool fälschlicherweise angeben, dass der Eiffelturm 335 Meter hoch ist, statt seiner tatsächlichen Höhe von 330 Metern. Während ein solcher Fehler in lockeren Gesprächen möglicherweise keine Rolle spielt, sind genaue Messungen in Situationen, in denen viel auf dem Spiel steht, wie etwa bei der Erteilung medizinischer Beratung, von entscheidender Bedeutung.

Um Halluzinationen in der KI zu reduzieren, verwenden Entwickler zwei Haupttechniken: Training mit kontradiktorischen Beispielen, das die Modelle stärkt, und Feinabstimmung mit Metriken, die Fehler bestrafen. Das Verständnis dieser Methoden hilft Benutzern, KI-Tools effektiver zu nutzen und die von ihnen produzierten Informationen kritisch zu bewerten.

Arbeiten Sie intelligenter mit Grammarly
Der KI-Schreibpartner für alle, die viel zu tun haben

Beispiele für KI-Halluzinationen

Bei früheren Generationen von KI-Modellen kam es häufiger zu Halluzinationen als bei aktuellen Systemen. Zu den bemerkenswerten Vorfällen gehören Microsofts KI-Bot Sydney, der dem Tech-Reporter Kevin Roose erzählt, dass er „in ihn verliebt war“, und Googles KI-Bildgenerator Gemini, der historisch ungenaue Bilder produziert.

Die heutigen KI-Tools haben sich jedoch verbessert, obwohl es immer noch zu Halluzinationen kommt. Hier sind einige häufige Arten von KI-Halluzinationen:

  • Historische Tatsache: Ein KI-Tool könnte angeben, dass die erste Mondlandung im Jahr 1968 stattfand, während sie tatsächlich im Jahr 1969 stattfand. Solche Ungenauigkeiten können zu falschen Darstellungen bedeutender Ereignisse in der Geschichte der Menschheit führen.
  • Geografischer Fehler: Eine KI könnte Toronto fälschlicherweise als die Hauptstadt Kanadas bezeichnen, obwohl die eigentliche Hauptstadt Ottawa ist.Diese Fehlinformationen könnten Studenten und Reisende, die etwas über die Geographie Kanadas erfahren möchten, verwirren.
  • Finanzdaten: Ein KI-Modell könnte Finanzkennzahlen halluzinieren, beispielsweise behaupten, der Aktienkurs eines Unternehmens sei an einem Tag um 30 Prozent gestiegen, obwohl die Veränderung in Wirklichkeit viel geringer ausfiel.Sich allein auf eine fehlerhafte Finanzberatung zu verlassen, könnte zu schlechten Anlageentscheidungen führen.
  • Rechtliche Hinweise: Ein KI-Modell könnte Benutzer falsch darüber informieren, dass mündliche Vereinbarungen in allen Kontexten genauso rechtsverbindlich seien wie schriftliche Verträge.Dabei wird außer Acht gelassen, dass bestimmte Transaktionen (z. B. Immobilientransaktionen) für ihre Gültigkeit und Durchsetzbarkeit schriftliche Verträge erfordern.
  • Fehlinformationen über wissenschaftliche Forschung: Ein KI-Tool könnte eine Studie zitieren, die angeblich einen wissenschaftlichen Durchbruch bestätigt, wenn es keine solche Studie gibt.Diese Art von Halluzination kann Forscher und die Öffentlichkeit über bedeutende wissenschaftliche Errungenschaften irreführen.

Warum kommt es zu KI-Halluzinationen?

Um zu verstehen, warum Halluzinationen bei KI auftreten, ist es wichtig, die grundlegende Funktionsweise von LLMs zu erkennen. Diese Modelle basieren auf einer sogenannten Transformatorarchitektur, die Text (oder Token) verarbeitet und den nächsten Token in einer Sequenz vorhersagt. Im Gegensatz zu menschlichen Gehirnen verfügen sie nicht über ein „Weltmodell“, das von Natur aus Geschichte, Physik oder andere Fächer versteht.

Eine KI-Halluzination tritt auf, wenn das Modell eine Antwort generiert, die ungenau, aber statistisch gesehen sachlich korrekten Daten ähnelt. Dies bedeutet, dass die Antwort zwar falsch ist, aber eine semantische oder strukturelle Ähnlichkeit mit dem aufweist, was das Modell als wahrscheinlich vorhersagt.

Weitere Gründe für AI-Halluzinationen sind:

Unvollständige Trainingsdaten

KI-Modelle hängen stark von der Breite und Qualität der Daten ab, auf denen sie trainiert werden. Wenn die Trainingsdaten unvollständig sind oder es ihnen an Vielfalt mangelt, schränkt dies die Fähigkeit des Modells ein, genaue und abgerundete Antworten zu generieren. Diese Modelle lernen durch Beispiele, und wenn ihre Beispiele nicht ein ausreichend breites Spektrum an Szenarien, Perspektiven und Kontrafakten abdecken, können ihre Ergebnisse diese Lücken widerspiegeln.

Diese Einschränkung äußert sich häufig in Halluzinationen, da ein KI-Modell fehlende Informationen möglicherweise durch plausible, aber falsche Details ergänzt. Wenn eine KI beispielsweise überwiegend Daten aus einer geografischen Region ausgesetzt war – beispielsweise einem Ort mit zahlreichen öffentlichen Verkehrsmitteln –, könnte sie Reaktionen erzeugen, die davon ausgehen, dass diese Merkmale global sind, obwohl dies nicht der Fall ist. Die KI ist nicht in der Lage, zu erkennen, dass sie sich über die Grenzen dessen hinauswagt, worauf sie trainiert wurde. Daher könnte das Modell sichere Behauptungen aufstellen, die unbegründet oder voreingenommen sind.

Verzerrung in den Trainingsdaten

Die Verzerrung der Trainingsdaten hängt mit der Vollständigkeit zusammen, ist aber nicht dasselbe. Während sich unvollständige Daten auf Lücken in den der KI bereitgestellten Informationen beziehen, bedeuten verzerrte Daten, dass die verfügbaren Informationen in irgendeiner Weise verzerrt sind. Dies ist bis zu einem gewissen Grad unvermeidlich, da diese Modelle größtenteils im Internet trainiert werden und das Internet inhärente Vorurteile aufweist. Beispielsweise sind viele Länder und Bevölkerungsgruppen online unterrepräsentiert – fast 3 Milliarden Menschen weltweit haben immer noch keinen Internetzugang. Dies bedeutet, dass die Trainingsdaten die Perspektiven, Sprachen und kulturellen Normen dieser Offline-Gemeinschaften möglicherweise nicht angemessen widerspiegeln.

Selbst innerhalb der Online-Bevölkerung gibt es Unterschiede darin, wer Inhalte erstellt und teilt, welche Themen diskutiert werden und wie diese Informationen präsentiert werden. Diese Datenverzerrungen können dazu führen, dass KI-Modelle lernen und Verzerrungen in ihren Ergebnissen aufrechterhalten. Ein gewisses Maß an Verzerrung ist unvermeidlich, das Ausmaß und die Auswirkungen der Datenverzerrung können jedoch erheblich variieren. Das Ziel für KI-Entwickler besteht also darin, sich dieser Vorurteile bewusst zu sein, daran zu arbeiten, sie nach Möglichkeit zu entschärfen, und zu beurteilen, ob der Datensatz für den beabsichtigten Anwendungsfall geeignet ist.

Mangel an expliziter Wissensrepräsentation

KI-Modelle lernen durch statistischen Mustervergleich, verfügen jedoch nicht über eine strukturierte Darstellung von Fakten und Konzepten. Selbst wenn sie sachliche Aussagen machen, „wissen“ sie nicht, dass diese wahr sind, weil sie keinen Mechanismus haben, um zu verfolgen, was wahr ist und was nicht.

Das Fehlen eines eindeutigen Faktenrahmens bedeutet, dass LLMs zwar äußerst zuverlässige Informationen liefern können, sich aber dadurch auszeichnen, dass sie die menschliche Sprache nachahmen, ohne über das echte Verständnis oder die Überprüfung von Fakten zu verfügen, über die Menschen verfügen. Diese grundlegende Einschränkung ist ein wesentlicher Unterschied zwischen KI und menschlicher Kognition. Während sich die KI weiterentwickelt, bleibt die Bewältigung dieser Herausforderung für Entwickler von entscheidender Bedeutung, um die Vertrauenswürdigkeit von KI-Systemen zu erhöhen.

Mangelndes Kontextverständnis

Der Kontext ist in der menschlichen Kommunikation von entscheidender Bedeutung, aber KI-Modelle haben oft damit zu kämpfen. Wenn sie in natürlicher Sprache dazu aufgefordert werden, können ihre Antworten übermäßig wörtlich oder berührungslos sein, weil ihnen das tiefere Verständnis fehlt, das Menschen aus dem Kontext ziehen – unser Wissen über die Welt, unsere gelebten Erfahrungen, die Fähigkeit, zwischen den Zeilen zu lesen und unausgesprochene Annahmen zu verstehen.

Im vergangenen Jahr haben sich KI-Modelle beim Verständnis des menschlichen Kontexts verbessert, sie haben jedoch immer noch Probleme mit Elementen wie emotionalem Subtext, Sarkasmus, Ironie und kulturellen Bezügen. Slang- oder umgangssprachliche Ausdrücke, deren Bedeutung sich weiterentwickelt hat, können von einem KI-Modell, das nicht kürzlich aktualisiert wurde, falsch interpretiert werden. Bis KI-Modelle das komplexe Geflecht menschlicher Erfahrungen und Emotionen interpretieren können, werden Halluzinationen eine große Herausforderung bleiben.

Wie oft halluzinieren KI-Chatbots?

Es ist schwierig, die genaue Häufigkeit von KI-Halluzinationen zu bestimmen. Die Rate variiert stark je nach Modell oder Kontext, in dem die KI-Tools verwendet werden. Eine Schätzung von Vectara, einem KI-Startup, geht davon aus, dass Chatbots zwischen 3 und 27 Prozent der Zeit halluzinieren. Dies geht aus der öffentlichen Halluzinations-Rangliste von Vectara auf GitHub hervor, die die Häufigkeit von Halluzinationen bei beliebten Chatbots beim Zusammenfassen von Dokumenten verfolgt.

Technologieunternehmen haben in ihren Chatbots Haftungsausschlüsse implementiert, die Menschen vor möglichen Ungenauigkeiten und der Notwendigkeit einer zusätzlichen Überprüfung warnen. Die Entwickler arbeiten aktiv an der Weiterentwicklung der Modelle und wir haben im letzten Jahr bereits Fortschritte gesehen. OpenAI stellt beispielsweise fest, dass GPT-4 mit einer um 40 Prozent höheren Wahrscheinlichkeit sachliche Antworten liefert als sein Vorgänger.

So verhindern Sie KI-Halluzinationen

Obwohl es unmöglich ist, KI-Halluzinationen vollständig auszurotten, können verschiedene Strategien ihr Auftreten und ihre Auswirkungen reduzieren. Einige dieser Methoden sind eher auf Forscher und Entwickler anwendbar, die an der Verbesserung von KI-Modellen arbeiten, während andere sich auf alltägliche Menschen beziehen, die KI-Tools verwenden.

Verbessern Sie die Qualität der Trainingsdaten

Die Sicherstellung hochwertiger und vielfältiger Daten ist von entscheidender Bedeutung, wenn es darum geht, KI-Halluzinationen zu verhindern. Wenn die Trainingsdaten unvollständig oder verzerrt sind oder es ihnen an ausreichender Vielfalt mangelt, wird das Modell Schwierigkeiten haben, genaue Ergebnisse zu generieren, wenn es mit neuartigen oder Randfällen konfrontiert wird. Forscher und Entwickler sollten danach streben, umfassende und repräsentative Datensätze zu kuratieren, die verschiedene Perspektiven abdecken.

Begrenzen Sie die Anzahl der Ergebnisse

In einigen Fällen treten KI-Halluzinationen auf, wenn Modelle eine große Anzahl von Antworten generieren. Wenn Sie das Modell beispielsweise nach 20 Beispielen für Aufforderungen zum kreativen Schreiben fragen, stellen Sie möglicherweise fest, dass die Qualität des Ergebnisses gegen Ende des Satzes abnimmt. Um dem entgegenzuwirken, können Sie die Ergebnismenge auf eine kleinere Anzahl beschränken und das KI-Tool anweisen, sich auf die vielversprechendsten und kohärentesten Antworten zu konzentrieren, wodurch die Wahrscheinlichkeit verringert wird, dass es mit weit hergeholten oder inkonsistenten Ergebnissen reagiert.

Testen und Validieren

Sowohl Entwickler als auch Benutzer müssen KI-Tools testen und validieren, um die Zuverlässigkeit sicherzustellen. Entwickler müssen die Ergebnisse des Modells systematisch anhand bekannter Wahrheiten, Expertenurteile und Bewertungsheuristiken bewerten, um Halluzinationsmuster zu identifizieren. Nicht alle Halluzinationen sind gleich; Eine vollständige Erfindung unterscheidet sich von einer Fehlinterpretation aufgrund eines fehlenden Kontexthinweises.

Benutzer sollten die Leistung des Tools für bestimmte Zwecke validieren, bevor sie seinen Ausgaben vertrauen. KI-Tools zeichnen sich durch Aufgaben wie Textzusammenfassung, Textgenerierung und Codierung aus, sind aber nicht in allen Bereichen perfekt. Durch die Bereitstellung von Beispielen für gewünschte und unerwünschte Ergebnisse während des Tests kann die KI Ihre Präferenzen lernen. Wenn Sie Zeit in Tests und Validierung investieren, können Sie das Risiko von KI-Halluzinationen in Ihrer Anwendung erheblich reduzieren.

Stellen Sie Vorlagen für strukturierte Ausgaben bereit

Sie können Datenvorlagen bereitstellen, die KI-Modellen das genaue Format oder die Struktur mitteilen, in der die Informationen dargestellt werden sollen. Indem Sie genau festlegen, wie Ergebnisse organisiert werden sollen und welche Schlüsselelemente enthalten sein sollen, können Sie das KI-System anleiten, gezieltere und relevantere Antworten zu generieren. Wenn Sie beispielsweise ein KI-Tool verwenden, um Amazon-Produkte zu bewerten, kopieren Sie einfach den gesamten Text von einer Produktseite und weisen Sie dann das KI-Tool an, das Produkt mithilfe der folgenden Beispielvorlage zu kategorisieren:

Eingabeaufforderung:Analysieren Sie den bereitgestellten Text auf der Amazon-Produktseite und füllen Sie die unten stehende Vorlage aus.Extrahieren Sie relevante Details, halten Sie die Informationen prägnant und präzise und konzentrieren Sie sich auf die wichtigsten Aspekte.Wenn Informationen fehlen, schreiben Sie „N/A“. Fügen Sie keine Informationen hinzu, auf die im Text nicht direkt Bezug genommen wird.

  • Produktname: [KI-abgeleiteter Produktname hier]
  • Produktkategorie: [KI-abgeleitete Produktkategorie hier]
  • Preisspanne: [KI-abgeleiteter Preis hier] [US-Dollar]
  • Hauptmerkmale: [kurze Beschreibungen hier]
  • Vorteile [Top 3 in den Aufzählungspunkten]
  • Nachteile [Top 3 in den Aufzählungspunkten]
  • Gesamtbewertung: [Rang auf einer Skala von 1–5]
  • Produktzusammenfassung: [maximal 2–3 Sätze]

Es ist viel weniger wahrscheinlich, dass die resultierende Ausgabe fehlerhafte Ausgaben und Informationen enthält, die nicht den von Ihnen angegebenen Spezifikationen entsprechen.

Gehen Sie verantwortungsvoll mit KI-Tools um

Während die oben genannten Strategien dazu beitragen können, KI-Halluzinationen auf systemischer Ebene zu verhindern, können einzelne Benutzer lernen, KI-Tools verantwortungsvoller einzusetzen. Diese Praktiken verhindern möglicherweise nicht Halluzinationen, können aber Ihre Chancen verbessern, zuverlässige und genaue Informationen von KI-Systemen zu erhalten.

  • Vergleichen Sie Ergebnisse mit Querverweisen und diversifizieren Sie Ihre Quellen: Verlassen Sie sich für wichtige Informationen nicht ausschließlich auf ein einziges KI-Tool.Vergleichen Sie die Ergebnisse mit anderen seriösen Quellen wie etablierten Nachrichtenorganisationen, wissenschaftlichen Publikationen, vertrauenswürdigen menschlichen Experten und Regierungsberichten, um die Richtigkeit und Vollständigkeit der Informationen zu überprüfen.
  • Nutzen Sie Ihr Urteilsvermögen: Erkennen Sie, dass KI-Tools, selbst die fortschrittlichsten, Einschränkungen haben und fehleranfällig sind.Vertrauen Sie ihren Ausgaben nicht automatisch. Gehen Sie kritisch mit ihnen um und nutzen Sie Ihr eigenes Urteilsvermögen, wenn Sie Entscheidungen auf der Grundlage von KI-generierten Informationen treffen.
  • Nutzen Sie KI als Ausgangspunkt: Behandeln Sie die von KI-Tools generierten Ergebnisse als Ausgangspunkt für weitere Forschung und Analyse und nicht als endgültige Antworten.Nutzen Sie KI, um Ideen zu erforschen, Hypothesen zu generieren und relevante Informationen zu identifizieren, aber validieren und erweitern Sie die gewonnenen Erkenntnisse stets durch menschliches Fachwissen und zusätzliche Forschung.

Abschluss

KI-Halluzinationen entstehen durch die aktuellen Einschränkungen von LLM-Systemen, die von geringfügigen Ungenauigkeiten bis hin zu kompletten Erfindungen reichen. Diese sind auf unvollständige oder verzerrte Trainingsdaten, begrenztes Kontextverständnis und mangelndes explizites Wissen zurückzuführen.

Auch wenn sie eine Herausforderung darstellt, bleibt die KI-Technologie leistungsstark und wird kontinuierlich verbessert. Forscher arbeiten daran, Halluzinationen zu reduzieren, und es wurden erhebliche Fortschritte erzielt. Sie können Halluzinationen begrenzen, indem Sie strukturierte Vorlagen bereitstellen, die Ausgabe einschränken und das Modell für Ihren Anwendungsfall validieren.

Entdecken Sie KI-Tools aufgeschlossen. Sie bieten beeindruckende Fähigkeiten, die den menschlichen Einfallsreichtum und die Produktivität steigern. Nutzen Sie jedoch Ihr Urteilsvermögen mit KI-generierten Ergebnissen und vergleichen Sie Informationen mit zuverlässigen Quellen. Nutzen Sie das Potenzial der KI und achten Sie gleichzeitig auf Halluzinationen.