Halluzinationen durch
neuronale Netze

Warum sie auftreten und was man dagegen tun kann

Wie neuronale Netze Fehler machen und warum

Maschinen lösen zwar viele Probleme, aber ihr „Gehirn“ ist noch nicht perfekt. Und Kreativität ist für KI im Allgemeinen unzugänglich. Häufige Halluzinationen künstlicher Intelligenz machen sie nicht zum zuverlässigsten Ersatz für den Menschen. Dies ist besonders gefährlich in Bereichen, in denen die Sicherheit von Leben und Gesundheit der Menschen gewährleistet ist.
Opazität der Ergebnisse
Es lässt sich nie erklären, auf welcher Grundlage ein neuronales Netzwerk ein bestimmtes Ergebnis hervorgebracht hat. Obwohl die Funktionsprinzipien bekannt sind, bleibt der „Denkprozess“ ein dunkler Wald. Sie zeigen beispielsweise einem neuronalen Netzwerk das Bild eines Autos und es antwortet, dass es sich um eine Blume handelt. Es ist sinnlos zu fragen, warum das Ergebnis so ist, wie es ist.

Wenn dieser Fehler für den Durchschnittsbenutzer nur ein lustiger Fall ist, kann die Unvorhersehbarkeit für Geschäftsprozesse zu unangenehmen Folgen führen.
Eine solche Undurchsichtigkeit wird ein Problem für jedes Unternehmen sein, das offen mit Kunden kommunizieren möchte: Erläutern Sie die Gründe für Ablehnungen und andere Unternehmensmaßnahmen. Gefährdet sind soziale Netzwerke und verschiedene Plattformen, die die Moderation nur KI anvertrauen.

Beispielsweise hat YouTube die Mängel bei der KI-Moderation gemeldet. Während der Pandemie übertrieben neuronale Netze es so sehr, dass sie doppelt so viele Videos wie üblich (elf Millionen) wegen fehlerhaften Inhalts entfernten, von denen 320.000 angefochten und zurückgegeben wurden. Daher kommt die digitale Welt vorerst nicht ohne Menschen aus.

Der Bedarf an großen Datenmengen
Neuronale Netze sind sehr „gefräßig“ und benötigen für ihr Training eine große Menge an Informationen, manchmal sogar persönliche Informationen. Das Sammeln und Speichern von Daten ist nicht die einfachste, billigste oder schnellste Aufgabe. Wenn nicht genügend Informationen zum Lernen vorhanden sind, beginnt das neuronale Netzwerk, Fehler zu machen.

Im Jahr 2022 wurden Autofahrer mit Rechtslenkung aufgrund von KI mit Bußgeldern belegt . Das neuronale Netzwerk verstand einfach nicht den Unterschied zwischen einer Person auf einem Sitz und einer, die nur sitzt. Für das Nichtanlegen des Sicherheitsgurts wurden Geldstrafen verhängt. Die Entwickler äußerten sich zu diesem Problem gerade wegen unzureichender Daten: KIs müssen viele rechtsgelenkte Autos gezeigt werden, damit er keine Fehler macht. Dies ist jedoch keine Garantie für die Genauigkeit, da die KI durch Lichter und Blendungen auf den Kameras verwirrt werden kann.

Manchmal sind diese Fälle sogar komisch. Beispielsweise erkannte der Autopilot von Tesla einen in unserer Zeit seltenen Fahrzeugtyp nicht – einen Karren mit einem Pferd auf der Straße. Und manchmal machen Ihnen Störungen im neuronalen Netzwerk Angst. Eines Tages sah derselbe Tesla einen Mann vor sich auf einem leeren Friedhof, was den Fahrer erschreckte.

Es gibt keine klaren Antworten
Neuronale Netze können manchmal ein Problem nicht bewältigen, das ein fünfjähriges Kind lösen würde, wenn man ihm einen Kreis und ein Quadrat zeigen und fragen würde, was was ist. Das Kind antwortet genau, wo sich das Quadrat und wo der Kreis befindet. Das Neuron sagt, dass es sich zu 95 % um einen Kreis und zu 5 % um ein Quadrat handelt.

Systemkomplexität
Wie jedes komplexe System ist das Neuron nicht perfekt. Sie lernt schnell, kann riesige Datenmengen verarbeiten, verfügt aber nicht über ein vollständiges Analog zum menschlichen kritischen Denken. Obwohl das neuronale Netzwerk in der Lage ist, Informationen zu hinterfragen und ihre Fehler zu verstehen, „glaubt“ es manchmal einfach an die falschen Dinge, verwechselt die Fakten und beginnt, seine eigenen zu „erfinden“. Vor allem, wenn die Ausgangsinformationen aus unzuverlässigen Quellen stammen.

Die Komplexität neuronaler Netze und ihr Wunsch, menschliche Intelligenz zu simulieren, beunruhigen die Gesellschaft. Im März 2023 veröffentlichte der Gründer von Tesla und SpaceX, Elon Musk, einen Brief , in dem er darum bat, das Training neuronaler Systeme, die komplexer als die GPT-4-Version sind, für sechs Monate einzustellen. 1.000 Spezialisten, Pinterest-Gründer Evan Sharp und Apple-Mitbegründer Steve Wozniak haben unter dieser Erklärung ihre Unterschriften hinterlassen. Mittlerweile gibt es mehr als 3.000.000 Unterschriften.

Oberflächliche Bewertung von Informationen
Beim Schreiben von Texten denkt das neuronale Netzwerk nicht wie ein Mensch im übertragenen Sinne, sondern nutzt lediglich Statistiken über die Verwendung von Wörtern und Phrasen. Dann scheint das System die Fortsetzung vorherzusagen. Sie weiß nicht, wie man eine tiefgreifende Analyse durchführt und im Text nach Ursache-Wirkungs-Beziehungen sucht.

Nichteindeutigkeit des Ergebnisses
Obwohl das neuronale Netzwerk anhand vieler Beispiele neue Inhalte generieren muss, produziert KI manchmal einfach ein leicht verändertes Bild , mit dem er trainiert wurde. Mit einer solchen Halluzination können personenbezogene Daten von Benutzern an Unbefugte gelangen. Die wahrscheinliche Ursache für diesen Fehler ist die Wiederholung einiger Bilder in den Trainingsdaten.

Das neuronale Netzwerk versteht die menschliche Anatomie nicht
In Bildern, die von unterschiedlichen neuronalen Netzen erzeugt werden, erscheinen oft zusätzliche oder schiefe Finger, zusätzliche Arme, Beine oder fehlende Teile davon, Zähne, Zunge und Augen haben eine seltsame Form.
Besonders schwierig ist es für Neuronen mit Fingern, die eher Tierpfoten ähneln. Oft macht das neuronale Netzwerk Fehler bei der Anzahl. Dies erklärt sich dadurch, dass sie Bilder von Menschen verarbeitet und diese aus verschiedenen Blickwinkeln betrachtet, aber nicht versteht, Details (Finger, Augen, Zähne usw.) anatomisch richtig zu platzieren, weshalb Bilder wie dieses entstehen.


Hier zeichnete das neuronale Netzwerk auf Wunsch von Rittern, die keine Augen, nicht genügend Hände und einige nicht einmal Füße hatten
Rechte Hand - linke Hand vertauscht
Auf diesem Foto ist auf den ersten Blick alles in Ordnung, aber schauen Sie sich die Hände an
Neuronale Netze spielen einfach verrückt
Amerikanische Forscher haben herausgefunden, dass einige neuronale Netze (wie ChatGPT, Midjourney) nach fünf Trainingszyklen stark zu halluzinieren beginnen . Es gibt sogar einen Begriff dafür: Model Autophagy Disorder (MAD), bei dem die Leistung mit jedem neuen Zyklus wiederholten Trainings abnimmt.

Manchmal werden neuronale Netze unvorhersehbar. Wenn man beispielsweise darum bittet, einen Text zu übersetzen, treten ChatGPT-Halluzinationen auf: Zuerst wird der Befehl ausgeführt. Und dann beginnt sie, den Text zu Ende zu schreiben, obwohl sie nicht dazu aufgefordert wurde.

Wie man Halluzinationen neuronaler Netze vermeidet
Entwickler neuronaler Netze sind sich ihrer Probleme bewusst und suchen nach Lösungen. Deshalb schlug OpenAI einen neuen Weg zur Bekämpfung von Halluzinationen vor. Die KI erhält von Natur aus Belohnungen für richtige Antworten und nicht nur für jede endgültige Antwort. Dann kann das Neuron die Fakten besser überprüfen. Aber das Problem wird höchstwahrscheinlich noch lange relevant bleiben, da die Forschung noch nicht abgeschlossen ist.

Gleichzeitig nutzen Menschen weiterhin neuronale Netze und stoßen auf Schwierigkeiten. Obwohl der durchschnittliche Benutzer keinen Zugang zum Code hat, verbessern einige seiner Aktionen die Ergebnisse der KI.

So nutzen Sie ein neuronales Netzwerk, um weniger Halluzinationen zu erzeugen:
1. Lernen Sie, Ihre Wünsche zu spezifizieren. Trotz der fortgeschrittenen Natur des Systems ist es weit davon entfernt, die Kommunikation von Mensch zu Mensch zu verstehen. Versuchen Sie daher, die Aufgaben nicht zu abstrakt zu stellen und konkret zu formulieren, was Sie wollen. Nicht so: „Schreiben Sie einen Text über Mode 2023.“ Besser so zu formulieren: „Schreiben Sie einen Text über Bekleidungstrends für die Frühjahr-Herbst-Saison 2023.“

2. Geben Sie weitere Informationen. Das neuronale Netzwerk verfügt über eine riesige Bandbreite an Informationen, die es zuvor „gefressen“ hat. Und ohne Kontext ist es nicht einfach, herauszufinden, was Sie wollen und das richtige Ergebnis zu erzielen. Bitte erläutern Sie daher Ihr Anliegen. Wenn Sie beispielsweise einen Text über den Helden Joker in einem Film über Batman erwarten, geben Sie an, dass Sie „The Dark Knight“ von 2008 meinen.

3. Führen Sie eine Faktenprüfung durch. Überprüfen Sie die vom neuronalen Netzwerk bereitgestellten Informationen. Weisen Sie sie auf den Fehler hin, wenn etwas nicht stimmt.

Zusammenfassung
Obwohl die Welt stark auf neuronale Netze setzt, sind sie noch lange nicht perfekt. KI machen oft Fehler: Sie geben falsche Informationen aus, erzeugen seltsame Bilder, identifizieren Objekte falsch und so weiter. KI wird manchmal auch vorgeworfen, Inhalte zu diskriminieren und zu produzieren, die nicht von Grund auf neu, sondern leicht verändert sind. Das heißt, sie können ohne menschliche Aufsicht und Anpassungen nicht existieren.

Halluzinationen neuronaler Netze entstehen aufgrund der Komplexität des Systems, der großen Datenmengen, die verarbeitet werden müssen (und auch aufgrund ihrer Unzulänglichkeit). Die Gründe für Entscheidungen sind unklar, es wird nicht immer eine eindeutige Antwort gegeben, sondern eine probabilistische. Darüber hinaus sind neuronale Netze anfällig für Hackerangriffe und geraten manchmal aufgrund häufiger Umschulungen außer Kontrolle.

Versuchen Sie, eine klare Anfrage an KI zu stellen, Kontext hinzuzufügen und achten Sie darauf, die Ergebnisse auf Richtigkeit zu überprüfen.


Möchten Sie mehr darüber erfahren, wie ChatGPT und andere KI-Technologien in verschiedenen Geschäftsbereichen eingesetzt werden können? Bleiben Sie dran, um weitere aufschlussreiche Beiträge zu lesen!
Jetzt anmelden und von exklusivem Know-how profitieren
Bleibe auf dem Laufenden und erhalte regelmäßig wertvolle Tipps und Ressourcen, indem du dich jetzt für unseren Newsletter anmeldest!
Mit dem Absenden dieses Formulars erkläre ich mich damit einverstanden, dass die in diesem Formular eingegebenen Daten genutzt und verarbeitet werden, um mich im Rahmen meiner Informationsanfrage per E-Mail zu kontaktieren.