Opazität der Ergebnisse
Es lässt sich nie erklären, auf welcher Grundlage ein neuronales Netzwerk ein bestimmtes Ergebnis hervorgebracht hat. Obwohl die Funktionsprinzipien bekannt sind, bleibt der „Denkprozess“ ein dunkler Wald. Sie zeigen beispielsweise einem neuronalen Netzwerk das Bild eines Autos und es antwortet, dass es sich um eine Blume handelt. Es ist sinnlos zu fragen, warum das Ergebnis so ist, wie es ist.
Wenn dieser Fehler für den Durchschnittsbenutzer nur ein lustiger Fall ist, kann die Unvorhersehbarkeit für Geschäftsprozesse zu unangenehmen Folgen führen.
Eine solche Undurchsichtigkeit wird ein Problem für jedes Unternehmen sein, das offen mit Kunden kommunizieren möchte: Erläutern Sie die Gründe für Ablehnungen und andere Unternehmensmaßnahmen. Gefährdet sind soziale Netzwerke und verschiedene Plattformen, die die Moderation nur KI anvertrauen.
Beispielsweise hat YouTube die Mängel bei der KI-Moderation gemeldet. Während der Pandemie übertrieben neuronale Netze es so sehr, dass sie doppelt so viele Videos wie üblich (elf Millionen) wegen fehlerhaften Inhalts entfernten, von denen 320.000 angefochten und zurückgegeben wurden. Daher kommt die digitale Welt vorerst nicht ohne Menschen aus.
Der Bedarf an großen Datenmengen
Neuronale Netze sind sehr „gefräßig“ und benötigen für ihr Training eine große Menge an Informationen, manchmal sogar persönliche Informationen. Das Sammeln und Speichern von Daten ist nicht die einfachste, billigste oder schnellste Aufgabe. Wenn nicht genügend Informationen zum Lernen vorhanden sind, beginnt das neuronale Netzwerk, Fehler zu machen.
Im Jahr 2022 wurden Autofahrer mit Rechtslenkung aufgrund von KI mit Bußgeldern belegt . Das neuronale Netzwerk verstand einfach nicht den Unterschied zwischen einer Person auf einem Sitz und einer, die nur sitzt. Für das Nichtanlegen des Sicherheitsgurts wurden Geldstrafen verhängt. Die Entwickler äußerten sich zu diesem Problem gerade wegen unzureichender Daten: KIs müssen viele rechtsgelenkte Autos gezeigt werden, damit er keine Fehler macht. Dies ist jedoch keine Garantie für die Genauigkeit, da die KI durch Lichter und Blendungen auf den Kameras verwirrt werden kann.
Manchmal sind diese Fälle sogar komisch. Beispielsweise erkannte der Autopilot von Tesla einen in unserer Zeit seltenen Fahrzeugtyp nicht – einen Karren mit einem Pferd auf der Straße. Und manchmal machen Ihnen Störungen im neuronalen Netzwerk Angst. Eines Tages sah derselbe Tesla einen Mann vor sich auf einem leeren Friedhof, was den Fahrer erschreckte.
Es gibt keine klaren Antworten
Neuronale Netze können manchmal ein Problem nicht bewältigen, das ein fünfjähriges Kind lösen würde, wenn man ihm einen Kreis und ein Quadrat zeigen und fragen würde, was was ist. Das Kind antwortet genau, wo sich das Quadrat und wo der Kreis befindet. Das Neuron sagt, dass es sich zu 95 % um einen Kreis und zu 5 % um ein Quadrat handelt.
Systemkomplexität
Wie jedes komplexe System ist das Neuron nicht perfekt. Sie lernt schnell, kann riesige Datenmengen verarbeiten, verfügt aber nicht über ein vollständiges Analog zum menschlichen kritischen Denken. Obwohl das neuronale Netzwerk in der Lage ist, Informationen zu hinterfragen und ihre Fehler zu verstehen, „glaubt“ es manchmal einfach an die falschen Dinge, verwechselt die Fakten und beginnt, seine eigenen zu „erfinden“. Vor allem, wenn die Ausgangsinformationen aus unzuverlässigen Quellen stammen.
Die Komplexität neuronaler Netze und ihr Wunsch, menschliche Intelligenz zu simulieren, beunruhigen die Gesellschaft. Im März 2023 veröffentlichte der Gründer von Tesla und SpaceX, Elon Musk, einen Brief , in dem er darum bat, das Training neuronaler Systeme, die komplexer als die GPT-4-Version sind, für sechs Monate einzustellen. 1.000 Spezialisten, Pinterest-Gründer Evan Sharp und Apple-Mitbegründer Steve Wozniak haben unter dieser Erklärung ihre Unterschriften hinterlassen. Mittlerweile gibt es mehr als 3.000.000 Unterschriften.
Oberflächliche Bewertung von Informationen
Beim Schreiben von Texten denkt das neuronale Netzwerk nicht wie ein Mensch im übertragenen Sinne, sondern nutzt lediglich Statistiken über die Verwendung von Wörtern und Phrasen. Dann scheint das System die Fortsetzung vorherzusagen. Sie weiß nicht, wie man eine tiefgreifende Analyse durchführt und im Text nach Ursache-Wirkungs-Beziehungen sucht.
Nichteindeutigkeit des Ergebnisses
Obwohl das neuronale Netzwerk anhand vieler Beispiele neue Inhalte generieren muss, produziert KI manchmal einfach ein leicht verändertes Bild , mit dem er trainiert wurde. Mit einer solchen Halluzination können personenbezogene Daten von Benutzern an Unbefugte gelangen. Die wahrscheinliche Ursache für diesen Fehler ist die Wiederholung einiger Bilder in den Trainingsdaten.
Das neuronale Netzwerk versteht die menschliche Anatomie nicht
In Bildern, die von unterschiedlichen neuronalen Netzen erzeugt werden, erscheinen oft zusätzliche oder schiefe Finger, zusätzliche Arme, Beine oder fehlende Teile davon, Zähne, Zunge und Augen haben eine seltsame Form.
Besonders schwierig ist es für Neuronen mit Fingern, die eher Tierpfoten ähneln. Oft macht das neuronale Netzwerk Fehler bei der Anzahl. Dies erklärt sich dadurch, dass sie Bilder von Menschen verarbeitet und diese aus verschiedenen Blickwinkeln betrachtet, aber nicht versteht, Details (Finger, Augen, Zähne usw.) anatomisch richtig zu platzieren, weshalb Bilder wie dieses entstehen.