Generative Künstliche Intelligenz hat ein Zuverlässigkeitsproblem. Wie Anleger Vertrauen in Portfolios gewinnen können, die diese Technologie nutzen.
Während die Generative Künstliche Intelligenz (GKI) immer beliebter wird, bleibt die Tendenz der Technologie, Antworten zu fingieren, ein großes Manko. Wir glauben, dass spezialisierte Modelle entwickelt werden können, um Halluzinationen zu reduzieren und die Genauigkeit und Effizienz der Künstlichen Intelligenz für den Einsatz in Anlageanwendungen zu verbessern.
Wenn Sie im letzten Jahr mit ChatGPT oder GKI-gesteuerten Anwendungen experimentiert haben, waren Sie wahrscheinlich erstaunt und auch skeptisch. Die Technologie hat uns mit ihrer Fähigkeit verblüfft, intelligente Zusammenfassungen zu schreiben, Gedichte zu verfassen, Witze zu erzählen und Fragen zu einer Reihe von Themen in bemerkenswert gut geschriebener Prosa zu beantworten. Allerdings neigt sie auch dazu, Informationen zu fälschen – je nach Modell in 3 % bis 27 % der Fälle, wie eine Studie des KI-Start-ups Vectara ergab. Während diese Fehlerquote bei Unterhaltungsanwendungen tolerierbar sein mag, müssen die Halluzinationen von Generativer Künstlicher Intelligenz eingedämmt werden, damit Anleger ein hohes Maß an Vertrauen in den Output von Generativer Künstlicher Intelligenz für Portfolios gewinnen können.
Warum halluziniert die Generative Künstliche Intelligenz?
Die Magie der Generativen Künstlichen Intelligenz steckt in großen Sprachmodellen (Large Language Models, LLMs). „Large Language Models“ sind Algorithmen, die auf Deep-Learning-Technologie basieren und Texte und andere Formen von Inhalten erkennen, zusammenfassen, übersetzen, vorhersagen und generieren können. Das Wissen, das diese Modelle antreibt, basiert auf riesigen Datensätzen und den statistischen Wahrscheinlichkeiten des Auftretens von Wörtern und Wortfolgen in einem bestimmten Kontext.
Der Aufbau umfangreicher Modelle ist jedoch mit Kosten verbunden. „Large Language Models“ sind Generalisten, sie werden also auf allgemeinen Daten trainiert, die im Internet zu finden sind, ohne dass die Quelle einer Faktenprüfung unterzogen wird. Diese Modelle können auch versagen, wenn sie mit unbekannten Daten konfrontiert werden, die beim Training nicht berücksichtigt wurden. Und je nachdem, wie der Benutzer das Modell auffordert, kann es Antworten geben, die einfach nicht wahr sind.
Die Beseitigung von Halluzinationen ist ein Hauptanliegen von GKI-Anbietern, die das Vertrauen in die Technologie und deren Kommerzialisierung stärken wollen. Wir glauben, dass der Schlüssel zur Lösung des Problems bei Investmentanwendungen in der Erstellung spezieller Modelle liegt, die das Ergebnis verbessern können. Diese kleineren Modelle sind als Wissensdiagramme (Knowledge Graphs, KGs) bekannt, die auf engeren, definierten Datensätzen aufgebaut sind. „Knowledge Graphs“ verwenden graphenbasierte Technologie – eine Art des maschinellen Lernens, die die Fähigkeit eines Modells verbessert, zuverlässige Beziehungen und Muster zu erfassen.
Spezialisierte Anwendungen sind beständiger
Die Verwendung einer graphenbasierten Modellstruktur und das Training eines KI-Gehirns auf einem kleineren, aber gezielteren Datensatz hilft, die Grenzen der Antworten einzugrenzen. Bei einer Investmentanwendung können „Knowledge Graphs“ ein Modell durch das umfangreiche Wissen des Open-Source-LLM leiten, indem sie beispielsweise die Relevanz verschiedener Begriffe bestimmen, die mit Technologie und Innovation zu tun haben können oder auch nicht (Abbildung). Während sich ein „Large Language Model“ auf die statistische Wahrscheinlichkeit des Auftretens eines Wortes in der Nähe eines anderen Wortes konzentriert, kann ein graphenbasiertes Modell zu einem zunehmend intelligenten Fachexperten werden. Es kann so konzipiert werden, dass es kausale Beziehungen zwischen Konzepten, Wörtern und Sätzen in Bereichen wie Makroökonomie, Technologie, Finanzen und Geopolitik versteht, die sich mit größerer Wahrscheinlichkeit auf die Finanzmärkte und Wertpapiere auswirken.