ChatGPT hat die Welt im Sturm erobert. Noch nie hat eine App so viele User in so kurzer Zeit gewonnen. In diesem Blog betrachten wir den aktuellen Stand der Generative AI, beleuchten deren Herausforderungen und geben einen Ausblick auf die Zukunft.
Es vergeht kaum eine Woche, ohne dass eine neue Ankündigung zu Generative AI veröffentlicht wird. Anfang November hat OpenAI, das Unternehmen hinter ChatGPT, seine neueste Version von ChatGPT veröffentlicht. Mit dem ChatGPT Plus Abonnement ist es nun möglich, seine eigenen Chatbots ohne Programmierkenntnisse aufzusetzen.
Die Infometis hat die Gelegenheit gleich beim Schopf gepackt und einen kleinen Infometis Support GPT erstellt, der Fragen zu TACC & TAMI beantworten kann. Unter folgendem Link kann dieser mit einem ChatGPT Plus Account ausgetestet werden: https://chat.openai.com/g/g-hW9CfmCwf-infometis-support-gpt
Generative AI ist mittlerweile ein fester Bestandteil unseres Alltags. Doch es gibt einige Herausforderungen, zu denen als nicht abschliessende Liste die folgenden gehören:
Halluzinationen von Antworten: Generative AIs tendieren dazu, Antworten zu erfinden, wenn keine genaue Antwort möglich ist.
Transparenz und Vertrauen: Der Prozess, wie Generative AI Antworten generiert, ist oft nicht transparent. Wie können wir der Technologie dann vertrauen?
Urheberrechtliche Probleme: Generiertes Material basiert oft auf urheberrechtlich geschütztem Material, was rechtliche Probleme nach sich ziehen kann.
Hoher Ressourcenbedarf: Die Bereitstellung von Generative AI erfordert viel Rechenleistung und verursacht hohe Hardware- und Stromkosten, was nicht zuletzt auch Auswirkungen auf die Umwelt hat.
Statischer Datenstand: Die Daten, mit denen Generative AI trainiert wird, sind statisch begrenzt. Selbst beim Vorreiter ChatGPT hinkt der Datenstand immer noch mehrere Monate der Gegenwart hinterher.
Meta hat im Jahr 2020 ein Research Paper zu Retrieval Augmented Generation (RAG) veröffentlicht. Seitdem erfährt dieser Ansatz immer mehr Verbreitung. Er stellt eine innovative und pragmatische Lösung für die aktuellen Herausforderungen der Generative AI dar. RAG verbindet Information Retrieval mit Generative AI, um präzisere und fundiertere Antworten zu generieren. Durch das Einbeziehen aktueller Informationen aus vordefinierten Quellen können GenAI-Modelle 'halluzinierende' Antworten reduzieren. RAG verbessert auch die Transparenz im Entscheidungsprozess von Generative AI, da die genutzten Informationsquellen nachvollziehbar sind.
RAG arbeitet in zwei Schritten: Zuerst identifiziert der 'Retriever' relevante Informationen meist aus einer Vektordatenbank. Eine Vektordatenbank speichert Informationen in Form von Vektoren, d.h. mehrdimensionale Arrays, die Datenpunkte in einem Vektorraum repräsentieren. Diese Vektoren enthalten eine verdichtete Darstellung von Informationen, die beispielsweise aus Text, Bildern oder Audio stammen können. Vektordatenbanken ermöglichen schnelles und effizientes Auffinden von Informationen durch das Vergleichen von Vektoren.
Anschliessend verwendet der 'Generator', basierend auf diesen Informationen, Generative AI, um eine kohärente und informative Antwort zu erstellen. Diese Methode ermöglicht es, Antworten zu generieren, die auf den neuesten und relevantesten Informationen basieren.
Reduktion von Halluzinationen: Durch die Verwendung aktueller und relevanter Informationen aus selbst zusammengestellten Quellen kann RAG die Tendenz von Generative AI zur 'Halluzination' von Antworten reduzieren. Dies führt zu präziseren und verlässlicheren Antworten.
Verbesserte Transparenz und Vertrauensbildung: Die Nachvollziehbarkeit der Informationsquellen, die RAG nutzt, ermöglicht eine transparentere Darstellung des Antwortprozesses. Dies stärkt das Vertrauen der Nutzer in Generative AI.
Minimierung urheberrechtlicher Probleme: RAG ermöglicht, urheberrechtlich geschütztes Material effektiver zu erkennen und zu vermeiden, indem es auf eine breitere Palette von Informationsquellen zurückgreift, die frei von urheberrechtlichen Einschränkungen sind.
Effizientere Ressourcennutzung: Durch RAG lässt es sich vermeiden, gleich ein komplettes LLM neu zu trainieren. Es muss lediglich die Vektordatenbank aktuell gehalten werden, dadurch lassen sich die Rechenleistung effizienter zu nutzen und somit die Kosten und Umweltauswirkungen reduzieren.
Umgang mit statischen Trainingsdaten: Durch die Einbindung von einfach aktualisierbaren Datenquellen in den Generierungsprozess kann RAG stets aktuelle Informationen berücksichtigen und somit relevantere Antworten liefern.
Einer der Miterfinder von RAG, Douwe Kiela, hat in seinem Vortrag an der Websummit drei grosse Entwicklungen hervorgehoben:
Die Zukunft mit Generative AI sieht vielversprechend aus. Entwicklungen wie RAG, Multimodalität und Specialized AI haben das Potential, die Effizienz, Genauigkeit und Vielseitigkeit von AI-Lösungen richtungsweisend zu verbessern.
Interessiert am Einsatz von KI in Unternehmen, in der Prozessautomation oder im Testing? Gerne können Sie uns kontaktieren für weitere Informationen.
Sie möchten unsere Expertise nutzen und technologische Innovationen umsetzen?
Haben Sie eine Frage oder suchen Sie weitere Informationen? Geben Sie Ihre Kontaktinformationen an und wir rufen Sie zurück.