5 Möglichkeiten, wie Unternehmensleiter große Sprachmodelle nutzen können, um neue Möglichkeiten zu erschließen
HeimHeim > Blog > 5 Möglichkeiten, wie Unternehmensleiter große Sprachmodelle nutzen können, um neue Möglichkeiten zu erschließen

5 Möglichkeiten, wie Unternehmensleiter große Sprachmodelle nutzen können, um neue Möglichkeiten zu erschließen

Jul 10, 2023

Besuchen Sie unsere On-Demand-Bibliothek, um Sitzungen von VB Transform 2023 anzusehen. Registrieren Sie sich hier

Es ist höchst unwahrscheinlich, dass Sie die Begeisterung für generative KI und insbesondere für große Sprachmodelle (LLMs) wie ChatGPT verpasst haben. In den letzten Monaten waren dies überall heiße Themen, von den sozialen Medien über die Nachrichten bis hin zu alltäglichen Gesprächen, und wir haben gerade erst begonnen zu lernen, wozu generative KI fähig sein könnte.

Im Allgemeinen bezieht sich Gen AI auf eine Kategorie von Techniken des maschinellen Lernens (ML), mit denen Inhalte wie Bilder, Musik und Text erstellt werden können, die von Menschen erstellten Inhalten stark ähneln. LLMs hingegen sind neuronale Netze mit Milliarden von Parametern, die auf riesigen Textdatenmengen trainiert wurden, was es ihnen ermöglicht, menschenähnliche Sprache zu verstehen, zu verarbeiten und zu erzeugen.

Zusammengenommen bieten diese Technologien ein vielfältiges Anwendungsspektrum, das das Potenzial birgt, verschiedene Branchen neu zu gestalten und die Qualität der Interaktionen zwischen Mensch und Maschine zu verbessern. Durch die Erkundung dieser Anwendungen können Geschäftsinhaber und Unternehmensentscheider wertvolle Inspirationen gewinnen, das Wachstum beschleunigen und durch schnelles Prototyping spürbar verbesserte Ergebnisse erzielen. Der zusätzliche Vorteil der Gen-KI besteht darin, dass die meisten dieser Anwendungen nur minimales Fachwissen erfordern und kein weiteres Modelltraining erfordern.

Kurzer Haftungsausschluss: Menschen neigen oft dazu, Gen-KI ausschließlich mit ChatGPT in Verbindung zu bringen, aber es sind zahlreiche Modelle anderer Anbieter verfügbar, wie Googles T5, Metas Llama, TIIs Falcon und Anthropics Claude. Während die meisten der in diesem Artikel besprochenen Anwendungen ChatGPT von OpenAI verwendet haben, können Sie das zugrunde liegende LLM problemlos anpassen und wechseln, um es an Ihr spezifisches Rechenbudget und die Latenz (wie schnell Ihr Modell zum Generieren von Abschlüssen benötigt) anzupassen – kleinere Modelle ermöglichen ein schnelleres Laden und reduzieren Sie die Inferenzlatenz) und nachgelagerte Aufgaben.

VB Transform 2023 On-Demand

Haben Sie eine Sitzung von VB Transform 2023 verpasst? Registrieren Sie sich, um auf die On-Demand-Bibliothek aller unserer vorgestellten Sitzungen zuzugreifen.

LLMs zeigen beeindruckende Fähigkeiten bei vielen Aufgaben, beispielsweise beim Übersetzen und Zusammenfassen, ohne dass eine anfängliche Anpassung erforderlich ist. Der Grund dafür, dass sie bei diesen generischen Aufgaben so gut sind, liegt darin, dass das zugrunde liegende Basismodell auf großen, aber generischen Datensätzen trainiert wurde. Diese Kompetenz erstreckt sich jedoch möglicherweise nicht nahtlos auf domänenspezifische Aufgaben, wie beispielsweise die Bereitstellung von Antworten zum Geschäftsbericht Ihres Unternehmens. Hier kommt Retrieval Augmented Generation (RAG) ins Spiel.

RAG ist ein Framework zum Aufbau LLM-gestützter Systeme, die externe Datenquellen nutzen. RAG gewährt einem LLM Zugriff auf Daten, die er während des Vortrainings nicht gesehen hätte, die jedoch notwendig sind, um relevante und genaue Antworten korrekt bereitzustellen. RAG ermöglicht es Sprachmodellen wie ChatGPT, bessere Antworten auf domänenspezifische Fragen zu geben, indem sie ihre Fähigkeiten zur Verarbeitung natürlicher Sprache (NLP) mit externem Wissen kombinieren und so Fälle der Generierung ungenauer Informationen oder „Halluzinationen“ verringern. Dies geschieht durch:

Dieser Ansatz macht LLMs vielseitiger und nützlicher in verschiedenen Bereichen und Anwendungen, einschließlich der Beantwortung von Fragen, der Erstellung von Inhalten und der interaktiven Konversation mit Zugriff auf Echtzeitdaten. Podurama, eine Podcast-App, hat ähnliche Techniken genutzt, um seine KI-gestützten Empfehlungs-Chatbots zu entwickeln. Diese Bots schlagen geschickt relevante Sendungen auf der Grundlage von Benutzeranfragen vor und ziehen Erkenntnisse aus Podcast-Transkripten, um ihre Empfehlungen zu verfeinern.

Auch im Krisenmanagement ist dieser Ansatz wertvoll. PagerDuty, eine SaaS-Plattform für die Reaktion auf Vorfälle, verwendet LLMs, um Zusammenfassungen von Vorfällen zu erstellen, indem sie grundlegende Daten wie Titel, Schweregrad oder andere Faktoren verwendet und diese mit internen Slack-Daten ergänzt, in denen die Bearbeiter Details besprechen und Fehlerbehebungsaktualisierungen austauschen, um die Qualität der Zusammenfassungen zu verfeinern .

Während RAG kompliziert erscheinen mag, bietet die LangChain-Bibliothek Entwicklern die notwendigen Tools, um RAG zu implementieren und anspruchsvolle Frage-Antwort-Systeme zu erstellen. (In vielen Fällen benötigen Sie zum Einstieg nur eine einzige Codezeile.) LangChain ist eine leistungsstarke Bibliothek, die die Leistung des LLM zur Laufzeit erweitern und verbessern kann, indem sie Zugriff auf externe Datenquellen ermöglicht oder eine Verbindung zu vorhandenen APIs anderer Anwendungen herstellt.

In Kombination mit Open-Source-LLMs (wie Llama 2 oder BLOOM) erweist sich RAG als eine außergewöhnlich leistungsfähige Architektur für den Umgang mit vertraulichen Dokumenten. Besonders interessant ist, dass LangChain (zum Zeitpunkt des Schreibens) über über 120 Integrationen verfügt, die eine nahtlose Funktionalität mit strukturierten Daten (SQL), unstrukturierten Inhalten (PDFs), Code-Snippets und sogar YouTube-Videos ermöglichen.

Ähnlich wie bei der Nutzung externer Datenquellen können LLMs Verbindungen zu externen Anwendungen herstellen, die auf bestimmte Aufgaben zugeschnitten sind. Dies ist besonders wertvoll, wenn ein Modell aufgrund veralteter Informationen gelegentlich Ungenauigkeiten aufweist. Wenn ChatGPT beispielsweise den derzeitigen Premierminister des Vereinigten Königreichs befragt, bezieht er sich möglicherweise weiterhin auf Boris Johnson, auch wenn er sein Amt Ende 2022 niedergelegt hat. Diese Einschränkung entsteht, weil das Wissen des Modells auf die Vorschulungsphase festgelegt ist und keine Posten umfasst -Trainingsveranstaltungen wie die Ernennung von Rishi Sunak.

Um solche Herausforderungen zu bewältigen, können LLMs durch die Integration mit der Außenwelt über Agenten verbessert werden. Diese Agenten dienen dazu, den fehlenden Internetzugang in LLMs zu mildern, indem sie ihnen ermöglichen, mit Tools wie einer Wetter-API (für Echtzeit-Wetterdaten) oder SerpAPI (für Websuchen) zu interagieren. Ein bemerkenswertes Beispiel ist der Chatbot von Expedia, der Benutzer bei der Suche und Reservierung von Hotels, der Beantwortung von Anfragen zu Unterkünften und der Bereitstellung personalisierter Reisevorschläge unterstützt.

Eine weitere faszinierende Anwendung ist die automatische Kennzeichnung von Tweets in Echtzeit mit bestimmten Attributen wie Stimmung, Aggression und Sprache. Aus Marketing- und Werbesicht kann ein Agent, der eine Verbindung zu E-Commerce-Tools herstellt, dem LLM dabei helfen, Produkte oder Pakete basierend auf Benutzerinteressen und Inhalten zu empfehlen.

LLMs werden für die meisten Anwendungen üblicherweise isoliert verwendet. Allerdings hat die LLM-Verkettung in letzter Zeit für komplexe Anwendungen an Bedeutung gewonnen. Dabei werden mehrere LLMs nacheinander verknüpft, um komplexere Aufgaben auszuführen. Jeder LLM ist auf einen bestimmten Aspekt spezialisiert und arbeitet zusammen, um umfassende und verfeinerte Ergebnisse zu generieren.

Dieser Ansatz wurde bei der Sprachübersetzung angewendet, wo LLMs nacheinander verwendet werden, um Text von einer Sprache in eine andere zu konvertieren. Unternehmen wie Microsoft haben die LLM-Verkettung für Übersetzungsdienste für ressourcenarme Sprachen vorgeschlagen, um genauere und kontextbezogene Übersetzungen seltener Wörter zu ermöglichen.

Dieser Ansatz kann auch in anderen Bereichen mehrere wertvolle Anwendungsfälle bieten. Für verbraucherorientierte Unternehmen kann die LLM-Verkettung ein dynamisches Kundensupporterlebnis schaffen, das die Kundeninteraktionen, die Servicequalität und die betriebliche Effizienz verbessern kann.

Beispielsweise kann das erste LLM Kundenanfragen selektieren und kategorisieren und sie zur genaueren Beantwortung an spezialisierte LLMs weiterleiten. In der Fertigung kann LLM-Verkettung zur Optimierung der End-to-End-Lieferkettenprozesse eingesetzt werden, indem spezialisierte LLMs für Bedarfsprognose, Bestandsverwaltung, Lieferantenauswahl und Risikobewertung verkettet werden.

Vor dem Aufkommen von LLMs basierte die Entitätsextraktion auf arbeitsintensiven ML-Ansätzen, die Datenerfassung, Kennzeichnung und komplexes Modelltraining umfassten. Dieser Prozess war umständlich und ressourcenintensiv. Mit LLMs hat sich das Paradigma jedoch geändert. Jetzt wird die Entitätsextraktion zu einer einfachen Eingabeaufforderung vereinfacht, bei der Benutzer das Modell mühelos abfragen können, um Entitäten aus Text zu extrahieren. Noch interessanter ist, dass Sie beim Extrahieren von Entitäten aus unstrukturiertem Text wie PDFs sogar ein Schema und interessante Attribute innerhalb der Eingabeaufforderung definieren können.

Mögliche Beispiele sind Finanzinstitute, die LLMs nutzen können, um wichtige Finanzeinheiten wie Firmennamen, Tickersymbole und Finanzzahlen aus Nachrichtenartikeln zu extrahieren und so eine zeitnahe und genaue Marktanalyse zu ermöglichen. Ebenso kann es von Werbe-/Marketingagenturen zur Verwaltung ihrer digitalen Assets verwendet werden, indem LLM-gesteuerte Entitätsextraktion eingesetzt wird, um Werbeskripte, Akteure, Standorte und Daten zu kategorisieren und so eine effiziente Inhaltsindizierung und Wiederverwendung von Assets zu ermöglichen.

Obwohl es zweifellos wertvoll ist, direkte Antworten von LLMs zu erhalten, löst die Undurchsichtigkeit des Black-Box-Ansatzes bei den Benutzern häufig Bedenken aus. Wenn Sie außerdem mit einer ungenauen Antwort auf eine komplexe Anfrage konfrontiert werden, wird es schwierig, den genauen Fehlerschritt zu bestimmen. Eine systematische Aufschlüsselung des Prozesses könnte den Debugging-Prozess erheblich unterstützen. Genau hier kommt das Reason and Act (ReAct)-Framework ins Spiel, das eine Lösung für diese Herausforderungen bietet.

ReAct legt Wert auf die schrittweise Argumentation, damit das LLM Lösungen generiert, wie es ein Mensch tun würde. Ziel ist es, das Modell dazu zu bringen, Aufgaben wie Menschen durchzudenken und seine Argumentation mithilfe von Sprache zu erklären. Dieser Ansatz lässt sich leicht umsetzen, da die Generierung von ReAct-Eingabeaufforderungen eine unkomplizierte Aufgabe ist, bei der menschliche Annotatoren ihre Gedanken in natürlicher Sprache zusammen mit den entsprechenden ausgeführten Aktionen ausdrücken. Mit nur einer Handvoll solcher Instanzen lernt das Modell, gut für neue Aufgaben zu verallgemeinern.

Inspiriert von diesem Rahmen führen viele Bildungstechnologieunternehmen Pilotprojekte durch, um Lernenden personalisierte Unterstützung bei Kursarbeiten und Aufgaben sowie Lehrkräften KI-gestützte Unterrichtspläne zu bieten. Zu diesem Zweck entwickelte die Khan Academy Khanmigo, einen Chatbot, der Schüler durch mathematische Probleme und Programmierübungen führen soll. Anstatt nur auf Anfrage Antworten zu geben, fördert Khanmigo die durchdachte Problemlösung, indem er die Schüler durch den Denkprozess führt. Dieser Ansatz hilft nicht nur, Plagiate zu verhindern, sondern befähigt die Studierenden auch, Konzepte selbstständig zu erfassen.

Während die Debatte über das Potenzial der KI, den Menschen in seinen Rollen zu ersetzen, oder über die letztendliche Erreichung der technologischen Singularität (wie vom Paten der KI, Geoffrey Hinton, vorhergesagt wurde), noch andauert, bleibt eines sicher: LLMs werden dabei zweifellos eine entscheidende Rolle spielen Beschleunigung verschiedener Aufgaben in einer Reihe von Bereichen. Sie können die Effizienz steigern, die Kreativität fördern, Entscheidungsprozesse verfeinern und gleichzeitig komplexe Aufgaben vereinfachen.

Für Fachleute in verschiedenen technischen Rollen, wie Datenwissenschaftler, Softwareentwickler und Produktbesitzer, können LLMs wertvolle Tools bieten, um Arbeitsabläufe zu optimieren, Erkenntnisse zu gewinnen und neue Möglichkeiten zu erschließen.

Varshita Sher ist Datenwissenschaftlerin, engagierte Bloggerin und Podcast-Kuratorin und leitet das NLP- und generative KI-Team bei Haleon.

Willkommen in der VentureBeat-Community!

Bei DataDecisionMakers können Experten, einschließlich der Techniker, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen.

Wenn Sie mehr über innovative Ideen und aktuelle Informationen, Best Practices und die Zukunft von Daten und Datentechnologie erfahren möchten, besuchen Sie uns bei DataDecisionMakers.

Vielleicht erwägen Sie sogar, einen eigenen Artikel beizutragen!

Lesen Sie mehr von DataDecisionMakers

Besuchen Sie unsere On-Demand-Bibliothek, um Sitzungen von VB Transform 2023 anzusehen. Registrieren Sie sich hier