Wie GPT
HeimHeim > Blog > Wie GPT

Wie GPT

Jul 15, 2023

GPT-4 kann dazu beitragen, Online-Inhalte schneller und konsistenter zu moderieren als Menschen, argumentiert der Hersteller des Modells, OpenAI.

Technologieunternehmen verlassen sich heutzutage in der Regel auf eine Mischung aus Algorithmen und menschlichen Moderatoren, um problematische, von Benutzern geteilte Inhalte zu identifizieren, zu entfernen oder den Zugriff darauf einzuschränken. Software für maschinelles Lernen kann Nacktheit automatisch blockieren oder giftige Äußerungen klassifizieren, kann jedoch Nuancen und Grenzfälle nicht erkennen, was dazu führt, dass sie überreagiert – das Verbot harmloser Inhalte senkt – oder schädliche Inhalte ganz übersieht.

Daher werden irgendwo in der Verarbeitungspipeline immer noch menschliche Moderatoren benötigt, um von Algorithmen oder Benutzern markierte Inhalte zu überprüfen und zu entscheiden, ob etwas entfernt werden soll oder bleiben darf. GPT-4, so heißt es, kann Text analysieren und darauf trainiert werden, Inhalte, einschließlich Benutzerkommentare, automatisch zu moderieren, wodurch „die mentale Belastung menschlicher Moderatoren“ verringert wird.

Interessanterweise sagte OpenAI, dass es bereits ein eigenes großes Sprachmodell für die Entwicklung von Inhaltsrichtlinien und Entscheidungen zur Inhaltsmoderation verwendet. Kurz gesagt: Das KI-Superlabor hat beschrieben, wie GPT-4 dabei helfen kann, die Regeln einer Inhaltsmoderationsrichtlinie zu verfeinern, und seine Ergebnisse können verwendet werden, um einen kleineren Klassifikator zu trainieren, der die eigentliche Aufgabe der automatischen Moderation übernimmt.

Zunächst erhält der Chatbot eine Reihe von Moderationsrichtlinien, die darauf abzielen, beispielsweise sexistische und rassistische Ausdrücke sowie Schimpfwörter auszusortieren. Diese Anweisungen müssen in einer Eingabeaufforderung sorgfältig beschrieben werden, damit sie ordnungsgemäß funktionieren. Als nächstes wird ein kleiner Datensatz, der aus Beispielkommentaren oder Inhalten besteht, von Menschen gemäß diesen Richtlinien moderiert, um einen gekennzeichneten Datensatz zu erstellen. GPT-4 erhält ebenfalls die Richtlinien als Aufforderung und wird angewiesen, denselben Text im Testdatensatz zu moderieren.

Der von den Menschen generierte beschriftete Datensatz wird mit den Ausgaben des Chatbots verglichen, um festzustellen, wo ein Fehler aufgetreten ist. Benutzer können dann die Richtlinien und die Eingabeaufforderung anpassen, um besser zu beschreiben, wie bestimmte Inhaltsrichtlinienregeln zu befolgen sind, und den Test wiederholen, bis die Ergebnisse von GPT-4 mit dem Urteil der Menschen übereinstimmen. Die Vorhersagen von GPT-4 können dann zur Feinabstimmung eines kleineren großen Sprachmodells zum Aufbau eines Inhaltsmoderationssystems verwendet werden.

Als Beispiel skizzierte OpenAI ein Chatbot-System im Q&A-Stil, dem die Frage gestellt wird: „Wie stiehlt man ein Auto?“ In den gegebenen Richtlinien heißt es, dass „Ratschläge oder Anweisungen für gewaltfreies Fehlverhalten“ auf dieser hypothetischen Plattform nicht erlaubt sind, der Bot sie also ablehnen sollte. GPT-4 schlug stattdessen vor, die Frage sei harmlos, da in seiner eigenen maschinell generierten Erklärung „die Anfrage sich nicht auf die Entstehung von Malware, Drogenhandel oder Vandalismus bezieht“.

Daher werden die Richtlinien aktualisiert, um klarzustellen, dass „Ratschläge oder Anweisungen für gewaltloses Fehlverhalten, einschließlich Diebstahl von Eigentum“, nicht zulässig sind. Nun stimmt GPT-4 zu, dass die Frage gegen die Richtlinien verstößt, und lehnt sie ab.

Dies zeigt, wie GPT-4 verwendet werden kann, um Richtlinien zu verfeinern und Entscheidungen zu treffen, die zum Aufbau eines kleineren Klassifikators verwendet werden können, der die Moderation im großen Maßstab durchführen kann. Wir gehen hier davon aus, dass GPT-4 – das nicht gerade für seine Genauigkeit und Zuverlässigkeit bekannt ist – tatsächlich gut genug funktioniert, um dies zu erreichen.

OpenAI ist daher davon überzeugt, dass seine Software im Gegensatz zu Menschen Inhalte schneller moderieren und schneller anpassen kann, wenn Richtlinien geändert oder geklärt werden müssen. Menschliche Moderatoren müssten umgeschult werden, so das Unternehmen, während GPT-4 durch die Aktualisierung seiner Eingabeaufforderung neue Regeln erlernen könne.

„Ein Inhaltsmoderationssystem, das GPT-4 verwendet, führt zu einer viel schnelleren Iteration von Richtlinienänderungen und verkürzt den Zyklus von Monaten auf Stunden“, erklärten Lilian Weng, Vik Goel und Andrea Vallone vom Labor am Dienstag.

„GPT-4 ist außerdem in der Lage, Regeln und Nuancen in langen Inhaltsrichtliniendokumentationen zu interpretieren und sich sofort an Richtlinienaktualisierungen anzupassen, was zu einer einheitlicheren Kennzeichnung führt.“

„Wir glauben, dass dies eine positivere Vision für die Zukunft digitaler Plattformen bietet, bei denen KI dabei helfen kann, den Online-Verkehr gemäß plattformspezifischen Richtlinien zu moderieren und die mentale Belastung einer großen Anzahl menschlicher Moderatoren zu verringern. Jeder mit OpenAI-API-Zugriff kann dies umsetzen.“ Ansatz, ein eigenes KI-gestütztes Moderationssystem zu erstellen.“

OpenAI wurde dafür kritisiert, dass es in Kenia Arbeitskräfte einstellt, um ChatGPT weniger giftig zu machen. Die menschlichen Moderatoren wurden damit beauftragt, Zehntausende Textproben auf sexistische, rassistische, gewalttätige und pornografische Inhalte zu überprüfen und erhielten Berichten zufolge nur bis zu 2 US-Dollar pro Stunde. Einige waren verstört, nachdem sie so lange obszöne NSFW-Texte gelesen hatten.

Obwohl GPT-4 dabei helfen kann, Inhalte automatisch zu moderieren, sind dennoch Menschen erforderlich, da die Technologie nicht narrensicher ist, sagte OpenAI. Wie sich in der Vergangenheit gezeigt hat, ist es möglich, dass Tippfehler in toxischen Kommentaren der Erkennung entgehen und andere Techniken wie Prompt-Injection-Angriffe genutzt werden können, um die Sicherheitsvorkehrungen des Chatbots außer Kraft zu setzen.

„Wir verwenden GPT-4 für die Entwicklung von Inhaltsrichtlinien und Entscheidungen zur Inhaltsmoderation, was eine konsistentere Kennzeichnung, eine schnellere Feedbackschleife für die Verfeinerung von Richtlinien und eine geringere Beteiligung menschlicher Moderatoren ermöglicht“, sagte das Team von OpenAI. ®

Senden Sie uns Neuigkeiten

1313Holen Sie sich unser13