OpenAI-optimierte LLMs für den Dialog mit ChatGPT
Wie schneidet ChatGPT im Vergleich zum neuen DaVinci 3-Modell ab ? Ist ChatGPT eine Implementierung von KI-NLP? Und wie OpenAI mögliche Katastrophen vermeidet.
Seit 2020 forsche und schreibe ich zu OpenAI und GPT3 …
Die Veröffentlichung von ChatGPT muss im Lichte der folgenden Punkte geprüft werden:
- GPT3 verfügte schon immer über eine sehr gute Konversationsfunktion, bei der Dialogstatus und Dialogwechsel erfolgreich verwaltet wurden. Der Konversationskontext wurde ebenfalls verwaltet.
- GPT3 war nicht wirklich anfällig für Halluzinationen und andere Beschwerden wie BlenderBot .
- Die Antworten von GPT3 sind gut formuliert, prägnant und kohärent. Dies hat sich mit der kürzlichen Einführung des neuen DaVinci 3-Modells erheblich verbessert .
- Wenn ich einen Chatbot mit der OpenAI Language API/GPT3 erstellen/booten müsste, werde ich den Chatbot mit der hier beschriebenen Methode booten .
Kritische Überlegungen:
- Betrachtet man die folgenden Beispiele, sieht es so aus, als hätte die OpenAI-Sprach-API Zugriff auf das Internet und kann Antworten abrufen.
- ChatGPT hat keinen Zugang zum Internet zum Abrufen von Informationen und scheint eine Implementierung der wissensintensiven Verarbeitung natürlicher Sprache (KI-NLP) zu sein .
- Was ist KI-NLP? Dabei handelt es sich um eine sehr umfassende, wissensintensive Schnittstelle für Aufgaben zur Beantwortung von Fragen oder zur Überprüfung von Fakten, die zusammenfassend als wissensintensive Verarbeitung natürlicher Sprache (KI-NLP) bezeichnet wird.
- Die auf einem KI-NLP-Framework basierenden KI-Modelle durchsuchen ein digitales Archiv nach relevanten Informationen. Je umfassender das digitale Archiv, desto umfassender und korrekter sind die Antworten.
- KI-NLP-Systeme sind eigenständig und durchsuchen nicht das Internet und nutzen keine Wissens-APIs.
- OpenAI stellt sicher, dass ChatGPT keine schlechten Gewohnheiten durch fragwürdige Internetinhalte oder kontroverse Benutzereingaben erlernt, wie im Fall von Blender Bot .
Praxisbeispiele:
Im Folgenden stelle ich dem DaVinci 3-Modell zwei Fragen, wobei die zweite eine Folgefrage ist, die auf dem Kontext der ersten Frage basiert:
How do I create a chatbot?
What technology should I use?
Die Antworten sind in Davinci 3 viel ausführlicher, besser geordnet und sequenziert als im Davinci 2- oder Davinci 1- Modell. Lesen Sie hier mehr über diesen Vergleich .
Wenn man jedoch dieselben beiden Fragen an ChatGPT stellt, wird deutlich, dass die Antworten viel gesprächiger und umfassender sind.
In diesem zweiten Beispiel stelle ich drei Fragen:
Who is Peter Thiel?
Where does he live?
How old is he?
Das generative Davinci 3- Modell verwaltet die Gesprächsrunden, den Zustand und den Kontext sehr gut.
Unten sehen Sie die Antwort auf dieselben drei Fragen von ChatGPT … es ist klar, dass die Integrität von ChatGPT geschützt wird … aber es ist auch offensichtlich, dass ChatGPT eine eigenständige LLM- oder KI-NLP-Implementierung ist.
Einige abschließende Gedanken
- ChatGPT ist eine Mischung aus allen vier unten aufgeführten Elementen: Dialogmanagement, Generierung, Frage & Antwort und Sprachübersetzung.
- Hier ist eine perfekte Übersetzung von Afrikaans ins Englische von ChatGPT. Die Sprache wurde von ChatGPT automatisch erkannt und nur der richtige Satz wurde übersetzt.
- Für Produktionsimplementierungen muss eine ChatGPT-API verfügbar gemacht werden, die derzeit nicht verfügbar ist.
- Die Feinabstimmung ist eine Überlegung bei Unternehmensimplementierungen.
- Und im Zusammenhang mit der Feinabstimmung stehen höchstwahrscheinlich Methoden zur Einbindung spezifischer Kenntnisse auf der Roadmap.
Ich bin derzeit der Hauptevangelist bei HumanFirst . Ich erforsche und schreibe über alle Dinge an der Schnittstelle von KI und Sprache; von LLMs , Chatbots , Voicebots , Entwicklungs-Frameworks, datenzentrierten latenten Räumen und mehr.

![Was ist überhaupt eine verknüpfte Liste? [Teil 1]](https://post.nghiatu.com/assets/images/m/max/724/1*Xokk6XOjWyIGCBujkJsCzQ.jpeg)



































