Zarqa – Einführung des neural-symbolischen LLM von SingularityNET

Apr 19 2023
Zarqa ist die nächste Generation von Large Language Models, die mit neural-symbolischen Techniken für eine intelligentere und zuverlässigere KI ausgestattet sind. mit 25 Millionen Benutzern pro Tag, die sich allein bei ChatGPT anmelden. Auch in den Bereichen der menschlichen Sprach- und Bilderzeugung wurden erhebliche Fortschritte erzielt.

Zarqa ist die nächste Generation von Large Language Models, die mit neural-symbolischen Techniken für eine intelligentere und zuverlässigere KI ausgestattet sind

Grüße Singularitarier,

Large Language Models (LLMs) erfreuen sich in vielen Bereichen, einschließlich Kommunikation, Kundensupport, Entwicklung neuer Produkte und Kreativität, großer Beliebtheit, wobei sich täglich 25 Millionen Benutzer allein bei ChatGPT anmelden.

Auch in den Bereichen der menschlichen Sprach- und Bilderzeugung wurden erhebliche Fortschritte erzielt.

Durchbrüche in der Musikerzeugung, generativen Handelsalgorithmen und anderen Modalitäten und Anwendungen, die einen beispiellosen Einfluss auf die Wirtschaft, die Gesellschaft und so viele Aspekte des Lebens der Menschen haben werden, stehen zweifellos in naher Zukunft bevor.

Für einige könnte dieser Anstieg der generativen KI alarmierend sein, da sie einen unethischen Einsatz künstlicher Intelligenz und die Gefahr eines Massenabbaus von Arbeitsplätzen befürchten. Für andere gibt es einen durchschlagenden Optimismus, Enthusiasmus und eine völlig berechtigte Hoffnung, dass fortschrittliche Technologien das Leben der Menschen zum Besseren verändern und positive Veränderungen in großem Umfang bewirken werden – und die Enthusiasten sind den anderen weit überlegen.

Das Interessanteste und Faszinierendste für mich ist jedoch, dass wir derzeit tatsächlich nur die Spitze des Eisbergs sehen – buchstäblich die allerersten signifikanten Ergebnisse des Einsatzes von groß angelegten KI-Modellen. Ihr architektonisches Design ist vereinfacht, ihre kognitiven Fähigkeiten sind begrenzt, ihr Wissen ist fixiert und kann nicht dynamisch aktualisiert werden, ihr generatives Verhalten hat den Charakter der Nachahmung und verwendet und kombiniert immer nur die von der Menschheit geschaffenen vergangenen Erfahrungen. Gleichzeitig gibt es derzeit keine grundlegenden technischen Einschränkungendie uns daran hindern, diesen Ansatz radikal zu verbessern, viel fortschrittlichere KI-Architekturen zu erstellen und zu implementieren, die es uns nicht nur ermöglichen, die Einschränkungen bestehender Ansätze zu umgehen, sondern uns buchstäblich in einen neuen Raum der Möglichkeiten teleportieren, in dem alle genannten Einschränkungen ungültig sind, Skeptiker ' Befürchtungen sind irrelevant, und die Erwartungen der Enthusiasten werden sogar übertroffen.

Der Frühling der Sprachmodellierung

Um auf das Thema große Sprachmodelle zurückzukommen, sollte ich anmerken, dass sich die Deep-Tech-Teams von SingularityNET von Anfang an, seit 2017 und seit 2014 als Teil einer kleinen Forschungsgruppe von Enthusiasten mit diesem F&E-Thread befasst haben.

Ich erinnere mich an Yoshua Bengios hervorragende erste Arbeit über probabilistische Sprachmodelle, die ich immer auf meinem Schreibtisch hatte. Ich erinnere mich an die ersten Shakespeare-Sonette, die von Andjey Karpathy mit einfachen wiederkehrenden Netzwerken erstellt wurden – es war atemberaubend.

Ich erinnere mich an die ersten Diskussionen von Forschern zum Thema, was starke KI in der Praxis ist und ob Sprachmodellierungstechniken der kürzeste Weg sein könnten, um eine starke KI auf menschlicher Ebene zu erreichen. Damals gingen die Meinungen auseinander, aber wir waren überzeugt von unserem Ansatz und verfolgten diese Richtung beharrlich mit all unserer Kraft und Inspiration.

Unser begeistertes Forschungsteam verwendete verschiedene Arten von DNN-Modellen, als Selbstaufmerksamkeitsnetzwerke noch nicht existierten, dh sie waren noch nicht von der Vaswani-Gruppe unter der Leitung von Ashish Vaswani erfunden worden. Wir haben alles verwendet: rekurrente Netzwerke, Temporal Convolutional Networks, Separable Convolutional Networks von Francois Chollet und entwickelte Architekturen unseres eigenen Designs, wobei wir jede mögliche Methode angewendet haben, weil sie so vielversprechend war.

SingularityNET hatte daran gearbeitet, grammatikalische Strukturen zu extrahieren, sie mit symbolischer Darstellung zu integrieren, maskierte Sprachmodelle zu verwenden, einen generativen Ansatz zu etablieren, alle verfügbaren Ressourcen ständig zu erweitern und zu investieren. Dann, eines Tages im Jahr 2018, wurde das erste GPT-Modell von der damals winzigen Forschungs- und Entwicklungsgruppe in Kalifornien veröffentlicht. Anschließend entdeckte das Team von Sergey Edunov die Möglichkeit, Datenparallelität in großem Umfang in maschinellen Übersetzungssystemen einzusetzen. Bei SingularityNET haben wir unsere DNN-basierten Modelle weiter verbessert und unseren ersten GPU-Cluster gebaut, angefangen, elegante Modelle in großem Umfang zu trainieren, europäische Sprachen, Koreanisch, Arabisch, Amharisch und viele mehr zu beherrschen.

Es wurde offensichtlich, dass wir immer mehr Daten benötigten. Wir haben sie selbst gesammelt und riesige Datensätze aus dem Internet dedupliziert und gefiltert, wobei wir Best Practices befolgt und unsere eigenen fortschrittlichen Lösungen implementiert haben. Schon in den Jahren der ersten Sprachmodelle war es offensichtlich, dass ein Training mit 3D-Parallelität und verbesserter Optimierung erforderlich war, dass wir akteurkritische Frameworks brauchten und dass wir unbedingt menschliches Feedback und zusätzliches Modelltraining mit Verstärkung brauchten. Wir haben deutlich gesehen, dass der Fluch der Mehrsprachigkeit überwunden werden kann, dass Multitasking und Multimodalität in großem Umfang funktionieren werden, dass die direkte Programmierung von Modellen mit natürlichsprachlichen Befehlen funktionieren wird (auch bekannt als Eingabeaufforderung; damals gab es keine gemeinsame Terminologie, aber es war klar).

Wir wussten, welche architektonischen Techniken und Tricks anzuwenden waren, aber aufgrund der enormen Rechenleistung, die zum Trainieren großer Modelle erforderlich war, hinkten wir den Technologiegiganten und angeschlossenen Forschungs- und Entwicklungslabors nur einen Schritt hinterher – obwohl für uns immer klar war, was der nächste Schritt war oder mehrere Schritte wären. Also haben wir nie aufgehört.

Jetzt ist es an der Zeit, die Fortschritte symbolischer Ansätze zu nutzen; Systeme, die über Jahrzehnte aus unseren beharrlichen Bemühungen entwickelt wurden, einen technologischen Stack für Künstliche Allgemeine Intelligenz (AGI) aufzubauen und zum Leben zu erwecken.

Die Kombination dieser Methoden mit all den signifikanten Möglichkeiten von Large-Scale Language Models (LLMs) in einer komplexen und eleganten neural-symbolischen Architektur wird exponentiell neue Möglichkeiten eröffnen. Es ist an der Zeit, der Erste zu sein und die Welt in der KI-Revolution anzuführen.

Wir stellen Zarqa vor

Wir sind stolz darauf, Zarqa vorzustellen, ein neuartiges Unternehmen von SingularityNET, das unser technisches Know-how in Lösungen mobilisiert, die auf skalierter neuronal-symbolischer KI basieren, um eine bahnbrechende und hochmoderne nächste Generation von LLMs zu schaffen, die sich durch technische Initiative und unerschütterliche Führung auszeichnet.

Der LLM-Bereich schreitet mit enormer Geschwindigkeit voran, und mit Zarqa werden wir uns auf die kurzfristige Bereitstellung von LLM-Technologie konzentrieren, die den heute auf dem Markt befindlichen Tools entspricht und diese übertrifft, indem wir die Stärken der dezentralen Infrastruktur des SingularityNET-Ökosystems nutzen. Wir bauen unsere Lösung auf einer fortschrittlichen Computerarchitektur auf, die auf einem modularen System basiert, das speziell für das groß angelegte Training großer diskriminanter und generativer LLMs sowie für die Verarbeitung eines groß angelegten Wissensmetagraphen und die Erzeugung beschleunigter symbolischer Berechnungen bei hoher Last entwickelt wurde auch die Verarbeitung massiver Daten und die Überwachung wichtiger Informationsquellen in Echtzeit. Alle diese Fähigkeiten werden zunächst in einem einzigen Computersystem kombiniert, das darauf ausgelegt ist, die spezielle Aufgabe des Trainings und Ausführens neuronal-symbolischer KI zu lösen.

Die tiefe Integration von LLMs mit Knowledge Graphs wird ein früher Schritt sein und dazu beitragen, eine Grundlage für Textproduktionen in der Realität zu schaffen, die aktuellen LLMs so ungeheuerlich fehlt. Anschließend wird die Integration mit immer ausgefeilteren Wissensgraphen und den damit verbundenen Argumentations-, Lern- und Konzepterstellungsmethoden über die Integration des OpenCog Hyperon-Toolkits und der TrueAGI-Datenintegrationspipeline fortgesetzt. LLMs sind bereit, eine Schlüsselrolle beim Übergang von den erstaunlichen, aber begrenzten KIs von heute zu den leistungsfähigeren AGI-Systemen der Zukunft zu spielen, und Zarqa ist bereit, in diesem Aspekt eine Führungsrolle zu übernehmen, indem es hochmoderne LLMs einführt und sie dann schrittweise durch die Integration von Ideen und Systemen aus zusätzlichen KI-Paradigmen und Lösungen zu erweitern, die im SingularityNET-Ökosystem entwickelt werden.

Zarqa ist von Anfang an darauf ausgelegt, menschliche und übermenschliche Ebenen der Kreativität, des logischen Denkens und der Entscheidungsfindung zu erreichen, indem es riesige multimodale neuronale Netze, die nativ für logische Berechnungen und Ausdrücke sind, mit einem symbolischen Kern kombiniert, der in der Lage ist, mit fundiertem und relevantem Wissen zu arbeiten.

Zarqa unterstützt ein dynamisch aktualisiertes Weltmodell, das zum Phänomen des kritischen maschinellen Denkens führt, sowie ein Modell der eigenen Persönlichkeit der KI, das sich weiterentwickeln kann, den Prozess der Selbstreflexion unterstützen und einer grundlegenden moralischen und ethischen Erzählung folgen kann codex und bringt ein Maß an Vorhersagbarkeit, Interpretierbarkeit und Sicherheit, das für frühere KI-Generationen unerreichbar war.

Wir wenden Techniken und Methoden an, die es der KI ermöglichen, das Langzeitgedächtnis von Ereignissen, Gesprächspartnern, Kommunikation und individualisierten KI-Funktionen sowie das episodische Gedächtnis mit einer multimodalen kontextualisierten Darstellung von Ereignissen zu nutzen, wodurch die kognitiven Fähigkeiten neuartiger KI-Systeme erheblich erweitert und ihnen ermöglicht werden, sich zu formen ihren eigenen einzigartigen Lebenszyklus. Wir stärken KI mit fortschrittlichen Wahrnehmungsmechanismen wie multimodaler Personenidentifikation und Emotionserkennung.

Smart Ownership und Crowdsourcing-Optimierung

KI ist nicht die ganze Geschichte. Zarqa nutzt auch die Expertise von SingularityNET in Blockchain-Systemen und baut auf dem einzigartigen KI-gesteuerten Smart-Contract-Ökosystem von SingularityNET auf, um Ressourcen zu verwalten und KI-Modelle zu testen. Dies wird das massenhafte Human In The Loop (HITL)-Training von Modellen für eine ständig steigende Leistung und Eignung erleichtern. Teilnehmen kann jede Organisation, jeder begeisterte Fachmann oder jeder Benutzer, der sich an Modellschulungen und -tests beteiligen möchte. Dies wird Zarqa mit einer Reihe von ethischen Normen und Eingaben ausstatten, die eine breite und integrative globale Zusammenarbeit der Benutzerbasis ermöglichen und gleichzeitig Sicherheit und Genauigkeit betonen.

Das Potenzial von Zarqa ist beispiellos, es bietet Intelligenz im Zetta-Maßstab für disruptive Auswirkungen und reißt Eintrittsbarrieren für Technologie nieder, während es der gesamten Menschheit, nicht nur den wenigen Eliten, einen einfachen und offenen Zugang zu technologiegenerierter Fülle bietet, wodurch die Exklusivität des KI-Sektors verringert wird und Oligopol und die Demokratisierung dieser transformativen Technologie.

Zarqa wurde geboren, um die KI-Landschaft zu verändern und den Weg für künstliche allgemeine Intelligenz zu ebnen. Es ist mir eine Ehre, für SingularityNET als Co-CEO dieser unglaublichen Initiative aufzutreten, zusammen mit meiner Co-CEO Janet Adams, natürlich mit dem mächtigen Dr. Ben Goertzel, der die Wissenschaft beaufsichtigt, und Dr. Alexey Potapov, der unsere neural-symbolische Entwicklung leitet . Vielen Dank für das Lesen und Verfolgen unserer Fortschrittsaktualisierungen, während wir Zarqa schnell mobilisieren.

Willkommen im KI-Sommer!

Werden Sie Teil der Community

Folgen Sie den sozialen Kanälen von SingularityNET, um an der Unterhaltung teilzunehmen und die neuesten Nachrichten und Updates zu erhalten:

  • Zwietracht
  • Haupttelegrammkanal
  • Ankündigungskanal
  • SingularityNET -Website
  • Twitter
  • Facebook