Anthropic: Neues KI-Modell Claude 3.5 übertrifft GPT-4 Omni

Jun 20 2024
Es kann sogar Ihr eigenes 8-Bit-Videospiel für Sie erstellen.

Anthropic hat am Donnerstag Claude 3.5 Sonnet auf den Markt gebracht, das laut dem KI-Startup seine bisherigen KI-Modelle und OpenAIs kürzlich eingeführtes GPT-4 Omni in mehreren Punkten übertrifft. Das Unternehmen hat außerdem Artifacts veröffentlicht, einen neuen dynamischen Arbeitsbereich innerhalb von Claude, in dem Benutzer Claudes KI-Projekte bearbeiten und erweitern können, beispielsweise ein spielbares Krabben-Videospiel.

Vorgeschlagene Literatur

Anthropische Gründer kritisieren Führungskräfte von OpenAI öffentlich
Google und Amazon investieren Milliarden in ChatGPT-Konkurrenten
Wir haben die KI-Zensur getestet: Das verraten Ihnen Chatbots nicht

Vorgeschlagene Literatur

Anthropische Gründer kritisieren Führungskräfte von OpenAI öffentlich
Google und Amazon investieren Milliarden in ChatGPT-Konkurrenten
Wir haben die KI-Zensur getestet: Das verraten Ihnen Chatbots nicht
Warum verklagen alle KI-Unternehmen? | Future Tech
Aktie
Untertitel
  • Aus
  • Englisch
Teile dieses Video
Facebook Twitter Email
Reddit -Link
Warum verklagen alle KI-Unternehmen? | Future Tech

„Unser Ziel mit Claude ist nicht, einen schrittweise besseren LLM zu schaffen, sondern ein KI-System zu entwickeln, das auf sinnvolle Weise mit Menschen und Software zusammenarbeiten kann“, sagte Anthropic-Mitbegründer und CEO Dario Amodei in einer Pressemitteilung. „Funktionen wie Artifacts sind erste Experimente in diese Richtung.“

Verwandter Inhalt

Anthropic möchte seine Claude-KI mit einer neuen App überall dort einsetzen, wo Sie sind
Anthropic setzt einen neuen Goldstandard: Ihr Zug, OpenAI

Verwandter Inhalt

Anthropic möchte seine Claude-KI mit einer neuen App überall dort einsetzen, wo Sie sind
Anthropic setzt einen neuen Goldstandard: Ihr Zug, OpenAI

Dies ist die erste Version der Claude 3.5-Modellfamilie von Anthropic, die nur drei Monate nach der Markteinführung der Claude 3-Modelle erscheint. Anthropic kämpft mit allen Mitteln darum, mit den Produkteinführungen von OpenAI Schritt zu halten. Heute bringt Anthropic gerade die 3.5-Version seines Mittelklassemodells Sonnet auf den Markt, aber das Startup plant, noch in diesem Jahr eine 3.5-Version von Haiku (seinem Einstiegsmodell) und Opus (seiner leistungsfähigsten Version) herauszubringen. Das Startup sagt auch, dass es für zukünftige Versionen Funktionen wie Websuche und Speicher prüft.

Anthropic konzentriert sich nicht nur darauf, bessere Modelle zu veröffentlichen, sondern auch mehr Funktionen und Möglichkeiten, um die KI noch nützlicher zu machen. Mit Artifacts können Benutzer laut Anthropic interaktive Projekte in Claude erstellen. In einer Demo zeigt das Startup, wie man Charaktere und Symbole in einem KI-generierten 8-Bit-Krabben-Videospiel erstellen und das Projekt dabei bearbeiten kann.

Demo zu anthropomorphen Artefakten
Untertitel
  • Aus
  • Englisch
Demo zu anthropomorphen Artefakten

Das KI-Startup sagt, dass Claude 3.5 Sonnet sein bisher stärkstes Vision-Modell ist, das es Claude ermöglicht, beim visuellen Denken, beim Interpretieren von Diagrammen und beim Transkribieren von Text aus unvollständigen Bildern bessere Leistungen zu erbringen. Anthropic behauptet, dass Claude 3.5 Sonnet mehrere Vision-Funktionen von GPT-4 Omni übertrifft, das bei der Markteinführung beeindruckende Vision-Funktionen debütierte. Claude ist angeblich besser beim visuellen Verstehen von Diagrammen, Dokumenten und Mathematik. Ansonsten sagt Anthropic, dass sein neuer Claude OpenAIs ChatGPT beim Kodieren und Denken im Allgemeinen übertrifft.

Insbesondere sagt Anthropic, dass Claude 3.5 Sonnet besser darin ist, zu analysieren, was zu beantworten ist und was nicht. KI-Chatbots sind dafür berüchtigt, bestimmte Fragen nicht zu beantworten. Gizmodo hat sich vor einigen Monaten eingehend mit der KI-Zensur befasst und festgestellt, dass Claude von Anthropic sich weigerte, viele Fragen zu beantworten. Mit Claude 3.5 vertraut Anthropic auf Claudes Urteilsvermögen bei der Beantwortung unangemessener oder potenziell schädlicher Fragen.

Claudes Fähigkeit zu beurteilen, ob es eine Frage beantworten soll, hat sich verbessert.