Warum UX das Schlachtfeld für die Zukunft der KI ist
Für diejenigen, die neu in diesem Bereich sind: Wir machen gerade einen der größten technologischen Veränderungen seit Cloud Computing durch. Ich werde nicht zu viel Zeit mit dieser Verschiebung verbringen, da viele großartige Zusammenfassungen und Marktkarten veröffentlicht werden, aber hier ist eine Folie, die ich erstellt habe, um zusammenzufassen, was vor sich geht.
Eine Frage, die oft auftaucht, wenn man die jüngste kambrische Explosion von KI-gestützten Anwendungen untersucht, ist die Verteidigungsfähigkeit . Dies liegt daran, dass Investoren und Gründer sich sehr bewusst sind, dass KI-Modelle immer mehr zum Standard werden, sodass der Wert des neuronalen Netzwerks in einer KI-Anwendung schnell abnimmt.
Diese Modelle wurden von Unternehmen wie OpenAI und Stability.ai veröffentlicht . Wenn Sie noch nicht mit GPT-3 (einem von OpenAI gehosteten Modell) herumgespielt haben, rate ich Ihnen dringend, dies zu tun, damit Sie die fast magische Kraft von Standardmodellen schätzen lernen. Es ist erwähnenswert, dass selbst wenn Sie Ihre eigenen Modelle bauen wollten, dies jetzt immer schwieriger wird, da die KI-Forschung zu einer Funktion der Bilanzstärke wird.
NLP hat in den letzten zehn Jahren große Fortschritte gemacht – LSTM-Netzwerke haben die Leistung von RNNs aufgrund ihrer Fähigkeit, sich selektiv an verschiedene Teile einer Sequenz zu erinnern oder sie zu vergessen, erheblich gesteigert. Transformers und der „Aufmerksamkeitsmechanismus“ (neben Skalierungsgesetzen) führten dann zu einer schrittweisen Veränderung dessen, was möglich war, als diese Modelle begannen, Sprache wirklich zu verstehen . Jetzt gestalten Diffusionsmodelle neu, wie wir Inhalte aller Art generieren können. Früher wurden Durchbrüche im Deep Learning genutzt, um Wettbewerbsvorteile aufzubauen, aber es gab einen kulturellen und technologischen Wandel ( Hugging Face spielte eine große Rolle) bei der Veröffentlichung dieser vortrainierten Modelle. Entwickler können jetzt mit wenigen Codezeilen hochmoderne KI in ihre Produkte einbetten.
Aber wie baut man einen Wettbewerbsvorteil auf, wenn alle die gleichen Modelle verwenden?
Besitze die UX
Wir fangen gerade erst an, die Kräfte zu verstehen, die im latenten Raum dieser großen Modelle verborgen sind. Je mehr Kontext Sie diesen Modellen geben können, desto besser werden sie und sie können schnell sehr gut bei Aufgaben werden , die zuvor eine enorme Menge an robuster Technik erforderten. Eine zu stellende Frage lautet: „ Wird die einzige Schnittstelle zu diesen leistungsstarken Modellen für immer ein einfaches, statisches Textfeld sein? “.
Die meisten Verbraucher sind sehr wenig KI-bewusst, sodass ihnen das bloße Hinstellen vor ein Model sehr selten bei der Lösung ihres Problems helfen wird. UX-Design ist heute ein großes ( und vielleicht sogar das größte ) Problem bei KI-Produkten.
Der Schwerpunkt muss auf umfassenden Workflows liegen, um den erforderlichen Kontext von Benutzern für optimale Eingabeaufforderungen zu sammeln. Es muss auch intuitive Workflows zum Sammeln von Feedback-Daten für die Feinabstimmung von Modellen geben, um einen Burggraben weiter aufzubauen.
Es gibt eine große Lücke zwischen dem „Wow“-Moment eines generativen Modells und jemandem dazu zu bringen, ein zahlender Benutzer zu werden – der Großteil dieser Lücke wird mit einer großartigen UX gefüllt. Jasper.ai ist ein großartiges Beispiel für ein Unternehmen, das dies umgesetzt hat und jetzt Gerüchten zufolge auf 80 Millionen Dollar ARR zusteuert, nachdem es erst im letzten Jahr gestartet wurde.
Nutzen Sie Prompt Engineering
Es gibt jetzt eine leere Leinwand, wenn wir uns ansehen, wie wir mit KI interagieren , was zu einer Verlagerung des Fokus auf Prompt Engineering statt auf statistische Modelle geführt hat. Dies bedeutet im Großen und Ganzen, Ihre Eingaben in ein Modell zu integrieren und auf Einfachheit, Genauigkeit und Kosten zu optimieren . Einige Beispiele sind:
- Zero-Shot – eine Eingabeaufforderung in natürlicher Sprache, als würden Sie ein Kleinkind (das fast die gesamte Wikipedia gelesen hat) bitten, etwas zu tun, z. B. wäre die Eingabe „Aufgabenbeschreibung“: {Zieltext}. Dies ist eindeutig die einfachste Art, mit KI zu interagieren.
- Few-Shot – Hinzufügen einiger Beispiele und etwas Kontext zur erwarteten Ausgabe (siehe Abbildung unten). Dies erfordert mehr „Engineering“, kann aber die Genauigkeit erheblich verbessern . Das Hinzufügen von Kontext zu jeder Eingabeaufforderung bedeutet jedoch, dass dies viel mehr kosten kann (mehr dazu weiter unten).
- Feinabstimmung – Nehmen Sie viele (Hunderte oder Tausende) Beispiele und trainieren Sie ein vorab trainiertes Modell erneut, um die Parameter so zu ändern, dass Sie nicht mehr Beispiele in jede Eingabeaufforderung einfügen müssen. Dieser Prozess kann sehr teuer sein und kann Millionen kosten, aber wenn er fertig ist, ist er fertig.
Konzentrieren Sie sich auf den Anwendungsfall
KI wird zu einer Plattform, ähnlich wie Cloud oder Mobile. Es gibt viele Unternehmen, die sich auf den Aufbau dieser Plattform konzentrieren, und es besteht kein Zweifel, dass sie einen enormen Wert erzielen werden, was durch die Bewertung von OpenAI in Höhe von 20 Milliarden US-Dollar belegt wird. Es gibt jedoch einen Grund, warum sich AWS nicht auf den Aufbau vertikaler SaaS-Lösungen konzentriert – es ist extrem schwierig, sich sowohl auf den Aufbau einer Plattform als auch auf die Erstellung von Anwendungsfällen auf dieser Plattform zu konzentrieren, was durch die mittelmäßigen Apps von Apple weiter belegt wird. Wir glauben, dass es einen enormen Mehrwert gibt, sich auf bestimmte KI-Anwendungsfälle und -Anwendungen zu konzentrieren, ähnlich wie das Uber-Geschäftsmodell durch Mobilgeräte erschlossen wurde.
Allerdings ist dieser Business Case mit Vorsicht zu genießen. Es gibt viele Anwendungsfälle von KI, die eher im Bereich „Features“ als in einem vollständigen Produkt angesiedelt sind. PhotoRoom , mit dem wir kürzlich eine Partnerschaft eingegangen sind, war eines der ersten Unternehmen, das Stable Diffusion zum Aufbau einer sehr praktischen KI-Funktion nutzte, und hat nun sein Wachstum beschleunigt. Viele größere Unternehmen wie Notion und Microsoft nutzen jetzt Standardmodelle zur Verbesserung ihrer Produkte, was weiter beweist, dass die Strategie, Benutzeroberflächen und sofortiges Engineering zu besitzen, anstatt eigene Modelle zu entwickeln, erfolgreich zu sein scheint.
Ich sollte auch darauf hinweisen, dass es unter bestimmten Umständen sinnvoll sein kann, das Modell zu besitzen und KI von Grund auf neu zu entwickeln. Ein besonders spannender Bereich sind Decision Transformers und die Nutzung der bahnbrechenden Modellarchitektur zur Generierung von Aktionen und nicht nur von Inhalten. Adept.ai ist ein großartiges Unternehmen, das genau das tut. Ich werde das in einem anderen Beitrag weiter untersuchen…
Modellnomics verstehen
OpenAI berechnet 0,02 $ pro 1000 Token (ungefähr 750 Wörter) und dies ist von 0,06 $ in diesem Sommer gesunken. Beim Lernen mit wenigen Schüssen können bis zu 90 % der Eingabeaufforderung „Kontext“ sein, was bedeutet, dass die Kosten etwa das 10-fache des Zero-Shot betragen können. Kluge Unternehmen können sich einen Vorteil verschaffen, indem sie das Verhältnis von „Kontext“ zu „Zieltext“ optimieren und clevere Dinge tun, wie z. B. alle Wörter aus dem „Zieltext“ zu entfernen, die sich nicht auf die Ausgabe auswirken.
Es ist klar, dass Unternehmen, die auf Modellen von Drittanbietern aufbauen, potenziell einem Preisrisiko ausgesetzt sind, genauso wie Unternehmen, die auf der Cloud aufbauen, einem Preisrisiko für Cloud-Anbieter unterliegen. Wir glauben, dass KI das gleiche Gleichgewicht finden wird, das Cloud hat, da der generierte Wert es rechtfertigt, für die Agilität und Leistung zu zahlen, die von Drittunternehmen wie OpenAI bereitgestellt werden. Viele KI-Unternehmen in der Frühphase, die wir kennengelernt haben, können mit einer Bruttomarge von 70–80 % arbeiten, und wir glauben, dass diese steigen wird, wenn sie in der Lage sind, ihr Wertversprechen in Zukunft zu steigern.
Darüber hinaus ist es erwähnenswert, dass der Großteil der Cloud-Datenverarbeitung bereits für Deep-Learning-Anwendungsfälle vorgesehen ist. Dies deutet darauf hin, dass die Preisgestaltung für KI-Plattformen in der gleichen Region liegen könnte wie Cloud-Computing heute, was für die meisten Unternehmen in Ordnung zu sein scheint.
Es besteht eine realistische Wahrscheinlichkeit, dass die Rechenleistung mit der Modellerweiterung aufholt, sodass Modelle auf dem neuesten Stand der Technik (oder zumindest nahezu dem Stand der Technik) auf dem Gerät ausgeführt werden können – dies würde bedeuten, dass die Grenzkosten der KI gegen Null tendieren. Stability.ai ist bereits in der Lage, einige ihrer Modelle auf dem Gerät auszuführen , was die Grenzkosten für einige Aufgaben schließlich auf null senken könnte. Es gibt auch eine zunehmende Anzahl von KI-Plattformen ( Cohere , AI21 usw.), von denen sich viele dafür entscheiden, ihre Modelle als Open Source zu veröffentlichen. Erwähnenswert ist auch, dass es einige clevere Möglichkeiten gibt, die Kosten zu minimieren , wie z. B. die Musterdestillation.
Dies schränkt ihre allgemeine Preissetzungsmacht ein und sie müssen möglicherweise kreativere Geschäftsmodelle entwickeln, zusätzlich zu API-Aufrufen, um ihre Forschung zu monetarisieren.
Fazit
Wenn der Markt groß genug ist, glauben wir, dass es ein enormes Potenzial für Start-up-Störungen gibt, indem Anwendungen von Grund auf neu entwickelt werden, wobei Standardmodelle im Mittelpunkt stehen. Gong und Otter zum Beispiel sind zwei großartige Unternehmen, die Produkte auf der Grundlage proprietärer Transkriptionsmodelle entwickelt haben.
Jetzt, da hochmoderne Transkriptionsmodelle auf dem Markt sind und die Kosten für KI gegen Null tendieren, sind die Wettbewerbsbedingungen gleich. Dies hat Start-ups eine enorme Chance eröffnet, auf dem massiven Produktivitätsmarkt durch den Besitz der UX- und Prompt-Engineering-Ebene einen Mehrwert zu erzielen. Wenn Sie ein Gründer sind, der KI nutzt, würden wir gerne mit Ihnen sprechen – zögern Sie nicht, mich unter [email protected] zu erreichen