Dlaczego UX jest polem bitwy o przyszłość sztucznej inteligencji
Dla tych, którzy są nowi w tej przestrzeni, przechodzimy jedną z największych zmian technologicznych od czasu przetwarzania w chmurze. Nie będę spędzać zbyt wiele czasu na tej zmianie, ponieważ publikowanych jest wiele świetnych podsumowań i map rynkowych , ale oto slajd, który zrobiłem, aby podsumować to, co się dzieje.
Jednym z pytań, które często pojawia się podczas badania niedawnej kambryjskiej eksplozji aplikacji opartych na sztucznej inteligencji, jest możliwość obrony . Dzieje się tak, ponieważ inwestorzy i założyciele są bardzo świadomi, że modele AI stają się towarem, więc wartość sieci neuronowej w aplikacji AI szybko spada.
Modele te zostały udostępnione publicznie przez firmy takie jak OpenAI i Stability.ai . Jeśli jeszcze nie bawiłeś się GPT-3 (model hostowany przez OpenAI), zdecydowanie radzę to zrobić, abyś mógł docenić niemal magiczną moc gotowych modeli. Warto zauważyć, że nawet gdybyś chciał zbudować własne modele, staje się to teraz coraz trudniejsze, ponieważ badania AI stają się funkcją siły bilansu.
NLP znacznie się rozwinęło w ostatniej dekadzie — sieci LSTM znacznie zwiększyły wydajność sieci RNN dzięki ich zdolności do selektywnego zapamiętywania lub zapominania różnych części sekwencji. Transformatory i „mechanizm uwagi” (wraz z prawami skalowania) spowodowały następnie skokową zmianę tego, co było możliwe, ponieważ modele te zaczęły naprawdę rozumieć język. Teraz modele rozpowszechniania zmieniają sposób, w jaki możemy generować treści we wszystkich formach. Kiedyś przełomy w głębokim uczeniu się były wykorzystywane do budowania przewagi konkurencyjnej, jednak nastąpiła zmiana kulturowa i technologiczna ( Hugging Face miała dużą rolę do odegrania) w udostępnieniu tych wstępnie wyszkolonych modeli. Deweloperzy mogą teraz osadzać najnowocześniejszą sztuczną inteligencję w swoich produktach za pomocą kilku linii kodu.
Ale jak zbudować przewagę konkurencyjną, gdy wszyscy korzystają z tych samych modeli?
Posiadaj UX
Dopiero zaczynamy rozumieć moce ukryte w ukrytej przestrzeni tych dużych modeli. Im więcej kontekstu możesz zapewnić tym modelom, tym lepsze się staną i mogą szybko stać się bardzo dobre w zadaniach , które wcześniej wymagały ogromnej ilości solidnej inżynierii. Jedno pytanie, które należy zadać, brzmi: „ Czy jedynym interfejsem do tych potężnych modeli na zawsze będzie proste, statyczne pole tekstowe? ”.
Większość konsumentów jest bardzo nieświadoma sztucznej inteligencji, więc samo postawienie ich przed modelem bardzo rzadko pomoże im w rozwiązaniu problemu. Projektowanie UX jest obecnie dużym ( a może nawet największym ) problemem w produktach AI.
Należy skupić się na kompleksowych przepływach pracy, aby pomóc zebrać wymagany kontekst od użytkowników w celu uzyskania optymalnych monitów. Muszą również istnieć intuicyjne przepływy pracy do zbierania danych zwrotnych w celu dopracowania modeli w celu dalszej budowy fosy.
Istnieje duża przepaść między momentem „wow” modelu generatywnego a skłonieniem kogoś do zostania płacącym użytkownikiem — większość tej luki jest wypełniona świetnym UX. Jasper.ai jest doskonałym przykładem firmy, która zrealizowała ten cel i podobno zbliża się do 80 mln USD ARR, po uruchomieniu dopiero w zeszłym roku.
Wykorzystaj szybką inżynierię
Przyglądając się, w jaki sposób wchodzimy w interakcje ze sztuczną inteligencją, mamy teraz puste płótno , co doprowadziło do przesunięcia uwagi na Prompt Engineering, a nie na modele statystyczne. Zasadniczo oznacza to opracowywanie danych wejściowych do modelu, optymalizację pod kątem łatwości, dokładności i kosztów . Oto kilka przykładów:
- Zero-Shot — podpowiedź w języku naturalnym, jakbyś prosił malucha (który przeczytał większość całej Wikipedii) o zrobienie czegoś, np. wejście to „opis zadania”: {tekst docelowy}. Jest to zdecydowanie najprostszy sposób interakcji z AI.
- Few-Shot — dodanie kilku przykładów i kontekstu dotyczącego oczekiwanego wyniku (patrz obrazek poniżej). Wymaga to więcej „inżynierii”, ale może znacznie poprawić dokładność . Jednak dodanie kontekstu do każdego monitu oznacza, że może to kosztować znacznie więcej (więcej na ten temat poniżej).
- Dostrajanie — pobieranie wielu (setek lub tysięcy) przykładów i ponowne uczenie wstępnie wytrenowanego modelu w celu zmiany parametrów w taki sposób, że nie trzeba już umieszczać przykładów w każdym monicie. Ten proces może być bardzo kosztowny i może kosztować miliony dolarów, ale kiedy już się skończy, jest skończony.
Skoncentruj się na przypadku użycia
AI staje się platformą podobną do Cloud czy Mobile. Istnieje wiele firm skupiających się na budowie tej platformy i nie ma wątpliwości, że przechwycą ogromną wartość, o czym świadczy wycena OpenAI na 20 miliardów dolarów. Istnieje jednak powód, dla którego AWS nie koncentruje się na budowaniu pionowych rozwiązań SaaS — niezwykle trudno jest skupić się zarówno na budowaniu platformy, jak i budowaniu przypadków użycia na tej platformie, czego dowodem są przeciętne aplikacje Apple. Wierzymy, że skupienie się na konkretnych przypadkach użycia i aplikacjach sztucznej inteligencji ma ogromną wartość do odblokowania, podobnie jak model biznesowy Uber został odblokowany przez urządzenia mobilne.
Jednak ten przypadek biznesowy należy traktować z przymrużeniem oka. Istnieje wiele przypadków użycia sztucznej inteligencji, które w dużej mierze mieszczą się w segmencie „funkcji”, a nie w pełnym produkcie. PhotoRoom , z którym niedawno nawiązaliśmy współpracę, był jedną z pierwszych firm, które wykorzystały Stable Diffusion do stworzenia bardzo praktycznej funkcji sztucznej inteligencji, a teraz przyspieszył rozwój. Wiele większych korporacji, takich jak Notion i Microsoft , wykorzystuje obecnie gotowe modele do ulepszania swoich produktów, co dodatkowo dowodzi, że strategia polegająca na posiadaniu interfejsu użytkownika i szybkiej inżynierii zamiast tworzenia własnych modeli wydaje się zwycięska.
Powinienem również zastrzec, że w pewnych okolicznościach posiadanie modelu i zbudowanie sztucznej inteligencji od podstaw może mieć sens. Jednym ze szczególnie ekscytujących obszarów są Transformatory decyzji i wykorzystanie przełomowej architektury modeli do generowania działań, a nie tylko treści. Adept.ai to niesamowita firma, która właśnie to robi. Omówię to dokładniej w innym poście…
Zrozumienie modelu-nomiki
OpenAI pobiera 0,02 USD za 1000 tokenów (około 750 słów), a tego lata spadło z 0,06 USD. W przypadku uczenia się metodą kilku strzałów do 90% zachęty może stanowić „kontekst”, co oznacza, że koszty mogą być ~10 razy wyższe niż w przypadku próby zerowej. Sprytne firmy mogą zyskać przewagę, optymalizując stosunek „kontekstu” do „tekstu docelowego” i robiąc sprytne rzeczy, takie jak usuwanie z „tekstu docelowego” wszelkich słów, które nie mają wpływu na wynik.
Oczywiste jest, że firmy zbudowane na modelach stron trzecich są potencjalnie narażone na ryzyko cenowe w taki sam sposób, w jaki firmy zbudowane na chmurze są narażone na ryzyko cenowe dla dostawców usług w chmurze. Wierzymy, że sztuczna inteligencja znajdzie taką samą równowagę, jak chmura, ponieważ wygenerowana wartość uzasadnia płacenie za elastyczność i moc zapewnianą przez firmy zewnętrzne, takie jak OpenAI. Wiele firm zajmujących się sztuczną inteligencją na wczesnym etapie, z którymi się spotkaliśmy, jest w stanie działać z marżą brutto na poziomie 70–80% i sądzimy, że będzie ona rosła, ponieważ będą one w stanie zwiększyć swoją propozycję wartości w przyszłości.
Ponadto warto zauważyć, że większość obliczeń w chmurze jest już przeznaczona do zastosowań związanych z głębokim uczeniem. To sygnalizuje, że stały stan cen platform sztucznej inteligencji może znajdować się w tym samym regionie, co obecnie przetwarzanie w chmurze, z czym większość firm wydaje się być w porządku.
Istnieje realistyczne prawdopodobieństwo, że moc obliczeniowa dogoni rozbudowę modelu, dzięki czemu najnowocześniejsze (lub przynajmniej zbliżone do najnowocześniejszych) modele będą mogły być uruchamiane na urządzeniu — oznaczałoby to, że koszt krańcowy sztucznej inteligencji zmierza do zera. Stability.ai jest już w stanie uruchomić niektóre ze swoich modeli na urządzeniu , co może ostatecznie obniżyć koszt krańcowy niektórych zadań do zera. Istnieje również coraz większa liczba platform AI ( Cohere , AI21 itp.), z których wiele decyduje się na udostępnianie swoich modeli na zasadach open source. Warto również wspomnieć, że istnieje kilka sprytnych sposobów na zminimalizowanie kosztów , takich jak destylacja modeli.
Ogranicza to ich ogólną siłę cenową i być może będą musieli wymyślić bardziej kreatywne modele biznesowe, oprócz wywołań API, aby zarabiać na swoich badaniach.
Wniosek
Jeśli rynek jest wystarczająco duży, wierzymy, że istnieje ogromny potencjał przełomu dla start-upów poprzez tworzenie aplikacji od podstaw, z gotowymi modelami w ich rdzeniu. Na przykład Gong i Otter to dwie wspaniałe firmy, które zbudowały produkty na podstawie zastrzeżonych modeli transkrypcji.
Teraz, gdy najnowocześniejsze modele transkrypcji są otwarte , a koszt sztucznej inteligencji zmierza do zera, jest to równe szanse. Otworzyło to ogromną szansę dla start-upów na zdobycie wartości na ogromnym rynku produktywności poprzez posiadanie warstwy UX i Prompt Engineering. Jeśli jesteś założycielem wykorzystującym sztuczną inteligencję, chętnie z Tobą porozmawiamy — skontaktuj się ze mną pod adresem [email protected]
