Zamknięcie Galactici

„Przetnij linie telefoniczne. Powstrzymaj rozprzestrzenianie się dezinformacji”. Był to cytat z serialu HBO „Czarnobyl”, który miał na celu zachowanie ludzi „spokojnych”, podczas gdy krach palił elektrownię jądrową.
Pomysł zamknięcia czegoś, aby utrzymać pokój, jest powszechnym tropem w opowiadaniu historii, nie tylko w fikcji, ale także w polityce.
Inny serial HBO, Dolina Krzemowa, kończy się w podobny sposób o zamknięciu czegoś, co wymknęło się spod kontroli. SkyNet, Czerwona Królowa, HAL 9000… masz obraz.
Kiedy więc Facebook ogłasza, że zamyka Galacticę, swój duży model językowy, umysł może natychmiast pomyśleć: „Co Facebook wie, czego ja nie wiem?”. Można by też pomyśleć, że Blake Lemoine i LaMDA Google'a stają się zbyt realne.
Jedną z skarg na Galacticę było to, że nie podawała poprawnych informacji w swoich pracach generatywnych. Tak jest w przypadku większości generatywnych AI. Może generować pracę, która brzmi poprawnie i jest dobrze sformułowana gramatycznie, ale ostatecznie błędna. Następnym krokiem jest nauczenie tych systemów, co jest właściwie poprawne, a co nie, a osądzeniem tego zajmie się człowiek.
Jeśli jako Midjourney robisz zdjęcia dłoni, otrzymasz oszałamiające fotorealistyczne obrazy dłoni, które ostatecznie mają od czterech i pół do siedmiu palców lub są zniekształcone w inny sposób:



Bardziej prawdopodobne, że Facebook po prostu nie widział sposobu na szybkie zarabianie na tej pracy. Pomysł jest genialny — mógłby wykorzystać tę technologię do wstępnego pisania postów na podstawie wydarzeń. Jednak uzyskanie czegoś, co działa, może zająć kolejny rok i miliard dolarów.
Parafrazując Two Minute Papers: badania nad sztuczną inteligencją to proces. Nie powinniśmy skupiać się na tym, co jest dostępne teraz, ale na tym, co może być dwoma artykułami badawczymi w przyszłości. Ostatecznie byłoby wspaniale, gdyby te prace badawcze zostały napisane przez ludzi, którzy faktycznie przeprowadzili badania.