Google I/O: praktyczne doświadczenie z Project Astra, asystentem AI przyszłości

May 15 2024
Po co zawracać sobie głowę grzebaniem w swoim urządzeniu, skoro możesz po prostu z nim porozmawiać i pokazać mu różne rzeczy?
Znak Project Astra w piaskownicy Google I/O AI.

Jak zwykle Google I/O 2024 to absolutny zalew nowości i ogłoszeń. W tym roku, zamiast skupiać się na sprzęcie, Androidzie czy przeglądarce Chrome, Google spędził większość tegorocznej konferencji programistów na przekonywaniu nas, że funkcje sztucznej inteligencji są warte potraktowania priorytetowo. Jednym z takich projektów jest Project Astra, multimodalny asystent AI, z którym można półrozmawiać i który jednocześnie może używać kamery do identyfikacji obiektów i osób.

powiązana zawartość

Czego można się spodziewać po Google I/O 2024
Jak wrócić do Asystenta Google po przejściu na Gemini

Mówię „pół”, bo po demie widać, że ta część Gemini jest w powijakach. Spędziłem kilka krótkich minut z Project Astra na Pixelu 8 Pro, aby zobaczyć, jak to działa w czasie rzeczywistym. Nie miałem wystarczająco dużo czasu, aby przetestować go w pełnym zakresie lub spróbować oszukać, ale wyczułem, jak może wyglądać przyszłość jako użytkownik Androida.

powiązana zawartość

Czego można się spodziewać po Google I/O 2024
Jak wrócić do Asystenta Google po przejściu na Gemini
Czy nowy telefon Google Pixel za 1800 dolarów jest tego wart? | Recenzja Gizmodo
Udział
Napisy na filmie obcojęzycznym
  • Wyłączony
  • język angielski
Udostępnij ten film
Facebook Twitter E-mail
Link do Reddita
Czy nowy telefon Google Pixel za 1800 dolarów jest tego wart? | Recenzja Gizmodo

Zapytaj o prawie wszystko

Ideą Project Astra jest być asystentem, który prowadzi Cię także w realnym świecie. Może odpowiadać na pytania dotyczące otaczającego Cię środowiska, identyfikując przedmioty, twarze, nastroje i tekstylia. Może nawet pomóc Ci zapamiętać, gdzie ostatnio coś umieściłeś.

Zapowiedź trybu Pictionary w Project Astra, kolejnej oferty w pokoju demonstracyjnym.

Do wyboru były cztery różne demonstracje w ramach Projektu Astra. Obejmowały one tryb Narratora, w którym Bliźnięta muszą wymyślić historię na podstawie różnych danych wejściowych, oraz Pictionary, zasadniczo grę polegającą na zgadywaniu bazgrołów z komputerem. Dostępny był także tryb aliteracji, w którym sztuczna inteligencja wykazała się umiejętnością wyszukiwania słów zaczynających się na tę samą literę, a funkcja Free-Form umożliwiała komunikację w obie strony.

Demo, które dostałem, to wersja Free-Form na Pixel 8 Pro. Inny dziennikarz z mojej grupy wprost o to poprosił, więc większość naszej demonstracji skupiała się na jednoczesnym korzystaniu z urządzenia i trybu przypominającego asystenta.

Gemini poprawnie zidentyfikował telefon w dłoni osoby.

Gdy kamera była skierowana na innego dziennikarza, Pixela 8 Pro, i Gemini mogli zidentyfikować, że obiektem jest osoba – wyraźnie powiedzieliśmy, że osoba zidentyfikowana jako mężczyzna. Następnie prawidłowo zidentyfikowano, że miał przy sobie telefon. W kolejnym pytaniu nasza grupa zapytała o jego ubranie. Otrzymano ogólną odpowiedź, że „wygląda na to, że ma na sobie zwykłe ubranie”. Następnie zapytaliśmy, co robi, na co Projekt Astra odpowiedział, że wygląda na to, że zakłada okulary przeciwsłoneczne (miał rację) i przyjmuje swobodną pozę.

Chwyciłem na chwilę Pixela 8 Pro. Poprosiłem Bliźnięta, aby poprawnie zidentyfikowały doniczkę ze sztucznymi kwiatami. To były tulipany. Bliźnięta zauważyły, że one również są kolorowe. Od tego momentu nie byłem pewien, co jeszcze wywołać, a potem mój czas dobiegł końca. Wyszedłem z większą liczbą pytań niż wchodząc.

Bliźnięta prawidłowo rozpoznały, że sztuczne kwiaty to tulipany.

W przypadku sztucznej inteligencji Google wydaje się to skokiem wiary. Widzę, jak identyfikacja osoby i jej działań może być narzędziem ułatwiającym dostępność, pomagającym osobie niewidomej lub słabowidzącej w poruszaniu się po otaczającym ją świecie. Ale nie o to chodziło w tej demonstracji. Miało to na celu zaprezentowanie możliwości Projektu Astra i sposobu, w jaki będziemy z nim współdziałać.

Moje najważniejsze pytanie brzmi: czy coś takiego jak Project Astra zastąpi Asystenta Google na urządzeniach z Androidem? W końcu ta sztuczna inteligencja może zapamiętać, gdzie odłożyłeś swoje rzeczy i wychwycić niuanse — przynajmniej tak przekazało demo. Nie udało mi się uzyskać odpowiedzi od kilku osób z Google, o które pytałem. Mam jednak mocne przeczucie, że przyszłość Androida w mniejszym stopniu będzie polegać na dotykaniu telefonu w celu interakcji z telefonem, a bardziej na rozmowie z nim.