Google wprowadza nowe funkcje do Gemini Live – AI widzi otoczenie w czasie rzeczywistym
Google ogłosił rozpoczęcie wdrażania rewolucyjnych funkcji do swojego asystenta Gemini Live, opartych na technologii z Project Astra. AI w czasie rzeczywistym może analizować rejestrowany obraz wideo otoczenia.
Użytkownicy smartfonów z Androidem, którzy subskrybują plan Gemini Advanced w ramach Google One AI Premium, zyskują dostęp do dwóch nowych możliwości: udostępniania ekranu i przesyłania obrazu z kamery w czasie rzeczywistym. Te innowacje pozwalają AI na „widzenie” i interaktywne reagowanie na to, co dzieje się na ekranie telefonu lub w otoczeniu użytkownika.
Pierwsza z nowych funkcji umożliwia Gemini Live przeglądanie zawartości wyświetlacza smartfona i prowadzenie rozmowy na jej temat. Przykładowo, Gemini AI może podsumować przeglądany w danym momencie artykuł, wyjaśnić dane z wykresu czy pomóc w zrozumieniu skomplikowanego interfejsu. To rozwiązanie, dostępne po włączeniu opcji w aplikacji, otwiera nowe możliwości dla użytkowników potrzebujących szybkiej analizy lub wsparcia w czasie rzeczywistym, stawiając Gemini w roli bardziej wszechstronnego towarzysza.
Drugą nowością jest opcja strumieniowania wideo na żywo z kamery telefonu, co pozwala Gemini Live „widzieć” otoczenie i odpowiadać na pytania związane z tym, co AI „widzi” za pośrednictwem optyki smartfona. W demonstracji Google pokazano, jak użytkownik pyta asystenta o wybór koloru farby do ceramiki, wskazując kamerą na próbki – AI natychmiast udzieliło odpowiedzi. Funkcja, aktywowana w interfejsie Gemini Live, przypomina wcześniejsze zapowiedzi Project Astra z maja 2024 roku, kiedy Google prezentowało wizję asystenta rozumiejącego świat wizualny w czasie rzeczywistym.
Nowe możliwości Gemini Live zaczęły być wprowadzane w marcu 2025 roku, po zapowiedziach z Mobile World Congress. Na razie funkcje są dostępne tylko dla wybranych subskrybentów Gemini Advanced i nie wszyscy użytkownicy mogą z nich skorzystać od razu. Google potwierdziło, że rollout jest stopniowy, co ma zapewnić stabilność i dopracowanie technologii. Firma podkreśla, że to dopiero początek – kolejne ulepszenia oparte na Astrze mogą pojawić się w nadchodzących miesiącach.
Wdrożenie tych funkcji stawia Google Gemini Live w czołówce asystentów AI, dystansując konkurentów takich jak Alexa Plus od Amazon czy wciąż opóźniona nowa wersja Siri od Apple. Możliwość interakcji z wizualnym kontekstem użytkownika to krok w stronę bardziej naturalnej i intuicyjnej komunikacji z technologią. Entuzjaści AI i użytkownicy Androida z niecierpliwością czekają na pełne udostępnienie nowości, widząc w nich potencjał do zmiany sposobu, w jaki korzystamy z inteligentnych asystentów na co dzień.
Asystent Google przechodzi na emeryturę. Gemini przejmuje stery