Google daje wzrok Gemini Live na Androida

Google kontynuuje rozwój swojego zaawansowanego modelu AI, Gemini, wprowadzając nowe, interaktywne możliwości do aplikacji mobilnej na Androida. Jak ogłosiła Isha Sheth, starsza menedżer produktu ds. aplikacji Gemini, funkcja Gemini Live, pozwalająca na prowadzenie rozmów głosowych z AI na temat tego, co widzi kamera telefonu lub co znajduje się na jego ekranie, staje się szerzej dostępna.

Marian Szutiak (msnet)
3
Udostępnij na fb
Udostępnij na X
Google daje wzrok Gemini Live na Androida

Rozmowa z AI o tym, co widzisz

Gemini Live w nowej odsłonie umożliwia prowadzenie naturalnych, swobodnych konwersacji z Gemini w ponad 45 językach, ale z kluczowym dodatkiem – możliwością dostarczania kontekstu wizualnego w czasie rzeczywistym. Użytkownik może skierować aparat smartfonu na dowolny obiekt lub sytuację albo udostępnić zawartość swojego ekranu, a następnie głosowo zadać pytanie lub poprosić o pomoc dotyczącą tego, co Gemini "widzi". Ta funkcja była wdrażana od marca dla subskrybentów płatnego planu Gemini Advanced na Androidzie i jest już dla nich w pełni dostępna.

Dalsza część tekstu pod wideo

Szersze udostępnienie – kto i kiedy?

Dziś, 7 kwietnia 2025 roku, Google rozpoczyna proces udostępniania tych funkcji szerszemu gronu użytkowników aplikacji Gemini. Jak czytamy w oficjalnym komunikacie, w pierwszej kolejności dostęp otrzymają wszyscy użytkownicy aplikacji Gemini na urządzeniach Pixel 9 oraz Samsung Galaxy S25. Niezależnie od tego, subskrybenci Gemini Advanced na obecnych urządzeniach z Androidem mogą już testować te nowości.

Praktyczne zastosowania Gemini Live z wizją

Google podaje kilka przykładów, jak użytkownicy już teraz wykorzystują nowe możliwości Gemini Live, aby ułatwić sobie życie:

  • Organizacja przestrzeni. Masz zagraconą szufladę lub szafę? Skieruj na nią kamerę i poproś Gemini o sugestie, jak pogrupować przedmioty, co wyrzucić, a jak maksymalnie wykorzystać dostępne miejsce. AI podpowie rozwiązania w czasie rzeczywistym.
  • Kreatywna burza mózgów. Brakuje Ci pomysłów? Udostępnij Gemini ekran ze zdjęciami, które Cię inspirują (np. faktura drewna, kolory z targu) i poproś o pomysły na projekty artystyczne, teksty czy rękodzieło.
  • Rozwiązywanie problemów i pomoc techniczna. Skrzypiące krzesło? Niedziałający gramofon? Pokaż problem Gemini za pomocą kamery, a AI pomoże Ci zdiagnozować usterkę i zaproponuje plan działania krok po kroku.
  • Osobisty asystent zakupowy. Przeglądasz sklepy internetowe i nie możesz się zdecydować? Udostępnij ekran Gemini, aby uzyskać porównanie produktów lub porady stylistyczne. Możesz też pokazać kamerą ubrania ze swojej szafy i zapytać, co do nich pasuje.
  • Rozwój umiejętności i feedback. Pracujesz nad postem na bloga, kampanią w social media lub wybierasz zdjęcia? Udostępnij ekran Gemini, aby uzyskać cenne wskazówki dotyczące treści, układu, podpisów czy ogólnej kompozycji. AI przeanalizuje materiał i zaproponuje ulepszenia.

Przyszłość Interakcji z AI

Wprowadzenie możliwości analizy obrazu z kamery i udostępniania ekranu w Gemini Live to kolejny krok w kierunku uczynienia sztucznej inteligencji bardziej intuicyjnym, kontekstowym i użytecznym narzędziem w codziennym życiu. Funkcje te otwierają zupełnie nowe scenariusze wykorzystania AI, daleko wykraczające poza tradycyjne zapytania tekstowe czy głosowe. Jeśli jesteś subskrybentem Gemini Advanced lub planujesz zakup najnowszych flagowców Google'a lub Samsunga, z pewnością warto będzie wypróbować te innowacyjne możliwości.

Google daje wzrok Gemini Live na Androida