O Google começou a liberar uma nova função para o Gemini que amplia a forma como o assistente de inteligência artificial entende o que está ao redor. A ferramenta foi formalmente anunciada durante o Mobile World Congress (MWC) 2025, um evento de tecnologia e telecomunicações que aconteceu em Barcelona, Espanha, entre os dias 3 e 6 de março.
A novidade faz parte do Project Astra e vem sendo testada por usuários com acesso ao plano premium.
IA Gemini pode usar a câmera do celular?
Sim, o Gemini agora consegue acessar a câmera do celular para enxergar o ambiente em tempo real. A função faz parte do Gemini Live, ferramenta de interação por voz com a IA e, por enquanto, está disponível para aparelhos Android. Com a câmera ativada, o assistente identifica objetos, lê textos e responde perguntas com base na imagem captada.
Veja abaixo como ativar o recurso no celular:
- Abra o aplicativo do Gemini em um celular compatível com o recurso.
- Toque para iniciar uma conversa com o Gemini Live, o chat de voz da IA.
- Aguarde as sugestões aparecerem acima da caixa de texto.
- Selecione a opção “Share screen with Live” (“Compartilhe a tela com o Live”, em português) ou “Ask about screen” (“Pergunte sobre algo da tela”).
- Ao permitir o compartilhamento, o assistente poderá ver o que está na tela do celular.
- Para usar a câmera, ative a função de vídeo no Gemini Live.
- Escolha entre a câmera traseira ou frontal, conforme desejar.
- Aponte o celular para o que você quer mostrar e faça sua pergunta por voz.
- O Gemini responderá em tempo real, com base no que estiver captando.
- Você pode encerrar a transmissão a qualquer momento.
A IA já conseguia interpretar imagens, documentos e prints de tela enviados manualmente. Mas o novo formato permite que tudo ocorra de forma instantânea, otimizando a experiência e deixando a interação mais natural.
Em uma das demonstrações feitas pelo Google, o Gemini respondeu em voz quase instantaneamente, analisando o que aparecia na tela e devolvendo a resposta em áudio. A ferramenta também foi capaz de reconhecer objetos com precisão, indicando inclusive onde eles estavam posicionados na imagem.
Quem pode usar essa função agora?
Inicialmente, o Google anunciou suporte para os celulares Pixel e Galaxy S25. Porém, usuários com aparelhos Xiaomi também relataram acesso à novidade. Isso sugere que o recurso está sendo liberado aos poucos em diferentes modelos Android.
Vale destacar que o uso da função está vinculado ao plano Gemini Advanced, oferecido dentro do Google One IA Premium, com valor mensal de R$ 96,99, com o primeiro mês gratuito.
Lançamento completo ainda não tem data definida
O novo recurso está em fase de liberação por etapas. Ainda não há previsão de quando estará disponível para todos os usuários ou se chegará a outras plataformas além do Android. A expectativa é que o acesso se amplie nos próximos meses, à medida que o Google testa o desempenho da ferramenta em diferentes aparelhos.
Enquanto isso, quem já tem acesso pode experimentar uma nova forma de interação com IA — agora com suporte visual direto da câmera. Veja neste link um pouco mais sobre o Gemini Live :
LEIA MAIS
Indiana Jones e o Grande Círculo chega para PlayStation 5 em 17 de abril