No TED2025, o Google mostrou óculos inteligentes elegantes com um HUD, embora a empresa os tenha descrito como “hardware conceitual”.
Shahram Izadi, a liderança do Android XR do Google, subiu ao palco do TED no início deste mês para mostrar os óculos HUD e O próximo fone de ouvido XR da Samsunge a conversa de 15 minutos é agora publicamente disponível para assistir.
Uma supercut da demonstração do TED2025.
Os óculos apresentam uma câmera, microfones e alto -falantes, como o Ray-Ban Meta óculosmas também tem uma “minúscula alta resolução na tela de lentes que é a cor”. A tela parece ser monocular e refratante a luz na lente direita quando vista de certos ângulos da câmera durante a demonstração e possui um campo de visão relativamente pequeno.
A demonstração se concentra no sistema de IA de conversação multimodal Gemini do Google, incluindo o recurso Astra do Projeto que permite lembrar o que ele vê através de “codificando continuamente quadros de vídeo, combinando o vídeo e a entrada de discursos em uma linha do tempo dos eventos e armazenando em cache essas informações para recall eficiente”.
Aqui está tudo o que Izadi e sua colega Nishtha Bhatia se mostram na demonstração:
- Multimodal básico: Bhatia pede a Gemini para escrever um haiku com base no que está vendo, enquanto olha para o público, e ele responde “enfrenta todos os águidos. Mentes ansiosas aguardam as palavras. Faíscas de pensamento acendem”
- Rolando memória contextual: Depois de desviar o olhar de uma prateleira, que contém objetos, incluindo um livro, Bhatia pergunta a Gêmeos o que o título é de “o livro branco que estava na prateleira atrás de mim” e responde corretamente. Ela então tenta uma pergunta mais difícil, perguntando simplesmente onde está seu “cartão -chave do hotel”, sem dar a pista sobre a prateleira. Gêmeos respondem corretamente que é à direita do disco musical.
- Multimodal complexo: Segurando um livro aberto, Bhatia pergunta a Gêmeos que diagrama significa, e Gêmeos responde corretamente.
- Tradução: Bhatia olha para uma placa espanhola e, sem dizer a Gêmeos que idioma é, pede a Gemini para traduzi -lo para o inglês. É bem -sucedido. Para provar que a demonstração está ao vivo, Izadi então pede ao público que escolha outro idioma, alguém escolhe Farsi e Gemini traduz com sucesso o sinal para Farsi também.
- Suporte de vários idiomas: Bhatia fala com Gêmeos em hindi, sem precisar mudar qualquer idioma “modo” ou “configuração”, e responde instantaneamente em hindi.
- Agir (música): Como exemplo de como Gêmeos nos óculos podem desencadear ações em seu telefone, Bhatia olha para um álbum físico que ela está segurando e diz a Gemini para tocar uma faixa. Começa a música em seu telefone, transmitindo -a para os óculos via Bluetooth.
- Navegação: Bhatia pede a Gêmeos que “me navegue até um parque próximo com vistas do oceano”. Quando ela está olhando diretamente para a frente, ela vê uma instrução 2D de turn-turn, enquanto, quando olha para baixo, vê um minimap 3D (embora fixo) mostrando a rota da jornada.
O Google provoca óculos inteligentes AI com um HUD em E/O 2024
O Google provocou óculos Smart Multimodal AI com um HUD na E/O 2024.

Esta não é a primeira vez que o Google exibe óculos inteligentes com um HUD, e não é a primeira vez que a demonstração se concentra nas capacidades do projeto de Gemini. No Google I/O 2024, há quase um ano, a empresa mostrou Uma demonstração curta pré -gravada da tecnologia.
Os óculos do ano passado eram notavelmente mais volumosos do que o mostrado no TED2025, no entanto, sugerindo que a empresa está trabalhando ativamente na miniaturização com o objetivo de entregar um produto.
No entanto, Izadi ainda descreve o que o Google está mostrando como “hardware conceitual”, e a empresa não anunciou nenhum produto específico, nem uma linha do tempo do produto.
Em outubro, a Sylvia Varnham O’Regan da informação relatado O fato de a Samsung estar trabalhando em um concorrente de Ray-Ban Meta Glasses com o Google Gemini AI, embora não esteja claro se esse produto terá um HUD.
Preço de óculos de meta hud, recursos e dispositivo de entrada revelados
Um novo relatório da Bloomberg detalha o preço e os recursos dos próximos óculos HUD da Meta e afirma que a pulseira neural de Meta estará na caixa.

Se tiver um HUD, não estará sozinho no mercado. Além das dezenas de startups que exibiram protótipos na CES, a Meta de Mark Zuckerberg planeja lançar seus próprios óculos inteligentes com um HUD ainda este ano.
Como os óculos que o Google mostrou no TED2025, os óculos da Meta têm uma pequena exibição no olho direito e um forte foco na IA multimodal (no caso da Meta, a meta-IA movida a lhama).
Ao contrário dos óculos do Google, que pareciam ser controlados principalmente pela voz, os óculos HUD da Meta também serão controláveis por gestos de dedos, detectados por uma pulseira neural SEMG incluída.
Apple também é segundo Trabalhando em óculos inteligentes, com planos aparentes para lançar um produto em 2027.
Apple Explorando liberando óculos inteligentes em 2027
A Apple parece estar explorando a fabricação de óculos inteligentes e, supostamente, poderia enviar um produto em 2027.

Todas as três empresas provavelmente esperam aproveitar o sucesso inicial dos meta-óculos de Ray-Ban, que passaram recentemente 2 milhões de unidades vendidas, e verão seus A produção aumentou muito.
Espere que a concorrência em óculos inteligentes seja acirrada nos próximos anos, pois os gigantes da tecnologia lutam pelo controle da IA que vê o que você vê e ouve o que ouve, com a capacidade de projetar imagens em sua opinião a qualquer momento.
Leave a Reply