No TED2025, o Google mostrou óculos inteligentes elegantes com um HUD, embora a empresa os tenha descrito como “hardware conceitual”.

Shahram Izadi, a liderança do Android XR do Google, subiu ao palco do TED no início deste mês para mostrar os óculos HUD e O próximo fone de ouvido XR da Samsunge a conversa de 15 minutos é agora publicamente disponível para assistir.

Uma supercut da demonstração do TED2025.

Os óculos apresentam uma câmera, microfones e alto -falantes, como o Ray-Ban Meta óculosmas também tem uma “minúscula alta resolução na tela de lentes que é a cor”. A tela parece ser monocular e refratante a luz na lente direita quando vista de certos ângulos da câmera durante a demonstração e possui um campo de visão relativamente pequeno.

A demonstração se concentra no sistema de IA de conversação multimodal Gemini do Google, incluindo o recurso Astra do Projeto que permite lembrar o que ele vê através de “codificando continuamente quadros de vídeo, combinando o vídeo e a entrada de discursos em uma linha do tempo dos eventos e armazenando em cache essas informações para recall eficiente”.

Aqui está tudo o que Izadi e sua colega Nishtha Bhatia se mostram na demonstração:

  • Multimodal básico: Bhatia pede a Gemini para escrever um haiku com base no que está vendo, enquanto olha para o público, e ele responde “enfrenta todos os águidos. Mentes ansiosas aguardam as palavras. Faíscas de pensamento acendem”
  • Rolando memória contextual: Depois de desviar o olhar de uma prateleira, que contém objetos, incluindo um livro, Bhatia pergunta a Gêmeos o que o título é de “o livro branco que estava na prateleira atrás de mim” e responde corretamente. Ela então tenta uma pergunta mais difícil, perguntando simplesmente onde está seu “cartão -chave do hotel”, sem dar a pista sobre a prateleira. Gêmeos respondem corretamente que é à direita do disco musical.
  • Multimodal complexo: Segurando um livro aberto, Bhatia pergunta a Gêmeos que diagrama significa, e Gêmeos responde corretamente.
  • Tradução: Bhatia olha para uma placa espanhola e, sem dizer a Gêmeos que idioma é, pede a Gemini para traduzi -lo para o inglês. É bem -sucedido. Para provar que a demonstração está ao vivo, Izadi então pede ao público que escolha outro idioma, alguém escolhe Farsi e Gemini traduz com sucesso o sinal para Farsi também.
  • Suporte de vários idiomas: Bhatia fala com Gêmeos em hindi, sem precisar mudar qualquer idioma “modo” ou “configuração”, e responde instantaneamente em hindi.
  • Agir (música): Como exemplo de como Gêmeos nos óculos podem desencadear ações em seu telefone, Bhatia olha para um álbum físico que ela está segurando e diz a Gemini para tocar uma faixa. Começa a música em seu telefone, transmitindo -a para os óculos via Bluetooth.
  • Navegação: Bhatia pede a Gêmeos que “me navegue até um parque próximo com vistas do oceano”. Quando ela está olhando diretamente para a frente, ela vê uma instrução 2D de turn-turn, enquanto, quando olha para baixo, vê um minimap 3D (embora fixo) mostrando a rota da jornada.

O Google provoca óculos inteligentes AI com um HUD em E/O 2024

O Google provocou óculos Smart Multimodal AI com um HUD na E/O 2024.

Esta não é a primeira vez que o Google exibe óculos inteligentes com um HUD, e não é a primeira vez que a demonstração se concentra nas capacidades do projeto de Gemini. No Google I/O 2024, há quase um ano, a empresa mostrou Uma demonstração curta pré -gravada da tecnologia.

Os óculos do ano passado eram notavelmente mais volumosos do que o mostrado no TED2025, no entanto, sugerindo que a empresa está trabalhando ativamente na miniaturização com o objetivo de entregar um produto.

No entanto, Izadi ainda descreve o que o Google está mostrando como “hardware conceitual”, e a empresa não anunciou nenhum produto específico, nem uma linha do tempo do produto.

Em outubro, a Sylvia Varnham O’Regan da informação relatado O fato de a Samsung estar trabalhando em um concorrente de Ray-Ban Meta Glasses com o Google Gemini AI, embora não esteja claro se esse produto terá um HUD.

Preço de óculos de meta hud, recursos e dispositivo de entrada revelados

Um novo relatório da Bloomberg detalha o preço e os recursos dos próximos óculos HUD da Meta e afirma que a pulseira neural de Meta estará na caixa.

Se tiver um HUD, não estará sozinho no mercado. Além das dezenas de startups que exibiram protótipos na CES, a Meta de Mark Zuckerberg planeja lançar seus próprios óculos inteligentes com um HUD ainda este ano.

Como os óculos que o Google mostrou no TED2025, os óculos da Meta têm uma pequena exibição no olho direito e um forte foco na IA multimodal (no caso da Meta, a meta-IA movida a lhama).

Ao contrário dos óculos do Google, que pareciam ser controlados principalmente pela voz, os óculos HUD da Meta também serão controláveis ​​por gestos de dedos, detectados por uma pulseira neural SEMG incluída.

Apple também é segundo Trabalhando em óculos inteligentes, com planos aparentes para lançar um produto em 2027.

Apple Explorando liberando óculos inteligentes em 2027

A Apple parece estar explorando a fabricação de óculos inteligentes e, supostamente, poderia enviar um produto em 2027.

Todas as três empresas provavelmente esperam aproveitar o sucesso inicial dos meta-óculos de Ray-Ban, que passaram recentemente 2 milhões de unidades vendidas, e verão seus A produção aumentou muito.

Espere que a concorrência em óculos inteligentes seja acirrada nos próximos anos, pois os gigantes da tecnologia lutam pelo controle da IA ​​que vê o que você vê e ouve o que ouve, com a capacidade de projetar imagens em sua opinião a qualquer momento.