En el escenario de TED2025, Google ha revelado un prototipo de gafas inteligentes con pantalla incorporada, marcando un paso significativo hacia la integración de la inteligencia artificial en la vida diaria. Estas gafas, aún en fase conceptual, combinan un diseño elegante con capacidades avanzadas de IA, ofreciendo una visión de un futuro donde la tecnología se funde de manera natural con nuestras actividades cotidianas.​

Un vistazo al futuro: diseño y funcionalidad

Las nuevas gafas de Google presentan una estética similar a la de unas gafas convencionales, pero con tecnología de punta integrada. Cuentan con una cámara, micrófonos y altavoces, además de una pantalla monocular de alta resolución en color, ubicada en la lente derecha. Aunque el campo de visión es limitado, la integración de estas características en un diseño compacto demuestra el avance en la miniaturización de componentes tecnológicos.

Google

Gemini y Project Astra: inteligencia artificial al servicio del usuario

El corazón de estas gafas es Gemini, el sistema de inteligencia artificial multimodal de Google, potenciado por las capacidades de Project Astra. Esta combinación permite a las gafas comprender y responder a comandos complejos, integrando información visual y auditiva en tiempo real. Durante la demostración en TED2025, se mostraron varias funciones destacadas:​

  • Creación de contenido: Al observar al público, se solicitó a Gemini la creación de un haiku basado en lo que veía, generando un poema que reflejaba la escena.
  • Memoria contextual: Después de mirar una estantería, se preguntó a Gemini por el título de un libro blanco que estaba allí, y respondió correctamente. Incluso, al preguntar por la ubicación de una tarjeta de hotel sin dar pistas, Gemini indicó su posición relativa a otro objeto.​
  • Interpretación visual: Al mostrar un diagrama en un libro, se solicitó a Gemini una explicación, y proporcionó una respuesta precisa.​
  • Traducción en tiempo real: Al mirar un cartel en español y pedir su traducción al inglés, Gemini cumplió la tarea. Posteriormente, se le pidió traducirlo al farsi, y también lo logró, demostrando su capacidad multilingüe.​
  • Acciones integradas: Al mirar un álbum físico y pedir reproducir una canción, Gemini inició la reproducción en el teléfono del usuario, transmitiéndola a las gafas vía Bluetooth.​
  • Navegación asistida: Al solicitar direcciones a un parque cercano con vistas al océano, las gafas mostraron instrucciones paso a paso en 2D al mirar al frente, y un minimapa 3D al mirar hacia abajo.​

Comparativa con otros dispositivos del mercado

Google no es el único actor en el desarrollo de gafas inteligentes. Meta, por ejemplo, planea lanzar sus propias gafas con HUD este año, incorporando control por gestos mediante una pulsera neural. Apple también está trabajando en su versión, con un posible lanzamiento en 2027. La competencia en este campo se intensifica, y cada empresa busca ofrecer la mejor integración de IA y realidad aumentada.​

Google

Desafíos y perspectivas futuras

Aunque las gafas de Google presentadas en TED2025 son un prototipo conceptual, indican una dirección clara en la evolución de la tecnología wearable. Los principales desafíos incluyen mejorar la duración de la batería, reducir costos y garantizar la privacidad del usuario. Sin embargo, la demostración de estas gafas sugiere que la integración de la inteligencia artificial en dispositivos cotidianos está más cerca de lo que pensamos.​

En resumen, las gafas inteligentes de Google con HUD representan un avance significativo en la convergencia de la tecnología y la vida diaria, ofreciendo una experiencia donde la información y la asistencia están siempre al alcance de la vista.​

Tagged
Suscríbete
Notificar sobre
guest

0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments