Un diseño “inspirado” en el Project Glass de Google (vídeo)

El gigante de Mountain View sacudió un poco las cosas tras la presentación de Project Glass, las gafas de realidad aumentada de las cuales la Web no ha dejado de hablar. ¿Cuándo estarán disponibles? ¿Qué precio podemos esperar? ¿Cuál será el hardware integrado? De momento, Google hace bien en callar y resistir el entusiasmo, pero un desarrollador de nombre Will Powell ha presentado su propia versión de Project Glass, que si bien no tiene nada la elegancia de la solución de Google, la experiencia no parece tan lejana… siempre y cuando sea cierta.

Hace pocos días, Sergey Brin hizo acto de presencia en una reunión a beneficio, y llevaba puesto un prototipo de las gafas Project Glass. Obviamente, esto capturó la atención de muchos, y varias personas han dicho que había cierta actividad en las gafas, pero el mismo Brin dijo que el diseño aún necesitaba meses, o incluso años, antes de estar listo. La impresionante recepción que han tenido las gafas desde la presentación del vídeo oficial es más que suficiente como para que cualquiera se vea atrapado por el entusiasmo, pero no sería la primera vez que un producto de Google es inicialmente envuelto en altas expectativas, sólo para descubrir que el resultado final no estaba a la altura de las circunstancias. Google Wave, que terminará de ser purgado este mes, es uno de los ejemplos más frescos, con invitaciones en eBay vendiéndose por miles de dólares. Creo que Google hace bien en contenerse, y en tratar de contener a los demás, pero eso no impide que otra gente se sienta inspirada por Project Glass.

Así es como encontramos a este desarrollo de Will Powell: Sus propias gafas Project Glass. Obviamente, están muy lejos de ser como la versión de Google (al menos en lo estético), pero usando gafas Vuzix, cámaras HD de Microsoft, un micrófono y un poco de Adobe AIR, ha podido reproducir, al menos en parte, la experiencia que vimos en el vídeo oficial. El reconocimiento de voz está basado en Dragon Naturally Speaking, mientras que el reporte del clima es consultado a través de Yahoo. En realidad, la diferencia más importante es que las cámaras son utilizadas como “ojos”, alimentando una señal de vídeo a las gafas, con la información de realidad aumentada acoplada a la señal.

Hasta aquí parece excelente, sólo por un detalle: Muchos usuarios están cuestionando las declaraciones de Powell, que insiste en que el vídeo no fue editado de ninguna forma. El vídeo está basado en el “feed” de las cámaras, y no en la experiencia que el usuario recibe de las gafas, pero lo más llamativo es que en algunos casos, la velocidad de respuesta del reconocimiento de voz es demasiado buena, casi instantánea. Lo lógico sería esperar un poco de “demora” teniendo en cuenta que se trata de un prototipo, que puede haber errores en el reconocimiento de voz, y que Adobe AIR no es la pieza de software más optimizada del mundo. De todas maneras, la inspiración es perfectamente válida, y probablemente veamos más ejemplos de proyectos similares en el futuro.

Fuente:  SlashGear

~ por miqueleno en 12 abril 2012.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

 
A %d blogueros les gusta esto: