Intel Labs ofrece su visión de la experiencia de cómputo del futuro - Periódico EL Pais

Intel Labs ofrece su visión de la experiencia de cómputo del futuro

14 de septiembre 2010 –

Intel Labs celebró una conferencia de prensa en la víspera del Intel Developer Forum en San Francisco para hablar sobre sus esfuerzos de investigación y su visión de futuro de las experiencias tecnológicas de los usuarios. A continuación se ofrece un resumen:

Conferencia de Genevieve Bell, «All you Need is Love» (‘Todo lo que necesitas es amor’): el futuro de la experiencia de cómputo»

Crear las mejores experiencias tecnológicas del mañana, de las que la gente disfrute, comienza por comprender lo que les gusta de sus vidas cotidianas. En esta presentación, la Intel Fellow y directora de Interaction and Experience Research de Intel, Genevieve Bell, explicó el enfoque que su equipo está adoptando hoy para crear atractivas experiencias que alimentarán una nueva ola de avances tecnológicos. Bell, doctora en antropología, mostró cómo la vida real inspira la innovación, de modo que las tecnologías del futuro se adapten a nuestras formas de trabajar y vivir y las mejoren.

 

Conferencia de Horst Haussecker: «Dándoles vida a las experiencias de cómputo del futuro»

Se ofreció una visión general del Experience Technology Lab en los campos de interacciones y experiencias de Intel Labs constituido recientemente, con la misión de «crear las tecnologías que estarán en el corazón de nuestras experiencias de usuario de próxima generación». El Experience Technology Lab implementa fácilmente experiencias funcionales a través de innovación tecnológica de clase mundial. Horst arrojó luz sobre la filosofía que está por detrás de nuestro enfoque sobre el desarrollo de tecnología y ofreció una visión general del espectro de conocimientos técnicos y del proceso requerido para que las experiencias tecnológicas impacten la plataforma Intel.

Se mostraron los siguientes proyectos de investigación orientados al futuro:

1. Nombre del proyecto de investigación: OASIS

Desarrollado: Intel Lab en Seattle

Principal investigador: Beverly Harrison

Descripción del proyecto: El OASIS (Object-Aware Situated Interactive System) combina algoritmos de visión de cómputo en tiempo real, cámaras y micro-proyección en 3-D para el reconocimiento rápido y el seguimiento de los objetos físicos y gestos cotidianos. Esta demostración usó visores proyectados en las superficies de uso cotidiano del hogar para crear «islas» interactivas para aplicaciones domésticas. De este modo, es fácil de reconvertir cualquier casa y habitación, y casi cualquier superficie horizontal o vertical. Este proyecto anticipa las nuevas capacidades para el hogar del futuro y sus implicancias para las aplicaciones y funciones de servidores domésticos.

Objetivo del proyecto: Se trata de un ejemplo de cómo el reconocimiento de objetos en 3-D y la interacción basada en gestos pueden utilizarse en un ambiente doméstico. Esta tecnología puede aplicarse a modelos de uso diferentes, por ejemplo a juguetes.

Tecnología: Intel utilizó una cámara de 3-D, un PC y un proyector. La empresa cree que todos estos componentes caben en un formato del tamaño de un celular. Además, estos dispositivos están mejorando en términos de costo, poder y desempeño. Aquí es donde las futuras generaciones de chips, poderosos aunque energéticamente eficientes, permitirán el diseño de nuevos dispositivos conectados a Internet, que se colocarán bajo la parte superior de los armarios de su cocina y se utilizarán con objetos cotidianos, en las superficies de todos los días y mediante los gestos que se hacen habitualmente.

Multimedia adicional: Video de YouTube

www.youtube.com/watch?v=1V3M0bMvtjs&feature=youtube_gdata

2. Nombre del proyecto de investigación: Context-Aware Vehicle (“Vehículo consciente del entorno”)

Desarrollado: Intel Lab en Hillsboro, Oregon

Investigador líder: Vu Nguyen

Descripción del proyecto: El número de dispositivos y servicios en vehículos se ha incrementado rápidamente durante las últimas décadas. Hoy es posible realizar una llamada telefónica, activar un control de ruta y manipular un sistema de navegación, además de muchas otras cosas, mientras se conduce. Esto nos plantea un problema de seguridad, pues el conductor pasa más tiempo mirando el menús y apretando botones, lo que podría ocupar tanto sus manos como sus ojos y desviarle de la tarea principal de manejar. El uso de un sistema consciente del entorno en el vehículo es especialmente importante para mejorar la seguridad tanto del conductor como de los pasajeros. 

Objetivo del proyecto: Nuestra demostración muestra el algoritmo de reconocimiento de rostro de Intel Labs con los dispositivos embebidos de Intel para ofrecer acceso a la infraestructura del vehículo e identificar el comportamiento dentro del vehículo con cámaras y sensores embebidos con el objetivo de ofrecer servicios de seguridad y conveniencia transparentes tanto para el conductor como para los pasajeros.

Tecnología: Esta demo usa el software de reconocimiento de rostro de Intel Labs, un motor de contexto, sensores ambientales y preferencias personales para mejorar la seguridad y la conveniencia del conductor.

3. Nombre del proyecto de investigación: “Facial Recognition” (Reconocimiento de rostro)

Desarrollado: Intel Lab en Seattle

Investigador líder: Jeff Hightower

Descripción del proyecto:      Los algoritmos de visión y percepción por computador, como el reconocimiento de rostros en tiempo real, pueden volverse prácticos en dispositivos móviles de la clase Intel® Atom™, por medio de aprendizaje de máquina, redes de bajo consumo y la paralelización en  nube.

Objetivo del proyecto: Intel mostró las ganancias de desempeño y los ahorros de energía que pueden lograrse al usar las capacidades de los procesadores Intel Atom y elegir de un modo inteligente partes del procesamiento de datos de la visión por computador para cargarlas en la nube.

Tecnología: Las principales tecnologías que se mostrarán son el reconocimiento de rostro en un dispositivo de tipo móvil y el procesamiento cliente/nube.

Multimedia adicional: http://software.intel.com/en-us/videos/low-power-mobile-computer-vision/

4. Nombre del proyecto de investigación: “Cloud-based ray tracing for games” (Trazado de rayos basado en el cómputo en nube para juegos)

Desarrollado: Intel Lab en Santa Clara

Investigador líder: Daniel Pohl (desarrollador de la demo), Bill Mark (gerente del equipo de trazado de rayos)

Descripción del proyecto: Esta demo mostró cómo las experiencias de juego del futuro en dispositivos móviles podrían mejorarse por medio de los servidores basados en tecnología Intel en nube. Los investigadores de Intel Labs mostraron una nueva demo (Wolfenstein: Ray Traced) que añade nuevos efectos especiales a un juego usando trazado de rayos en tiempo real para renderizar los gráficos. Del lado del servidor, la demo utiliza un espectro de máquinas basadas en el nuevo “Knight’s Ferry” de Intel, la nueva plataforma de desarrollo de software con tecnología Many Integrated Core (Intel® MIC). Estos servidores renderizan las imágenes y las envían a un thin client (un pequeño laptop) en el que el usuario puede jugar.

Objetivo del proyecto: Habilitar aplicaciones en tres dimensiones con un nivel de realismo de imagen fotográfico y que sean interactivas, tales como juegos, por medio del desarrollo de motores de trazado de rayos en tiempo real para plataformas basadas en tecnología Intel.

Tecnología: El trazado de rayos en tiempo real se realiza en paralelo en hardware de muchos núcleos. El trazado de rayos es una forma de renderizar gráficos que usa la física de la luz para dibujar una escena que pude producir de un modo natural sombras muy realistas, reflejos y otros efectos luminosos. El trazado de rayos se ha usado para fotografías y películas de Hollywood en las que las imágenes se crean con antelación; pero sólo recientemente ha sido posible procesar las imágenes lo suficientemente rápido para aplicaciones como juegos. La segunda tecnología fue Knight’s Ferry, nombre código para una nueva plataforma MIC.

 

5. Nombre del proyecto de investigación: “Classmate Assist” (“Asistente Classmate”)

Desarrollado: Intel Lab en Hillsboro, Oregon

Investigador líder: Richard Beckwith

Descripción del proyecto: La llegada del cómputo 1:1 a la sala les abre camino a los profesores para configurar métodos de aprendizaje individualizados para sus estudiantes, que tienen un amplio espectro de intereses y habilidades. La tecnología Classmate Assist usa la visión por computadora y la proyección de imágenes para ayudar y guiar a los estudiantes en un ambiente de aprendizaje 1:1, ayudándoles a lograr sus tareas de modo independiente y a su propio ritmo, al tiempo que les permite a los profesores seguir con el progreso de los estudiantes.

Objetivo del proyecto: Éste es un ejemplo de cómo la realidad aumentada puede usarse en las aulas. También mostró que las herramientas de apoyo al desempeño pueden ser útiles en un entorno educativo. Además, fue un ejemplo de cómo la realidad aumentada puede procesarse en chips y netbooks Atom.

Tecnología: La tecnología clave aquí es la visión de máquina. Intel la ejecuta en un dispositivo tipo netbook con una cámara que puede dirigirse a la mesa entre el usuario y la pantalla.

6. Nombre del proyecto de investigación: “Mobile Augmented Reality” (“Realidad Aumentada Móvil”)

Desarrollado: Intel Lab en Santa Clara, California,  EE.UU.

Investigador líder: Yi Wu

Descripción del proyecto: Intel mostró su aplicación Mobile Augmented Reality World Browser en la plataforma Atom™ de Intel. El World Browser (Navegador Mundial) enriquece el modo cómo los usuarios entienden su mundo, gracias a un dispositivo con tecnología Intel® Atom™. Los usuarios pueden acceder de modo instantáneo a la enorme reserva de información disponible en la Web, simplemente haciendo clic en el obturador de la cámara. El sistema de Intel identifica puntos de referencia sobre la marcha, mediante la búsqueda visual intensiva en cómputo combinada con sensores energéticamente eficientes, aprovechando así las características extraordinarias de la plataforma IA (Arquitectura Intel, por sus siglas en inglés).

Objetivo del proyecto: Éste es un ejemplo de la próxima ola de realidad aumentada en la cual se usa el reconocimiento de objetos para ofrecer una mayor precisión sobre la simple información de GPS. Esta exhibición también mostró cómo el procesamiento local y en nube puede usarse para ofrecer una experiencia más rica.

Tecnología: Las tecnologías primarias mostradas fueron el reconocimiento de objetos en un dispositivo de tipo móvil y en el procesamiento cliente/nube.

Multimedia adicional: http://software.intel.com/en-us/videos/mobile-augmented-reality/

7. Nombre del proyecto de investigación: “Multi-app Framework for TV” (Marco multiaplicaciones para televisión)

Desarrollado: Intel, Oregon

Investigador líder: Daria Loi

Descripción del proyecto: Esta demo muestra tres interfases de usuario diferentes para Multi-App de Intel® \ Esta demostración mostró tres interfases de usuario (UI, del inglés “User Interface”) diferentes para Intel® Multi-App \Framework. Cada UI tiene diferentes modos de organizar, acceder a aplicaciones y navegar a través de ellas en la televisión; experiencias de usuario en 2D y 3D fáciles de usar pero ricas; y múltiples paradigmas de navegación.

Objetivo del proyecto: Esta demo muestra , por medio de diferentes UIs basadas en tecnología de un núcleo, cómo ejecutar simultáneamente múltiples aplicaciones en la TV, al tiempo que resuelven con éxito los conflictos de gestión de recursos y hardware que surgen al ejecutar múltiples aplicaciones simultáneamente.

Tecnología: Esta demo usó un decodificador (STB, del inglés “Set Top Box”) basado en un procesador Intel Media CE4100, conectado a una HDTV. El STB ejecutó los tres diseños de referencia basados en OpenGL.

Deja una respuesta