ENCIENDE es un proyecto de la COSCE
BOLETIN ENCIENDE - Nº 7 | Julio 2013

¿Cómo consigue vernos nuestra videoconsola?

Por Pablo Garaizar Sagarminaga


La existencia de nuevos dispositivos que permiten trasladar nuestros gestos directamente a un videojuego parece magia, pero no lo es.

En muy pocos años hemos pasado de apretar botones como locos para que nuestro personaje en un videojuego se moviera a movernos delante de la videoconsola y que nuestros gestos se trasladen directamente al videojuego. Dejando de lado que esta forma de jugar hace que nos metamos más en la historia (es más "inmersiva", como dicen los expertos), ¿cómo se las arregla la videoconsola para ver y entender nuestros movimientos?

Uno de los mecanismos más avanzados para controlar la consola sin necesidad de tener contacto físico con un controlador de videojuegos tradicional es Microsoft Kinect. Este dispositivo es capaz de reconocer gestos, objetos y comandos de voz, lo que supuso una total revolución en 2010, algo casi mágico.

Como bien dijo Arthur C. Clarke, "cualquier tecnología lo suficientemente avanzada, es indistinguible de la magia". Pero en Chispas de la Ciencia estamos precisamente para eso, para explicar la tecnología de tal forma que la magia quede relegada a los espectáculos ilusionistas.

Kinect emplea un enfoque muy diferente al que nosotros como humanos utilizamos para detectar la profundidad. Para esta tarea, los humanos disponemos de dos ojos iguales separados ligeramente y un cerebro entrenado para interpretar las pequeñas diferencias entre las imágenes que llegan de ambos ojos. En ocasiones, metemos la pata, sobre todo cuando alguien nos lía con ilusiones ópticas. Pero en general, lo hacemos bastante bien. Kinect, dispone también de dos ojos y un cerebro digital para interpretar lo que capta con ellos. Sin embargo, a partir de aquí todo son diferencias.

Figura 1. Patrón de puntos de luz infrarroja de Kinect.

La primera es que los dos ojos de Kinect, son diferentes entre sí. Uno de ellos es una cámara a color, mientras que el otro es una cámara de infrarrojos. La percepción de profundidad se hace principalmente con la cámara de infrarrojos y un componente adicional: un proyector de infrarrojos. Este proyector envía un conjunto de haces de luz infrarroja que se convierten en puntos de diferentes tamaños al toparse con un objeto. Así, si ponemos un brazo frente a este proyector, habrá un conjunto de puntos intensos reflejados en nuestro brazo, mientras que el resto de puntos emitidos habrán llegado más lejos y serán menos intensos. Todo esto será captado por la cámara de infrarrojos y procesado por un sistema de reconocimiento visual especializado en reconocer objetos y personas. La cámara a color sirve como apoyo para poder definir mejor las partes de una escena (ejemplo: una persona, un objeto y el fondo de la habitación) gracias a que los objetos suelen ser de un color diferente al fondo.

Figura 2. El patrón de puntos de luz infrarroja de Kinect proyectado sobre una mano y el fondo o sobre la cara y el fondo.

Como veis, un sistema bastante innovador, ¿no creéis? Un momento... ¿no os recuerda a algo? A mí sí, a los sistemas de eco-localización empleados por murciélagos o delfines. Ambas especies emiten una onda de presión (ultrasonidos) con el fin de detectar objetos próximos a través del eco de su señal al rebotar contra ellos. Si cambiamos ultrasonidos por infrarrojos, es algo muy similar a lo que hace Kinect.

Para el profesor

Hay varios temas sencillos que pueden trabajarse en clase relacionados con esta explicación.

El primero de ellos es el de las ilusiones ópticas, o cómo nuestro sistema de percepción visual es fácilmente engañable si conocemos sus debilidades. En el siguiente vídeo tienes algunos ejemplos:

El segundo puede ser el material gráfico propio de Microsoft sobre Kinect, donde se ven imágenes con cámaras infrarrojas de cómo captura Kinect los haces de luz infrarroja que emite. En el siguiente vídeo puedes ver a Kinect con una cámara infrarroja:

Por último, la ecolocalización en murciélagos, delfines y otras especies, así como el uso de un mecanismo similar para sistemas artificiales como el sónar de los barcos y submarinos.

Este recurso ha sido preparado por Pablo Garaizar Sagarminaga, que es profesor de la Facultad de Ingeniería en la Universidad de Deusto, Bilbao.