La investigación en sensores ópticos que imitan de cerca el funcionamiento del ojo humano impulsa el avance en los campos de la robótica, reconocimiento de imágenes e inteligencia artificial.
Debido a esto, se debe destacar la reciente publicación en la revista Applied Physics Letters del innovador dispositivo retinomórfico diseñado por John Labram, investigador de la Facultad de Ingeniería de la Universidad del estado de Oregón, y la estudiante de posgrado Cinthya Trujillo Herrera.
¿Cómo funciona el ojo humano?
El ojo es un órgano muy complejo, con más de 100 millones de fotorreceptores. Sin embargo, el número de conexiones que tiene el nervio óptico con el cerebro es significativamente menor, tan sólo un millón. Esto significa que, antes de transmitir la imagen, en la retina tiene lugar una intensa labor de preprocesamiento y comprensión dinámica.
Por otra parte, el sentido de la vista está optimizado para la detección de objetos en movimiento, dando menos prioridad a las imágenes estáticas. Es decir, los circuitos ópticos priorizan las señales de los fotorreceptores que detectan un cambio en la intensidad de la luz, restando relevancia a la información estática, hasta el punto de generar interesantes fenómenos como el efecto Troxler.
El efecto Troxler o desvanecimiento de Troxler, consiste en fijar la vista en un punto determinado durante unos veinte segundos y después observar cómo nuestra visión periférica empieza a hacer de las suyas. Por ejemplo, si se mira fijamente durante 20 segundos la cruz del centro, se verá cómo el punto que se mueve parece que cambia de color.
Los chips de las cámaras digitales y los teléfonos inteligentes, escanean las imágenes en una matriz bidimensional de sensores, píxel a píxel, a una frecuencia determinada. Cada sensor genera una señal con una amplitud que varía directamente con la intensidad de la luz que recibe. Esto significa que una imagen estática dará lugar a una tensión de salida más o menos constante del sensor. Por ello, estas tecnologías convencionales son más adecuadas para el procesamiento secuencial.
Sin embargo, el cerebro humano no funciona de esta manera. El procesamiento de las imágenes no se realiza de forma presencial, sino de una forma "masivamente paralela". Debido a esto, para alcanzar todo su potencial, una computadora que "piense" como un cerebro humano necesita un sensor de imagen que "vea" como un ojo humano.
La computación neouromórfica
La computación neuromórfica se basa en la replicación, mediante hardware, de ciertos aspectos del cerebro humano con el objetivo de superar a los computadoras convencionales en tareas de aprendizaje automático. Para esto, este tipo de computadoras están llamados a impulsar la próxima generación de inteligencia artificial en aplicaciones como los coches autónomos, la robótica y el reconocimiento avanzado de imágenes.
Los intentos anteriores de construir un dispositivo del tipo ojo humano, llamado sensor retinomórfico, se basaron en software o hardware complejo. En los últimos años hubo grandes progresos en este campo, pero aún existe un problema por resolver. Aunque los algoritmos y la arquitectura diseñados para procesar la información se parecían cada vez más a un cerebro humano, todas las señales de entrada que se suministran a estos sistemas están diseñadas para arquitecturas informáticas tradicionales (von Neumann). El nuevo sensor propuesto por estos investigadores resuelve este problema.
Sensores de perovskita
El equipo de Labram demostró cómo un simple condensador fotosensible permite reproducir ciertos aspectos del funcionamiento de las retinas biológicas. Para ello, diseñaron un sensor formado por capas ultrafinas de semiconductores de perovskita.
Las perovskitas son una clase de semiconductores cuyas singulares propiedades fotoeléctricas les convierten en materiales muy interesantes para la creación de células solares de nueva generación y bajo costo. Los condensadores basados en perovskitas de haluro metálico emiten un breve pico de tensión en respuesta a los cambios en la intensidad de la luz incidente, pero bajo una iluminación constante, la tensión es nula. Este comportamiento es muy similar al de nuestras retinas, como hemos mencionado anteriormente. Para esto, este sensor sí que está optimizado para su uso con procesadores neuromórficos.
Su funcionamiento
Ya se conoce cómo en los sensores de las cámaras digitales, o teléfonos inteligentes, la amplitud de la señal varía con la intensidad de la luz que recibe, por lo cual imágenes estáticas producen salidas de tensión constantes. El sensor retinomórfico, en cambio, permanece relativamente silencioso en condiciones estáticas. Sólo cuando detecta un cambio en la iluminación, registra una señal breve y aguda, volviendo rápidamente a su estado de referencia a continuación.
Para probar su funcionamiento, los científicos lo dejan un segundo a oscuras, y después encienden la luz. Al encender, se obtiene un gran pico de tensión, que luego decae rápidamente, aunque la intensidad de la luz permanezca constante. El equipo midió varios dispositivos y desarrolló un modelo numérico para reproducir su comportamiento.
Para simular cómo respondería una cámara de vídeo retinomórfica a los estímulos de entrada, convirtieron un vídeo en un conjunto de intensidades de luz.
Las regiones en las que se prevé una salida de mayor tensión del sensor se iluminan, mientras que las regiones de menor tensión permanecen oscuras. Si la cámara es relativamente estática, se puede ver claramente que todas las cosas que se mueven muestran una respuesta muy clara, muy similar a la del paradigma de detección óptica en los mamíferos. Luego el equipo hizo algunas simulaciones de prueba que mostraron los resultados esperados.
Los resultados
En una las pruebas realizadas por el equipo, consistió en una simulación con imágenes de un entrenamiento de béisbol, los jugadores del campo aparecen como objetos móviles brillantes y claramente visibles. Por el contrario, los objetos relativamente estáticos, como el campo de béisbol, las gradas e incluso los jugadores de campo se desvanecen en la oscuridad.
En otro ejemplo, la simulación muestra a un pájaro volando, que desaparece al detenerse en un comedero invisible. El pájaro reaparece al despegar y el comedero, que se balancea, sólo se hace visible cuando empieza a moverse.
Esta simulación permite introducir cualquier vídeo en una de estas matrices y procesar esa información esencialmente de la misma manera que lo haría el ojo humano. En palabras de Labram, es "como si un solo píxel hiciera algo que actualmente requeriría un microprocesador".
Asimismo, esto sensores suponen un gran avance en cualquier tecnología relacionada con la visión artificial. Por ejemplo, si se instalan en un robot, éste podría saber inmediatamente dónde está un objeto sin necesidad de realizar un un complejo procesamiento de imágenes. Con un simple barrido de su entorno, cualquier objeto estático no provocaría respuesta, mientras que los objetos en movimiento registrarían picos de voltaje. Las aplicaciones al campo de la robótica, vehículos autónomos, visión artificial, atraviesan una etapa más que prometedora.
Fuente: Thinking Big.