Pages

Inteligencia Artificial imitando nuestra visión periférica


La visión periférica, o visión indirecta, es la visión que ocurre fuera del punto de fijación, es decir, lejos del centro de la mirada. La gran mayoría del área en el campo visual está incluida en la noción de visión periférica. Según diversos estudios realizados por investigadores, han llegado a la conclusión que nuestro cerebro utiliza fragmentos de información y deduce el mejor modo de rellenar los espacios vacíos de nuestra visión.

Científicos informáticos de la Universidad de Texas en Austin han enseñado a un agente de inteligencia artificial cómo hacer algo que normalmente sólo los humanos pueden hacer: echar un vistazo rápido e inferir todo su entorno, una habilidad necesaria para el desarrollo de robots de búsqueda y rescate eficaces que un día pueden mejorar la eficacia de misiones peligrosas. El equipo, dirigido por la profesora Kristen Grauman, la candidata al doctorado Santhosh Ramakrishnan y la ex candidata al doctorado Dinesh Jayaraman (ahora en la Universidad de California, Berkeley) publicaron hoy sus resultados en la revista Science Robotics.

La mayoría de los agentes de IA -sistemas informáticos que podrían dotar de inteligencia a robots u otras máquinas- están entrenados para tareas muy específicas -como reconocer un objeto o estimar su volumen- en un entorno que ya han experimentado antes, como una fábrica. Pero el agente desarrollado por Grauman y Ramakrishnan es de uso general, recopilando información visual que puede ser utilizada para una amplia gama de tareas.

"Queremos un agente que esté generalmente equipado para entrar en los entornos y estar preparado para las nuevas tareas de percepción a medida que surjan", dijo Grauman. "Se comporta de una manera versátil y capaz de tener éxito en diferentes tareas porque ha aprendido patrones útiles sobre el mundo visual."

Los científicos utilizaron el aprendizaje profundo, un tipo de aprendizaje automático inspirado en las redes neuronales del cerebro, para entrenar a su agente en miles de imágenes de 360 grados de diferentes entornos.

Ahora, cuando se le presenta una escena que nunca antes había visto, el agente utiliza su experiencia para elegir unos pocos destellos -como un turista parado en medio de una catedral tomando unas cuantas instantáneas en diferentes direcciones- que juntos suman menos del 20 por ciento de la escena completa. Lo que hace que este sistema sea tan eficaz es que no se trata sólo de tomar fotografías en direcciones aleatorias, sino que, después de cada vistazo, elegir la siguiente toma que predice añadirá la información más nueva sobre toda la escena. Esto es como si estuvieras en una tienda de comestibles que nunca habías visitado antes, y vieras manzanas, esperarías encontrar naranjas cerca, pero para localizar la leche, podrías mirar hacia el otro lado. Basándose en vislumbres, el agente infiere lo que habría visto si hubiera mirado en todas las demás direcciones, reconstruyendo una imagen completa de 360 grados de su entorno.

"De la misma manera que usted trae información previa sobre las regularidades que existen en ambientes previamente experimentados -como todas las tiendas de comestibles en las que ha estado-, este agente busca de una manera no exhaustiva", dijo Grauman. "Aprende a hacer conjeturas inteligentes sobre dónde reunir información visual para tener éxito en las tareas de percepción."

Uno de los principales retos que se plantearon los científicos fue diseñar un agente que pudiera trabajar en un tiempo limitado. Esto sería fundamental en una aplicación de búsqueda y rescate. Por ejemplo, en un edificio en llamas, un robot tendría que localizar rápidamente a las personas, las llamas y los materiales peligrosos y transmitir esa información a los bomberos.

Por ahora, el nuevo agente opera como una persona de pie en un solo lugar, con la capacidad de apuntar una cámara en cualquier dirección pero sin poder moverse a una nueva posición. O, de manera equivalente, el agente podría mirar a un objeto que está sosteniendo y decidir cómo girar el objeto para inspeccionar otro lado del mismo. A continuación, los investigadores están desarrollando el sistema para trabajar en un robot totalmente móvil.

Usando las supercomputadoras del Centro de Computación Avanzada de Texas y el Departamento de Ciencias de la Computación de la Universidad de Texas en Austin, se tardó alrededor de un día en entrenar a su agente usando un enfoque de inteligencia artificial llamado aprendizaje de refuerzo. El equipo, con el liderazgo de Ramakrishnan, desarrolló un método para acelerar la capacitación: construir un segundo agente, llamado compinche, para ayudar al agente primario.

"Usar información adicional que está presente puramente durante el entrenamiento ayuda al agente[primario] a aprender más rápido", aseguró Ramakrishnan.

Esta investigación fue apoyada, en parte, por la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos, la Oficina de Investigación Científica de la Fuerza Aérea de los Estados Unidos, IBM Corp. y Sony Corp.

Enlace Web - Fuente

CompuTekni

¡No olvides seguirnos en Telegram para recibir las mejores noticias del día!

No hay comentarios.:

Publicar un comentario