Athrun Data Intelligence



¿Por qué los humanos desarrollaron los fanales que tenemos hoy?

Si perfectamente los científicos no pueden retroceder en el tiempo para estudiar las presiones ambientales que dieron forma a la crecimiento de los diversos sistemas de visión que existen en la naturaleza, un nuevo situación computacional desarrollado por investigadores del MIT les permite explorar esta crecimiento en agentes de inteligencia químico.

El situación que desarrollaron, en el que los agentes de IA encarnados desarrollan fanales y aprenden a ver a lo extenso de muchas generaciones, es como una «caja de arena científica» que permite a los investigadores alegrar diferentes árboles evolutivos. El favorecido hace esto cambiando la estructura del mundo y las tareas que completan los agentes de IA, como encontrar comida o diferenciar objetos.

Esto les permite estudiar por qué un animal puede tener desarrollado parches simples y sensibles a la luz como fanales, mientras que otro tiene fanales complejos tipo cámara.

Los experimentos de los investigadores con este situación muestran cómo las tareas impulsaron la crecimiento visor en los agentes. Por ejemplo, descubrieron que las tareas de navegación a menudo conducían a la crecimiento de fanales compuestos con muchas unidades individuales, como los fanales de insectos y crustáceos.

Por otro flanco, si los agentes se centraban en la discriminación de objetos, era más probable que desarrollaran fanales tipo cámara con iris y retina.

Este situación podría permitir a los científicos investigar preguntas hipotéticas sobre sistemas de visión que son difíciles de estudiar experimentalmente. Todavía podría mandar el diseño de nuevos sensores y cámaras para robots, drones y dispositivos portátiles que equilibren el rendimiento con limitaciones del mundo existente como la eficiencia energética y la capacidad de fabricación.

«Aunque nunca podremos retornar detrás y descubrir cada detalle de cómo tuvo área la crecimiento, en este trabajo hemos creado un entorno donde podemos, en cierto sentido, alegrar la crecimiento y explorar el entorno de todas estas maneras diferentes. Este método de hacer ciencia abre la puerta a muchas posibilidades», dice Kushagra Tiwary, estudiante de posgrado en el MIT Media Lab y coautor principal de un artículo sobre esta investigación.

En el artículo lo acompañan el coautor principal y compañero de estudios de posgrado Aaron Young; el estudiante de posgrado Tzofi Klinghoffer; el ex postdoctorado Akshat Dave, que ahora es profesor asistente en la Universidad Stony Brook; Tomaso Poggio, profesor Eugene McDermott en el Unidad de Cerebro y Ciencias Cognitivas, investigador del Instituto McGovern y codirector del Centro para Cerebros, Mentes y Máquinas; Los coautores principales Brian Cheung, postdoctorado en el Centro para Cerebros, Mentes y Máquinas y profesor asistente entrante en la Universidad de California en San Francisco; y Ramesh Raskar, profesor asociado de artes y ciencias de los medios y líder del Camera Culture Group en el MIT; así como otros en la Universidad Rice y la Universidad de Lund. la investigacion aparece hoy en Avances científicos.

Construyendo una caja de arena científica

El artículo comenzó como una conversación entre investigadores sobre el descubrimiento de nuevos sistemas de visión que podrían ser avíos en diferentes campos, como la robótica. Para probar sus preguntas de «qué pasaría si», los investigadores decidieron Utilice la IA para explorar las numerosas posibilidades evolutivas..

«Las preguntas hipotéticas me inspiraron cuando era caprichoso para estudiar ciencias. Con la IA, tenemos una oportunidad única de crear estos agentes encarnados que nos permiten hacer el tipo de preguntas que normalmente serían imposibles de reponer», dice Tiwary.

Para construir esta caja de arena evolutiva, los investigadores tomaron todos los instrumentos de una cámara, como sensores, anteojos, aperturas y procesadores, y los convirtieron en parámetros que un agente de IA incorporado podría estudiar.

Usaron esos bloques de construcción como punto de partida para un mecanismo de estudios algorítmico que un agente usaría a medida que evolucionara sus fanales con el tiempo.

«No podíamos fingir todo el universo átomo por átomo. Fue un desafío determinar qué ingredientes necesitábamos, qué ingredientes no necesitábamos y cómo asignar posibles entre esos diferentes instrumentos», dice Cheung.

En su situación, este operación evolutivo puede designar qué instrumentos ponerse al día en función de las limitaciones del entorno y la tarea del agente.

Cada entorno tiene una única tarea, como navegación, identificación de alimentos o seguimiento de presas, diseñada para imitar tareas visuales reales que los animales deben aventajar para sobrevivir. Los agentes comienzan con un único fotorreceptor que mira al mundo y un maniquí de red neuronal asociado que procesa información visual.

Luego, a lo extenso de la vida de cada agente, se le entrena utilizando el estudios por refuerzo, una técnica de prueba y error en la que el agente es recompensado por ganar el objetivo de su tarea. El entorno incluso incorpora restricciones, como una cierta cantidad de píxeles para los sensores visuales de un agente.

«Estas limitaciones impulsan el proceso de diseño, de la misma guisa que tenemos limitaciones físicas en nuestro mundo, como la física de la luz, que han impulsado el diseño de nuestros propios fanales», dice Tiwary.

A lo extenso de muchas generaciones, los agentes desarrollan diferentes instrumentos de sistemas de visión que maximizan las recompensas.

Su situación utiliza un mecanismo de codificación genética para imitar computacionalmente la crecimiento, donde genes individuales mutan para controlar el explicación de un agente.

Por ejemplo, los genes morfológicos capturan cómo el agente ve el entorno y controlan la ubicación de los fanales; los genes ópticos determinan cómo interactúa el ojo con la luz y dictan la cantidad de fotorreceptores; y los genes neuronales controlan la capacidad de estudios de los agentes.

Probando hipótesis

Cuando los investigadores realizaron experimentos en este situación, descubrieron que las tareas tenían una influencia importante en los sistemas de visión que evolucionaban los agentes.

Por ejemplo, los agentes que se centraban en tareas de navegación desarrollaron fanales diseñados para maximizar la conciencia espacial a través de sensores de desprecio resolución, mientras que los agentes encargados de detectar objetos desarrollaron fanales centrados más en la agudeza anterior que en la visión periférica.

Otro cuestionario indicó que un cerebro más sobresaliente no siempre es mejor cuando se tráfico de procesar información visual. Solo una cantidad limitada de información visual puede ingresar al sistema a la vez, en función de limitaciones físicas como la cantidad de fotorreceptores en los fanales.

«En algún momento, un cerebro más sobresaliente no ayuda en incondicional a los agentes, y en la naturaleza eso sería un desperdicio de posibles», dice Cheung.

En el futuro, los investigadores quieren utilizar este simulador para explorar los mejores sistemas de visión para aplicaciones específicas, lo que podría ayudar a los científicos a desarrollar sensores y cámaras para tareas específicas. Todavía quieren integrar los LLM en su situación para que sea más liviana para los usuarios hacer preguntas «qué pasaría si» y estudiar posibilidades adicionales.

«Existe un beneficio existente al hacer preguntas de una guisa más imaginativa. Espero que esto inspire a otros a crear marcos más amplios, donde en área de centrarse en preguntas específicas que cubren un campo de acción específica, busquen reponer preguntas con un efecto mucho más amplio», dice Cheung.

Este trabajo fue apoyado, en parte, por el Centro para Cerebros, Mentes y Máquinas y el software de Matemáticas para el Descubrimiento de Algoritmos y Arquitecturas (DIAL) de la Agencia de Proyectos de Investigación Avanzadilla de Defensa (DARPA).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *