Athrun Data Intelligence



El diseño asistido por computadora (CAD) es el método preferido para diseñar la mayoría de los productos físicos actuales. Los ingenieros utilizan CAD para convertir bocetos 2D en modelos 3D que luego pueden probar y perfeccionar ayer de destinar una lectura final a una cuerda de producción. Pero el software es notoriamente complicado de educarse, con miles de comandos para nominar. Ser verdaderamente competente en el software requiere una gran cantidad de tiempo y maña.

Los ingenieros del MIT buscan solucionar la curva de educación de CAD con un maniquí de IA que utiliza software CAD de forma muy parecida a como lo haría un humano. Cubo un borrador 2D de un objeto, el maniquí crea rápidamente una lectura 3D haciendo clic en ordenanza y opciones de archivo, de forma similar a como un ingeniero usaría el software.

El equipo del MIT ha creado un nuevo conjunto de datos llamado VideoCAD, que contiene más de 41.000 ejemplos de cómo se crean modelos 3D en software CAD. Al educarse de estos videos, que ilustran cómo se construyen paso a paso diferentes formas y objetos, el nuevo sistema de inteligencia sintético ahora puede negociar el software CAD de forma muy similar a un adjudicatario humano.

Con VideoCAD, el equipo está avanzando con destino a un “copiloto de CAD” adaptado para IA. Imaginan que una útil de este tipo no sólo podría crear versiones 3D de un diseño, sino incluso trabajar con un adjudicatario humano para sugerir los siguientes pasos o tolerar a agarradera automáticamente secuencias de construcción en las que, de otro modo, sería tedioso y consumiría mucho tiempo hacer clic manualmente.

«Existe una oportunidad para que la IA aumente la productividad de los ingenieros y haga que el CAD sea más accesible para más personas», afirma Ghadi Nehme, estudiante de posgrado en el Unidad de Ingeniería Mecánica del MIT.

«Esto es importante porque reduce la barrera de entrada al diseño, ayudando a personas sin primaveras de formación en CAD a crear modelos 3D más fácilmente y servirse su creatividad», añade Faez Ahmed, profesor asociado de ingeniería mecánica en el MIT.

Ahmed y Nehme, contiguo con el estudiante de posgrado Brandon Man y el postdoctorado Ferdous Alam, presentarán su trabajo en la Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS) en diciembre.

Clic a clic

El nuevo trabajo del equipo amplía los desarrollos recientes en agentes de interfaz de adjudicatario (UI) impulsados ​​por IA: herramientas que están capacitadas para usar programas de software para realizar tareas, como resumir automáticamente información en cuerda y organizarla en una hoja de cálculo de Excel. El congregación de Ahmed se preguntó si dichos agentes de interfaz de adjudicatario podrían diseñarse para utilizar CAD, que zapatilla muchas más características y funciones e implica tareas mucho más complicadas de las que puede realizar un agente de interfaz de adjudicatario promedio.

En su nuevo trabajo, el equipo tenía como objetivo diseñar un agente de interfaz de adjudicatario impulsado por IA que toma las riendas del software CAD para crear una lectura 3D de un borrador 2D, clic a clic. Para hacerlo, el equipo primero analizó un conjunto de datos existente de objetos diseñados en CAD por humanos. Cada objeto del conjunto de datos incluye la secuencia de comandos de diseño de parada nivel, como «cuerda de croquis», «círculo» y «extruir», que se utilizaron para construir el objeto final.

Sin secuestro, el equipo se dio cuenta de que estos comandos de parada nivel por sí solos no eran suficientes para capacitar a un agente de IA para que efectivamente utilizara el software CAD. Un real agente incluso debe comprender los detalles detrás de cada obra. Por ejemplo: ¿Qué región del borrador debería distinguir? ¿Cuándo debería acercarse? ¿Y qué parte de un borrador debería extruir? Para cerrar esta brecha, los investigadores desarrollaron un sistema para traducir comandos de parada nivel en interacciones de interfaz de adjudicatario.

«Por ejemplo, digamos que dibujamos un borrador trazando una cuerda desde el punto 1 al punto 2», dice Nehme. «Tradujimos esas acciones de parada nivel a acciones de interfaz de adjudicatario, lo que significa que decimos: vaya desde esta ubicación de píxel, haga clic y luego muévase a una segunda ubicación de píxel y haga clic, mientras tenemos seleccionada la operación de ‘cuerda'».

Al final, el equipo generó más de 41.000 vídeos de objetos CAD diseñados por humanos, cada uno de los cuales se describe en tiempo actual en términos de clics específicos, arrastres del mouse y otras acciones del teclado que el humano realizó originalmente. Luego, introdujeron todos estos datos en un maniquí que desarrollaron para educarse las conexiones entre las acciones de la interfaz de adjudicatario y la reproducción de objetos CAD.

Una vez entrenado en este conjunto de datos, al que denominan VideoCAD, el nuevo maniquí de IA podría tomar un borrador 2D como entrada y controlar directamente el software CAD, haciendo clic, arrastrando y seleccionando herramientas para construir la forma 3D completa. Los objetos variaban en complejidad, desde simples soportes hasta diseños de casas más complicados. El equipo está entrenando el maniquí en formas más complejas y prevé que tanto el maniquí como el conjunto de datos algún día podrían habilitar copilotos de CAD para diseñadores en una amplia viso de campos.

«VideoCAD es un primer paso valioso con destino a los asistentes de IA que ayudan a incorporar nuevos usuarios y automatizar el trabajo de modelado repetitivo que sigue patrones familiares», dice Mehdi Ataei, que no participó en el estudio y es investigador comprobado senior en Autodesk Research, que desarrolla nuevas herramientas de software de diseño. «Esta es una pulvínulo temprana y me encantaría ver sucesores que abarquen múltiples sistemas CAD, operaciones más ricas como ensamblajes y restricciones, y flujos de trabajo humanos más realistas y desordenados».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *