tendencias

La carrera de robots impulsa la lucha por los datos de entrenamiento



Dirección copiada

La Inteligencia Artificial está revolucionando la forma en que aprenden los robots, creando una creciente necesidad de datos de entrenamiento. Las empresas y los investigadores se enfrentan a una variedad de cuestiones éticas y legales para obtener dichos datos.

Publicado el 9 de ago de 2024



Datos de entrenamiento para robots

La IA está revolucionando la forma en que aprenden los robots, lo que ha creado una creciente necesidad de datos de entrenamiento en las empresas y los investigadores. Obtenerlos significa abordar una serie de cuestiones éticas y legales. Desde que se lanzó ChatGPT, hemos estado interactuando con las herramientas de IA de forma más directa y regular que nunca. Pero la interacción con robots, por el contrario, sigue siendo una excepción para la mayoría de las personas.

Los especialistas en robótica creen que, con las nuevas técnicas de IA, lograrán algo deseado durante décadas: robots más capaces que puedan moverse libremente en entornos desconocidos y enfrentarse a desafíos nunca antes vistos.

Russ Tedrake, vicepresidente de investigación robótica del Instituto de Investigación de Toyota, al hablar sobre el ritmo actual de este campo, afirma que ha visto muchos ciclos de bombo publicitario subir y bajar, pero ninguno como este. La falta de acceso a los tipos de datos que se utilizan para entrenar a los robots para que puedan interactuar más fácilmente con el mundo físico. Es mucho más difícil de obtener que los datos utilizados para entrenar los modelos de IA más avanzados, como el GPT, principalmente textos, imágenes y vídeos tomados de Internet.

Los programas de simulación pueden ayudar a los robots a aprender a interactuar con lugares y objetos, pero los resultados siguen siendo víctimas de lo que se conoce como la ‘brecha entre la simulación y la realidad’, o errores que se producen cuando los robots pasan de la simulación al mundo real. Por ahora, seguimos necesitando acceso a datos físicos del mundo real para entrenar a los robots. Estos datos son relativamente escasos y su recopilación tiende a requerir mucho más tiempo, esfuerzo y equipos costosos.

Esta escasez es una de las principales razones que actualmente obstaculizan el progreso de la robótica. Como resultado, las principales empresas y laboratorios compiten ferozmente para encontrar nuevas y mejores formas de recopilar los datos de entrenamiento que necesitan. Esto les ha llevado por caminos extraños, como utilizar brazos robóticos para voltear tortitas durante horas y horas, ver miles de horas de vídeos de cirugía gráfica extraídos de YouTube o enviar a investigadores a numerosos Airbnbs para filmar todos los rincones escondidos. Por el camino, se topan con los mismos problemas de privacidad, ética y derechos de autor que sus homólogos del mundo de los chatbots.

La nueva necesidad de datos de entrenamiento

Durante décadas, los robots han sido entrenados para tareas específicas, como coger una pelota de tenis o dar un salto mortal. Mientras los humanos aprendían sobre el mundo físico mediante la observación y el ensayo y error, muchos robots aprendían mediante ecuaciones y códigos. Este método era lento, pero lo que era peor, significaba que los robots no podían transferir habilidades de una tarea a otra nueva.

Pero ahora, los avances en la IA están acelerando un cambio que ya había comenzado: permitir que los robots aprendan por sí mismos a través de los datos. Del mismo modo que un modelo lingüístico puede aprender de una biblioteca repleta de novelas, se pueden mostrar modelos de robots a cientos de demostraciones en las que una persona lava ketchup de un plato con unas pinzas robóticas, por ejemplo, y luego imita la tarea sin saber explícitamente qué es el ketchup ni cómo abrir el grifo. Este enfoque permite un progreso más rápido y máquinas con capacidades mucho más generales.

Ahora, todas las empresas y laboratorios líderes están intentando permitir que los robots piensen en nuevas tareas mediante la IA. Su éxito dependerá de si los investigadores pueden encontrar suficientes tipos de datos diferentes como para refinar los modelos para robots, así como de nuevas formas de utilizar el Aprendizaje Reforzado para saber cuándo tienen razón y cuándo no.

“Muchas personas están intentando averiguar cuál será la próxima fuente de macrodatos”, afirma Pras Velagapudi, director de tecnología de Agility Robotics, empresa que produce un robot humanoide que funciona en los almacenes de clientes como Amazon. Las respuestas a la pregunta de Velagapudi ayudarán a definir en qué se destacarán las máquinas del mañana y qué funciones podrían desempeñar en nuestros hogares y lugares de trabajo.

Principales datos de entrenamiento

Para hacernos una idea de lo que significan los datos primarios para los robots, consideremos los métodos adoptados por el Instituto de Investigación de Toyota (TRI). En un enorme laboratorio de Cambridge (Massachusetts), equipado con brazos robóticos, ordenadores y una serie aleatoria de objetos cotidianos, como un recogedor de polvo y látigos de cocina, los investigadores enseñan a los robots nuevas tareas mediante la teleoperación, creando lo que se denomina datos de demostración.

Un ser humano podría usar un brazo robótico para hacer girar un panqueque 300 veces en una tarde, por ejemplo. El modelo procesa esos datos de la noche a la mañana y, a menudo, el robot puede realizar la tarea de forma autónoma a la mañana siguiente, afirma TRI. Como las demostraciones muestran muchas iteraciones de la misma tarea, la teleoperación genera datos enriquecidos y etiquetados con precisión que ayudan a los robots a realizar bien las nuevas tareas. El problema es que la creación de esos datos lleva mucho tiempo y también está limitada por la cantidad de costosos robots que se pueden permitir.

Para crear datos de entrenamiento de calidad de forma más económica y eficiente, Shuran Song, director del Laboratorio de Robótica e Inteligencia Artificial Incorporada de la Universidad de Stanford, diseñó un dispositivo que se puede utilizar con mayor agilidad manual y se ha fabricado a un coste mucho menor. Básicamente, una pinza de plástico liviana puede recopilar datos a medida que la utilizas en las actividades diarias, como romper un huevo o poner la mesa. Luego, los datos se pueden usar para entrenar a los robots para que imiten esas tareas. El uso de dispositivos más simples como este podría acelerar el proceso de recopilación de datos.

Trabajos de código abierto

Recientemente, los especialistas en robótica han identificado otro método para obtener más datos de entrenamiento: compartir lo que han recopilado entre ellos, ahorrándose así el laborioso proceso de crear conjuntos de datos por su cuenta.

El conjunto de datos de interacción robótica distribuida (DROID), publicado en abril de 2024, fue creado por investigadores de 13 instituciones, incluidas empresas como Google DeepMind y universidades líderes como Stanford y Carnegie Mellon. Contiene 350 horas de datos generados por seres humanos que realizan tareas que van desde cerrar una gofrera hasta limpiar un escritorio. Como los datos se recopilaron utilizando un hardware común en el mundo de la robótica, los investigadores pueden usarlos para crear modelos de IA y luego probar esos modelos en los equipos que ya tienen.

El trabajo se basa en el éxito de Open X-Embodiment Collaboration, un proyecto similar de Google DeepMind que recopiló datos sobre 527 habilidades de distintos tipos de hardware. El conjunto de datos ayudó a crear el modelo RT-X de Google DeepMind, que puede transformar instrucciones textuales (por ejemplo, “Mueva la manzana a la izquierda de la lata de refresco”) en movimientos físicos.

Los modelos robóticos basados en datos de código abierto como este pueden resultar impresionantes, afirma Lerrel Pinto, investigador que dirige el Laboratorio General de Robótica e Inteligencia Artificial de la Universidad de Nueva York. Sin embargo, no pueden trabajar en una gama de casos de uso lo suficientemente amplia como para competir con los modelos patentados creados por las principales empresas privadas.

Lo que está disponible a través del código abierto simplemente no es suficiente para que los laboratorios puedan crear con éxito modelos a una escala que sirva de referencia: robots con capacidades generales y que puedan recibir instrucciones a través de texto, imágenes y vídeo.

“La mayor limitación son los datos”, afirma. Solo las empresas ricas tienen lo suficiente. La ventaja de los datos de estas empresas solo se consolida con el tiempo. En su búsqueda de más datos de formación, las empresas privadas de robótica con una gran base de clientes disponen de un arma no tan secreta: sus propios robots son máquinas de recopilación permanente de datos.

Covariant, una empresa de robótica fundada en 2017 por investigadores de OpenAI, despliega robots entrenados para identificar y recoger artículos en almacenes para empresas como Crate & Barrel y Bonprix. Estas máquinas recopilan imágenes constantemente, que luego se envían a Covariant. Cada vez que el robot no coge una botella de champú, por ejemplo, se convierte en un punto de datos desde el que aprender, y el modelo mejora sus habilidades de recolección de champú para la próxima vez. El resultado es un enorme conjunto de datos patentados recopilados de las máquinas de la empresa.

Este conjunto de datos es parte de la razón por la que, a principios de año, Covariant pudo lanzar un poderoso modelo base, como se conoce a los modelos de IA capaces de una variedad de usos. Los clientes ahora pueden comunicarse con sus robots comerciales del mismo modo que lo harían con un chatbot: es posible hacer preguntas, mostrarle fotos e indicarle que grabe un vídeo de sí mismo moviendo un objeto de una caja a otra.

Luego, estas interacciones de los clientes con el modelo, denominado RFM-1, producen aún más datos para ayudarlo a mejorar. Peter Chen, cofundador y director ejecutivo de Covariant, afirma que exponer a los robots a una variedad de objetos y entornos diferentes es fundamental para el éxito del modelo. “Tenemos robots que gestionan la ropa, los productos farmacéuticos, los cosméticos y los alimentos frescos”, afirma. “Es uno de los puntos fuertes únicos de nuestro conjunto de datos“. El siguiente paso será llevar su flota a más sectores e incluso disponer del modelo de IA que alimente diferentes tipos de robots, como los humanoides, afirma Chen.

Aprender de los vídeos

La escasez de datos de entrenamiento reales de alta calidad ha llevado a algunos especialistas en robótica a proponer evitar por completo ese método de recopilación. ¿Y si los robots pudieran simplemente aprender de los vídeos de las personas? Estos datos de vídeo son más fáciles de producir, pero a diferencia de los datos teleoperativos, carecen de puntos de datos ‘cinemáticos’, que rastrean los movimientos exactos de un brazo robótico a medida que se mueve por el espacio.

Investigadores de la Universidad de Washington y Nvidia han creado una solución alternativa: crear una aplicación móvil que permite a las personas entrenar robots mediante la Realidad Aumentada. Los usuarios graban vídeos en los que aparecen realizando tareas sencillas con las manos, como coger un vaso, y el programa de Realidad Aumentada puede traducir los resultados en puntos de referencia para que el software de robótica aprenda.

Meta AI está utilizando un método de recopilación similar a mayor escala a través de su proyecto Ego4D, un conjunto de datos de más de 3.700 horas de vídeos grabados por personas de todo el mundo haciendo de todo tipo de cosas, desde colocar ladrillos hasta jugar al baloncesto o amasar masa de pan. El conjunto de datos está desglosado por tareas y contiene miles de anotaciones que detallan lo que sucede en cada escena, por ejemplo, cuando se quita una hierba de un jardín o se lija por completo un trozo de madera.

Al aprender de los datos de vídeo, los robots pueden realizar una variedad de tareas mucho más amplia de la que podrían realizar si dependieran exclusivamente de la teleoperación humana (imagine doblar masa de croissant con brazos robóticos). Esto es importante, porque así como los modelos lingüísticos potentes necesitan datos complejos y diversos para aprender, los especialistas en robótica solo pueden crear sus potentes modelos si exponen a los robots a miles de tareas.

Obtenga datos de entrenamiento de YouTube

Con este fin, algunos investigadores están intentando obtener información útil de una fuente muy abundante pero de baja calidad: YouTube. Con miles de horas de vídeos subidos cada minuto, no hay escasez de contenido disponible. El problema es que la mayoría de ellos son bastante inútiles para un robot. Esto se debe a que no está etiquetado con los tipos de información que necesitan los robots, como anotaciones o datos cinemáticos.

En Stanford, el investigador Emmett Goodman examinó cómo se puede llevar la IA al quirófano para que las operaciones sean más seguras y predecibles. La falta de datos de entrenamiento se ha convertido rápidamente en un obstáculo. En las operaciones laparoscópicas, los cirujanos suelen utilizar brazos robóticos para manipular los instrumentos quirúrgicos insertados a través de incisiones muy pequeñas en el cuerpo. Estos brazos robóticos tienen cámaras que capturan imágenes que pueden ayudar a formar modelos, una vez que se ha eliminado la información de identificación personal de los datos. En cambio, en las operaciones abiertas más tradicionales, los cirujanos utilizan sus manos en lugar de brazos robóticos. Esto produce muchos menos datos para crear modelos de IA. “Este es el principal obstáculo para que la IA destinada a operaciones abiertas sea la que se desarrolle más lentamente”, afirma. “¿Cómo se recopilan realmente estos datos?”

Para solucionar este problema, Goodman entrenó un modelo de Inteligencia Artificial a partir de miles de horas de vídeos de operaciones a cielo abierto, grabados por médicos con cámaras portátiles o colocadas sobre ellas, que su equipo recopiló de YouTube (sin información identificable).

Su modelo, descrito en un artículo publicado en la revista médica JAMA en diciembre de 2023, pudo entonces identificar segmentos de las operaciones a partir de los vídeos. Esto ha sentado las bases para crear datos de formación útiles, aunque Goodman admite que los obstáculos para hacerlo a gran escala, como la privacidad de los pacientes y el consentimiento informado, no se han superado.

Posibles problemas legales

Es probable que dondequiera que los especialistas en robótica busquen sus nuevas minas de datos de entrenamiento, tarde o temprano se enfrenten a importantes batallas legales.

Los productores de modelos lingüísticos de gran tamaño ya están teniendo que sortear cuestiones relacionadas con el crédito y los derechos de autor. Una demanda presentada por el New York Times alega que ChatGPT copia el estilo expresivo de sus historias cuando genera texto. La directora técnica de OpenAI fue noticia recientemente cuando dijo que Sora, la herramienta de generación de vídeo de la empresa, se había formado con datos disponibles públicamente, lo que provocó críticas por parte del director ejecutivo de YouTube, quien afirmó que si Sora hubiera aprendido de los vídeos de YouTube, habría infringido las condiciones de servicio de la plataforma.

“Es un ámbito en el que existe una gran inseguridad jurídica”, afirma Frank Pasquale, profesor de la Facultad de Derecho de Cornell. Si las empresas de robótica quieren unirse a otras empresas de Inteligencia Artificial para utilizar obras protegidas por derechos de autor en sus programas de formación, no está claro si esto está permitido por la doctrina del uso justo, que permite utilizar material protegido por derechos de autor sin autorización en un conjunto restringido de circunstancias.

Un ejemplo que suelen citar las empresas de tecnología y quienes simpatizan con su punto de vista es el caso Google Books de 2015, en el que los tribunales dictaminaron que Google no había infringido las leyes de derechos de autor al crear una base de datos de millones de libros en la que se podían realizar búsquedas. Según Pasquale, este precedente legal podría inclinar ligeramente la balanza a favor de las empresas de tecnología. Es demasiado pronto para decir si las impugnaciones legales frenarán el avance de la robótica, ya que los casos relacionados con la IA son numerosos y aún están indecisos. Pero es seguro que los especialistas en robótica que consulten YouTube u otras fuentes de vídeo en Internet en busca de datos de entrenamiento se encontrarán navegando por aguas bastante inexploradas.

La próxima era de robots

No todos los especialistas en robótica creen que los datos sean el eslabón perdido para el próximo punto de inflexión. Algunos dicen que si construimos un mundo virtual lo suficientemente bueno en el que los robots puedan aprender, tal vez no necesitemos en absoluto datos de entrenamiento del mundo real.

¿Por qué hacer el esfuerzo de entrenar a un robot que hace tortitas en una cocina real, por ejemplo, si, por el contrario, puede aprender mediante una simulación digital? Los robotistas llevan mucho tiempo utilizando programas de simulación, que reproducen digitalmente los entornos en los que se mueven los robots, a menudo con detalles como la textura de las tablas del suelo o las sombras que proyectan las luces de arriba. Sin embargo, por muy poderosos que sean, los robots que utilizan estos programas para entrenar máquinas siempre han tenido que hacer frente a la brecha entre la simulación y la realidad. Ahora la brecha podría reducirse. Las técnicas de imagen avanzadas y el procesamiento más rápido permiten que las simulaciones se parezcan más al mundo real.

Nvidia, que ha utilizado su experiencia en gráficos de videojuegos para construir el principal simulador de robótica, llamado Isaac Sim, anunció el mes pasado que las principales empresas de robótica humanoide, como Figure y Agility, están utilizando su programa para construir modelos básicos. Estas empresas construyen réplicas virtuales de sus robots en el simulador y luego las lanzan para explorar una serie de nuevos entornos y tareas.

Deepu Talla, vicepresidente de la división de robótica y computación perimetral de Nvidia, no se echa atrás al pronosticar que este modo de entrenamiento casi sustituirá al entrenamiento de robots en el mundo real. Simplemente es mucho más barato, afirma. “Será de un millón a uno, si no más, en términos de la cantidad de cosas que se harán en la simulación”, afirma. “Porque podemos permitírnoslo”.

Sin embargo, si los modelos pueden resolver algunos de los problemas ‘cognitivos’, como el aprendizaje de nuevas tareas, lograr este éxito de una forma física eficaz y segura plantea una serie de desafíos, afirma Aaron Saunders, director de tecnología de Boston Dynamics. “Todavía estamos muy lejos de construir equipos capaces de detectar diferentes tipos de materiales, de fregar y limpiar, o de aplicar una fuerza suave». Todavía queda una gran parte de la ecuación sobre cómo programar los robots para que actúen realmente en función de toda esta información e interactúen con el mundo”.

Si resolviéramos este problema, ¿cómo sería el futuro de la robótica? Podríamos ver robots ágiles que ayudan a las personas con discapacidades físicas a moverse por sus hogares, drones autónomos que limpian la contaminación o los residuos peligrosos o robots quirúrgicos que hacen incisiones microscópicas, lo que permite realizar operaciones con un menor riesgo de complicaciones. Sin embargo, a pesar de todas estas visiones optimistas, ya están surgiendo otras más controvertidas. El uso de la Inteligencia Artificial por parte de las fuerzas armadas de todo el mundo está aumentando, y la aparición de armas autónomas plantea problemas preocupantes.

Entre los laboratorios y empresas preparados para liderar la carrera de los datos dentrenamiento se encuentran, por el momento, las startups de robots humanoides, muy apreciadas por los inversores (Figure AI recibió recientemente una financiación de 675 millones de dólares), las empresas comerciales con grandes flotas de robots que recopilan datos y las empresas de drones respaldadas por importantes inversiones militares. Mientras tanto, los laboratorios académicos más pequeños están haciendo más con menos para crear conjuntos de datos de entrenamiento que compitan con los de los que disponen las grandes empresas tecnológicas. Pero lo que está claro es que estamos al principio de la carrera por los datos de los robots. Como el camino correcto está lejos de ser obvio, todos los robotistas que se precien utilizan cualquier método para ver qué funciona.

Fuente: Ai4business.it, Network Digital360

Artículos relacionados

Artículo 1 de 4