Meta lanza V-JEPA 2, su nuevo modelo que "ayuda a la IA a pensar antes de actuar"
Meta ha presentado este miércoles V-JEPA 2, su nuevo modelo entrenado en vídeo, que permite a los robots y otros agentes de inteligencia artificial (IA) "comprender el mundo físico y predecir cómo responderá a sus acciones".

La tecnológica ha explicado que estas capacidades son esenciales para desarrollar agentes de IA capaces de pensar antes de actuar, y V-JEPA 2 representa un avance significativo hacia su objetivo final: desarrollar inteligencia artificial avanzada (AMI).
"Como humanos, tenemos la capacidad de predecir cómo evolucionará el mundo físico en respuesta a nuestras acciones o a las de los demás. Por ejemplo, sabes que si lanzas una pelota de tenis al aire, la gravedad la atraerá hacia abajo. Cuando caminas por una zona concurrida y desconocida, te mueves hacia tu destino intentando no chocar con personas ni obstáculos en el camino", han dicho desde Meta.
"Al jugar al hockey, patinas hacia donde va el disco, no hacia donde está. Logramos esta intuición física observando el mundo que nos rodea y desarrollando un modelo interno de él, que podemos usar para predecir los resultados de acciones hipotéticas", han agregado en la compañía.
En este sentido, V-JEPA 2 ayuda a los agentes de IA a imitar esta inteligencia, lo que les permite comprender mejor el mundo físico. Los modelos que utiliza Meta para desarrollar este tipo de inteligencia en las máquinas se denominan modelos del mundo y habilitan tres capacidades esenciales: comprensión, predicción y planificación.
"Basado en V-JEPA , nuestro primer modelo entrenado en video que lanzamos el año pasado, V-JEPA 2 mejora la comprensión y la predicción, permitiendo que los robots interactúen con objetos y entornos desconocidos para completar una tarea", han señalado en la empresa.
Es más, han indicado que V-JEPA 2 está entrenado con vídeo, lo que ha ayudado al modelo a aprender patrones importantes del mundo físico, incluyendo cómo las personas interactúan con los objetos, cómo se mueven los objetos en el mundo físico y cómo interactúan entre sí. "Al implementarlo en robots en nuestros laboratorios, descubrimos que los robots pueden usar V-JEPA 2 para realizar tareas como alcanzar, recoger y colocar un objeto en una nueva ubicación".
Por otro lado, además de lanzar V-JEPA 2, en Meta han compartido tres nuevos puntos de referencia para ayudar a la comunidad investigadora a evaluar la eficacia con la que sus modelos actuales aprenden y razonan sobre el mundo mediante vídeo.
"Al compartir este trabajo, buscamos brindar a investigadores y desarrolladores acceso a los mejores modelos y puntos de referencia para acelerar la investigación y el progreso, lo que en última instancia conducirá a sistemas de IA mejores y más capaces que mejorarán la vida de las personas", han concluido.



