La nueva IA de Runway desafía a Sora de OpenAI con videos más integrados

Dos cortometrajes realizados con el software, que se mostraron a Bloomberg News antes del lanzamiento, ofrecieron una idea de lo que puede producir.

Cristóbal "Cris" Valenzuela, CEO y cofundador de Runway AI
Por Rachel Metz
31 de marzo, 2025 | 04:19 PM

Bloomberg — Un nuevo modelo de IA de Runway AI Inc. permite a los usuarios crear videos con personajes, objetos y fondos uniformes, lo que constituye un posible paso hacia adelante en la carrera por usar computadores para hacer películas de un modo más rápido y barato.

Runway tiene previsto lanzar Gen-4 este lunes para sus usuarios de pago, con la intención de añadir posteriormente una función para que el software sea más capaz de generar escenas que parezcan consistentes de un video a otro.

PUBLICIDAD

Ver más: Alibaba estrena un nuevo modelo de IA para ser ejecutado directamente en teléfonos

Runway AI Inc.

Según la compañía, los usuarios podrán producir secuencias de cinco y diez segundos de duración con una resolución de 720p.

Esta startup neoyorquina desató el entusiasmo en torno a los generadores de video con IA a comienzos de 2023 con el lanzamiento de un modelo que podía producir clips de tres segundos de aspecto levemente entrecortado a partir de indicaciones escritas como “imágenes de dron de un paisaje en el desierto”.

Transcurridos dos años, la competencia ha crecido considerablemente, con empresas tecnológicas como OpenAI y Pika desplegando servicios análogos. Actualmente, Runway compite por mantenerse a la cabeza.

“En este momento, nuestro objetivo es asegurarse de que lo que estamos trabajando y construyendo tiene el nivel y la calidad que Hollywood y los cineastas y profesionales de verdad requieren”, dijo Cris Valenzuela, cofundador y CEO de Runway, durante una entrevista. “Se siente como un momento especial porque de alguna manera hemos traspasado ese umbral”.

Dos cortometrajes realizados con el software, que se mostraron a Bloomberg News antes del lanzamiento, ofrecieron una idea de lo que puede producir.

Vea más: Industria IA de China se acelera tras DeepSeek: ¿cómo afecta esto a sus rivales occidentales?

PUBLICIDAD

En un clip, que pretendía simular una escena fantástica en el bosque, similar a una animación con plastilina, se ve una pequeña y solitaria llama de una fogata que anhela una conexión y quema accidentalmente a una mofeta antes de encontrar una amiga en una roca cercana.

Para crearlo, un miembro del equipo de Runway generó cientos de videos individuales en pocas horas y luego los editó para crear un clip de aspecto coherente. El sonido se añadió por separado. Todo el proceso tardó un par de días, explicó Valenzuela.

Si bien los videos de IA han mejorado en los últimos dos años, muchos aún presentan todo tipo de inconsistencias, desde partes del cuerpo fantasma hasta objetos que desafían la física y se ven notablemente diferentes de un clip a otro. Los clips mostrados a Bloomberg News incluían algunos de estos problemas, pero eran notablemente más consistentes.

Valenzuela afirmó que el nuevo modelo de IA de Runway puede mejorar sus resultados al retener y mantener diversos detalles, como la ubicación, los personajes y la estética del video. Valenzuela se negó a explicar los detalles técnicos en profundidad, pero afirmó que Runway tuvo que replantear el objetivo de su modelo de video.

El software de Runway se ha utilizado en diversos proyectos, como la generación de escenas para House of David (La casa de David) de Amazon.com Inc., la creación de visuales para una gira de conciertos de Madonna y la creación de un anuncio para Puma.

Runway también firmó un acuerdo con Lionsgate para entrenar un modelo de inteligencia artificial con el contenido del estudio que pueda utilizarse en sus proyectos cinematográficos. Algunas universidades también utilizan la tecnología, como la Universidad de Nueva York, la Escuela de Diseño de Rhode Island y la Universidad de California en Los Ángeles.

Valenzuela señaló que la compañía trabajó para capacitar a su modelo más en la jerga cinematográfica de lo que lo ha hecho en el pasado, en un esfuerzo por hacer que el proceso de escritura de indicaciones sea más natural para los cineastas que lo utilizan.

“El primer objetivo era poder renderizar video, y creo que ese es el estado actual de la IA para video”, dijo Valenzuela. “La segunda etapa es crear historias reales que la gente vea porque son buenas y entretenidas, y conectan con ellas”.

Lea más en Bloomberg.com