Runway, una startup de IA que ayudó a desarrollar el generador de imágenes de IA Stable Diffusion, lanzó ayer su primera aplicación móvil para brindar a los usuarios acceso a Gen-1, su modelo de IA generativa de video a video. Actualmente, la aplicación solo está disponible en dispositivos iOS.
Con la nueva aplicación, los usuarios podrán grabar un vídeo desde sus teléfonos y generar un vídeo con IA en minutos. También pueden transformar cualquier vídeo existente en su biblioteca mediante el uso de mensajes de texto, imágenes o ajustes preestablecidos de estilo.
Los usuarios pueden seleccionar de la lista de ajustes preestablecidos de Runway, como «Paisaje de nubes», o transformar su video para que parezca una animación con plastilina, un boceto al carbón, una acuarela, un origami de papel y más. También pueden cargar una imagen o escribir una idea en el cuadro de texto.
Luego, la aplicación generará cuatro vistas previas para que los usuarios seleccionen. Una vez que seleccionen cuál les gusta más, tardarán unos minutos en elaborar el producto final. Probamos la aplicación nosotros mismos y descubrimos que tardaba unos 60 segundos o más. A veces tardaba dos minutos en generarse.
Naturalmente, como ocurre con cualquier generador de IA, los resultados no son perfectos y, a menudo, parecen distorsionados o extraños. En general, el concepto de generadores de vídeo con IA puede parecer tonto y posiblemente incluso efectista. Pero a medida que la tecnología evoluciona y mejora con el tiempo, podría resultar valiosa para los usuarios. Por ejemplo, los creadores de contenido pueden darle vida a sus publicaciones en las redes sociales.
De todos modos, descubrimos que la aplicación móvil de Runway era fácil de usar y, en general, divertida.
A continuación se muestra un ejemplo que se nos ocurrió, utilizando un clip de Michael Scott de «The Office». Un mensaje de texto que ingresamos fue «títere realista».
(Advertencia: el resultado es aterrador).
Créditos de imagen: Pasarela (tomado del clip de Office)
También probamos la “animación 3D”, que resultó bien.
![](https://techcrunch.com/wp-content/uploads/2023/04/96024673a674469566f8a3db0abdd3553c0e2d9f.gif)
Créditos de imagen: Pasarela (tomado del clip de Office)
Por supuesto, hay algunas otras advertencias además de fallos y caras deformadas.
Si los usuarios quieren la versión gratuita, hay un límite de 525 créditos y sólo pueden subir vídeos de cinco segundos de duración. Cada segundo de un vídeo utiliza 14 créditos.
En el futuro, Runway planea agregar soporte para videos más largos, dijo a TechCrunch el cofundador y director ejecutivo Cristóbal Valenzuela. La aplicación seguirá mejorando y lanzando nuevas funciones, añadió.
“Estamos enfocados en mejorar la eficiencia, la calidad y el control. En las próximas semanas y meses, verán todo tipo de actualizaciones, desde resultados más largos hasta videos de mayor calidad”, dijo Valenzuela.
Además, tenga en cuenta que la aplicación no genera desnudos ni trabajos protegidos por derechos de autor, por lo que no puede crear videos que imiten el estilo de IP populares.
La nueva aplicación móvil de Runway tiene dos planes premium: Estándar ($143,99/año) y Pro ($344,99/año). El plan estándar le brinda 625 créditos al mes y otras funciones premium como video de 1080p, proyectos ilimitados y más. El plan Pro ofrece 2250 créditos/mes y las más de 30 herramientas de inteligencia artificial de Runway.
![](https://techcrunch.com/wp-content/uploads/2023/04/Screen-Shot-2023-04-25-at-2.15.36-PM.png)
Créditos de imagen: Pista
Un mes después de que Runway lanzara Gen-1, que se lanzó en febrero, Runway lanzó su modelo Gen-2. Posiblemente un paso adelante respecto a los modelos de texto a imagen Stable Diffusion y DALL-E, Gen-2 es un generador de texto a video, por lo que los usuarios podrán generar videos desde cero.
Runway ha comenzado lentamente a implementar el acceso a su versión beta cerrada para Gen-2, nos dijo Valenzuela.
La aplicación actualmente es compatible con el modelo Gen-1, pero Gen-2 pronto estará disponible junto con otras herramientas de inteligencia artificial de Runway, como su generador de imagen a imagen.
Meta y Google han lanzado generadores de texto a vídeo, llamados Make-A-Video e Imagen, respectivamente.
Runway ha desarrollado varios software de edición de video con tecnología de inteligencia artificial desde su lanzamiento en 2018. La compañía tiene una variedad de herramientas diferentes dentro de su editor de video basado en web, como interpolación de cuadros, eliminación de fondo, efectos de desenfoque, una función que limpia o elimina el seguimiento de audio y movimiento, entre muchos otros.
Las herramientas han ayudado a personas influyentes e incluso a estudios de cine y televisión a reducir el tiempo dedicado a editar y crear videos.
Por ejemplo, el equipo de efectos visuales detrás de “Everything Everywhere All at Once” utilizó la tecnología de Runway para ayudar a crear la escena de la película donde Evelyn (Michelle Yeoh) y Joy (Stephanie Hsu) están en un multiverso donde se han convertido en seres en movimiento. rocas.
Además, el equipo gráfico detrás de “The Late Show with Stephen Colbert” de CBS utilizó Runway para reducir las horas de edición a sólo cinco minutos, según el director de arte Andro Buneta.
Runway también opera Runway Studios, su división de producción y entretenimiento.
Pcenter.es – #startup #Runway #lanza #una #aplicación #para #brindar #los #usuarios #generativa #video #video
Síguenos en YouTube: @PCenterES