Tecnología

Lo de Sora es histórico: la nueva IA de OpenAI hace videos tan hiperrealistas como falsos; no sabemos cómo lo hace

Por Redacción | domingo, 18 de febrero de 2024

EMX-Lo de Sora es histórico: la nueva IA de OpenAI hace videos tan hiperrealistas como falsos; no sabemos cómo lo hace

La nueva aplicación de OpenAI está a punto de cambiar el curso de los medios de entretenimiento


"Sora" es el nuevo modelo de IA de OpenAI capaz de generar videos realistas a partir de instrucciones de texto, superando a otras opciones en el mercado como Pika o Runway.
A pesar de los impresionantes resultados que puede lograr Sora, su desarrollo plantea varias preguntas. Por ejemplo, surge la duda sobre cómo se entrenó el modelo, es decir, qué bases de datos se utilizaron, y cómo la compañía está trabajando activamente para limitar su uso en la producción de contenido falso como deepfakes, especialmente en el contexto de las elecciones en Estados Unidos.

¿Qué es y cómo funciona Sora?

Según OpenAI, este nuevo modelo de IA puede generar videos de hasta un minuto de duración, manteniendo la calidad visual y cumpliendo con las indicaciones del usuario. Funciona a partir de elementos en movimiento y detalles precisos de la composición en escenas complejas, pero también comprende cómo otros elementos existen en el mundo físico, lo que lo hace más realista.

Además, al tener un "profundo conocimiento del lenguaje", puede interpretar indicaciones para generar personajes consistentes sin mostrar cambios en el estilo visual o en la precisión del video.


via GIPHY

La compañía también detalla que Sora, al ser un modelo de difusión similar a los generadores de imágenes, produce un video iniciando con lo que parece ruido estático, transformándolo gradualmente y eliminando el ruido.

Con esto, el modelo es capaz de generar videos completos de una vez o ampliar aquellos ya generados para hacerlos más largos, garantizando que un sujeto permanezca igual aunque se pierda en el campo visual de forma temporal, algo que suele ocurrir en otros modelos.

Los peros en Sora
Por el momento, OpenAI no ha revelado el origen del material con el que este modelo fue entrenado, y según The New York Times, la compañía se negó a mencionar el número de videos con los que aprendió o su fuente, aunque aceptó que su capacitación incluyó no solo videos públicos, sino también otros con licencia de los titulares de derechos de autor.

Este hermetismo es comprensible, ya que mantener bajo secreto sus datos utilizados les proporciona una ventaja sobre sus competidores, al no poder replicar en principio sus mismas fuentes de entrenamiento.

La falta de transparencia sobre el origen de los datos de Sora también plantea varias dudas, ya que, al igual que sucedió en su momento con el auge de deepfakes y suplantaciones realizadas con Inteligencia Artificial, podría representar un problema al determinar si un contenido es real o no, sobre todo en el marco de las elecciones de Estados Unidos.

Esto se debe a que, al volverse cada vez más eficientes en la generación de contenido, también se convierten en un método mucho más rápido y económico de crear desinformación en línea, lo que dificulta el trabajo de desmentir o verificar dichos contenidos.

El riesgo de Sora
Eso sí, OpenAI dice ser consciente de los riesgos en el uso de Sora, por lo que actualmente se están tomando medidas de seguridad importantes antes de que Sora esté disponible, probando el modelo de manera adversa para conocer sus límites y la forma de controlarlo.
Además, la compañía reveló que se están creando nuevas herramientas que permiten detectar el contenido engañoso, que se podrán usar cuando Sora produzca un nuevo video

via GIPHY

Eso no es todo, pues también se están desarrollando otras técnicas para su despliegue que aprovechen los métodos de seguridad existentes en DALL-E 3, verificando y rechazando peticiones que vayan en contra de las políticas de uso, como violencia extrema, contenido sexual, imágenes de odio, celebridades, etc., así como analizando los fotogramas de cada video para garantizar que cumplan con su política antes de mostrarlos al usuario.

OpenAI no tiene por ahora una fecha de lanzamiento al público de Sora, y según la compañía, se seguirá limitando únicamente a los investigadores por un tiempo, hasta que se pueda evitar cualquier uso inadecuado de su herramienta.



Con información de Xataka.