OpenAI lanzó esta semana Sora 2, su nueva apuesta por la creación automática de videos cortos que combina generación de imagen, audio y diálogo con inteligencia artificial en una sola herramienta. La empresa presentó el modelo como una versión más precisa y controlable que sus sistemas previos, diseñada para convertir descripciones textuales en escenas con movimiento, ambientes sonoros y voces sincronizadas.
Cómo funciona la generación de video con Sora 2
La aplicación Sora 2 se presentó como un espacio para crear y compartir piezas breves en formato vertical, con una mecánica de uso similar a otras redes de video: el usuario escribe una instrucción, ajusta parámetros básicos y recibe un clip listo para ver y difundir. Entre sus atractivos técnicos, OpenAI destacó mejoras en realismo físico y en la sincronía entre imagen y audio, además de herramientas que permiten invitar a otras personas a autorizar el uso de su imagen dentro de un “cameo”.
En su lanzamiento, Sora 2 abrió de forma limitada: la app está disponible por ahora sólo en iOS y por sistema de invitaciones, con acceso inicial en Estados Unidos y Canadá. OpenAI indicó que la oferta se ampliará progresivamente, que la versión web ofrecerá controles adicionales y que la llegada a Android y a otras regiones será posterior.
La respuesta del público fue inmediata. En sus primeros días la app alcanzó el primer puesto en la tienda de aplicaciones de Apple y, según análisis de mercado, acumuló decenas de miles de descargas en la primera semana, lo que la ubicó por encima del desempeño inicial de otras herramientas previas de la compañía. Ese ascenso hizo que la plataforma se convirtiera rápidamente en una fuente de material viral.
Controversias y ejemplos de contenidos problemáticos
Junto con el interés creativo, surgieron críticas y problemas de moderación. Investigadores y organizaciones informativas documentaron contenidos violentos, racistas y representaciones no autorizadas de personas fallecidas, que generaron rechazo público y reacciones de familiares de las víctimas. Ese fenómeno, descrito por expertos como una forma de “resurrección sintética”, planteó preguntas sobre los límites éticos y legales de las representaciones post mortem y sobre la eficacia de los filtros contra contenidos dañinos.
Medidas de seguridad y controles anunciados por OpenAI
OpenAI señaló que incorporó medidas de seguridad desde el inicio del despliegue y que trabaja en herramientas para proteger la integridad y los derechos de las personas. Entre las opciones anunciadas figuran controles de permisos para el uso de imágenes, procedimientos para solicitar la eliminación de contenidos y el desarrollo de mecanismos para dar más control a titulares de derechos y figuras públicas. La compañía afirmó que ampliará esas protecciones conforme la plataforma crezca.
El lanzamiento dejó en evidencia dos tensiones centrales. Por un lado, la tecnología amplía lo que los creadores pueden producir con rapidez y sin infraestructura técnica avanzada; por otro, acelera dilemas sobre veracidad, consentimiento y daño emocional que las leyes aún no resuelven de manera uniforme. Reguladores, sectores creativos y empresas tecnológicas ya discuten posibles respuestas que van desde normas más estrictas de identificación y etiquetado hasta acuerdos de compensación para el uso de la imagen y el contenido con valor comercial.
Sora 2 entra así en un mercado que ya incluye propuestas similares de otras grandes empresas tecnológicas y que se define tanto por la innovación como por la urgencia de establecer límites claros. En lo inmediato, la aplicación seguirá en fase de adopción selectiva y de ajustes operativos; su impacto dependererá de la velocidad con que sus responsables implementen controles efectivos y de la forma en que usuarios, autoridades y titulares de derechos negocien nuevas reglas para el uso de la representación digital.