Sora 2: la nueva frontera del video hiperrealista que divide a las redes
Con su capacidad de generar imágenes casi indistinguibles de la realidad, Sora 2 reaviva el debate sobre ética, derechos de imagen y el futuro del contenido digital.

Con su capacidad de generar imágenes casi indistinguibles de la realidad, Sora 2 reaviva el debate sobre ética, derechos de imagen y el futuro del contenido digital.
El reciente lanzamiento de Sora 2, la nueva versión del sistema de generación de video por inteligencia artificial de OpenAI, ha desatado una oleada de reacciones en redes sociales y medios especializados.
La razón: su capacidad para producir escenas visuales hiperrealistas a partir de texto o al integrar rostros reales, lo que ha llevado a que usuarios comparten imágenes y clips que muchos consideran indistinguibles de tomas reales.
Desde su disponibilidad en modo invitación el 30 de septiembre de 2025, Sora 2 escaló rápidamente en las listas de descargas en la App Store de Estados Unidos, desplazando por momentos incluso al propio ChatGPT.
Pero junto con el entusiasmo también surgieron críticas y miedos sobre sus posibles malos usos.
1. Generación de video hiperrealista con "cameos"
Una de las funciones más llamativas (y controvertidas) de Sora 2 es "Cameo": permite integrar rostros reales o imágenes de usuarios dentro de escenas generadas por IA. Así, se pueden crear videos ficticios en los que personas aparentemente aparecen interactuando con entornos o personajes elaborados digitalmente.
2. Imágenes que imitan la realidad
Los resultados visuales, especialmente en retratos, iluminación, texturas y expresiones faciales, son lo suficientemente convincentes como para que muchos espectadores debatan si el material es real o generado.
3. Políticas de uso y derechos de imagen cuestionables
Al inicio, OpenAI adoptó una política tipo "opt-out": los titulares de derechos debían pedir explícitamente que sus contenidos no fueran replicados por Sora 2.
Pero ante la presión pública y las críticas, la compañía anunció que modificará su política hacia un modelo más "granular", donde los creadores pueden decidir más directamente qué se permite.
Villpress
Además, aunque los videos generados incluyen una marca de agua dinámica, se ha descubierto que existen programas de terceros capaces de remover esa marca fácilmente en cuestión de días tras el lanzamiento.
El mayor combustible de la polémica fueron los clips que replican escenas con celebridades fallecidas, escenarios ficticios con rostros reconocibles o eventos íntimos de la vida real recreados digitalmente:
Sam Altman, director de OpenAI, "robando" en una tienda: este video, altamente realista, se viralizó y generó dudas y debates sobre su veracidad.
i have the most liked video on sora 2 right now, i will be enjoying this short moment while it lasts
— gabriel (@GabrielPeterss4) September 30, 2025
cctv footage of sam stealing gpus at target for sora inference pic.twitter.com/B86qzUGlMq
Reuniones entre íconos difuntos: un clip mostraba a Tupac, Kobe Bryant, Michael Jackson, Elvis y otros juntos en una ambientación ficticia, lo que generó asombro y críticas por el uso no autorizado de sus imágenes.
AI is really getting out of hand—they’ve got Tupac Shakur linking up with Kobe Bryant, Michael Jackson, Biggie, Bruce Lee, Elvis & Fidel Castro. 😳😭🎤 pic.twitter.com/gsxh07Q9hJ
— Rain Drops Media (@Raindropsmedia1) October 3, 2025
Zelda Williams, hija de Robin Williams, calificó los videos creados con Sora 2 que muestran a su padre como "grotescos" y pidió que se detenga el envío de tales contenidos.
Bernice King, hija de Martin Luther King Jr., también se expresó contra el uso de la imagen de su padre en videos manipulados digitalmente.
Martin Luther King if he was Moroccan
— Marouane Lamharzi Alaoui (@marouane53) October 2, 2025
Made by openAI Sora 2 pic.twitter.com/1jS4kE2fm0
Además, este tipo de videos erosionan la confianza en los medios visuales al dificultar a los usuarios identificar imágenes reales de las creadas por IA.
Si cada video convincente puede ser falseado con facilidad, la premisa "ver para creer" pierde fuerza, socavando la credibilidad del contenido informativo en general.
OpenAI ha reconocido parte de las críticas. El CEO Sam Altman admitió que subestimaron la reacción pública ante la libertad del sistema.
También anunció nuevas medidas para que figuras públicas deban optar explícitamente por permitir su uso en Sora 2, y prometió controles más estrictos sobre personajes con derechos reservados.
No obstante, numerosos críticos sostienen que esas salvaguardas son insuficientes, o que llegan demasiado tarde, especialmente cuando numerosos videos ya circulan libremente sin restricción.
Organismos de la industria del entretenimiento, como agencias de talentos (CAA, WME, UTA), han exigido que OpenAI respete y compense el uso de la imagen de sus representados.