OpenAI lanzó este jueves Sora en Uruguay, su herramienta de generación de video mediante inteligencia artificial, que permite crear escenas audiovisuales a partir de descripciones escritas.
La llegada de la plataforma al país, a la que antes se podía acceder mediante VPN desde el pasado 30 de septiembre, acerca al público local una tecnología que ya despertó atención en otros mercados, tanto por su capacidad técnica como por las discusiones que genera sobre el uso de estos contenidos.
Embed - https://publish.x.com/oembed?url=https://x.com/soraofficialapp/status/2001715313201811905?s=20&partner=&hide_thread=false
Un estudio académico, realizado por ocho investigadores de las áreas de interacción humano-computadora, comunicación digital y estudios sociales de la tecnología de la Universidad de Illinois y de Texas, analizó cómo reaccionan los usuarios ante los videos creados con esta herramienta que lleva tres meses de vida en Estados Unidos y otros países. El trabajo se titula "Negociaciones de los usuarios sobre autenticidad, propiedad y gobernanza en plataformas de video generadas por IA: evidencia desde Sora".
La investigación se basó en el análisis de comentarios públicos realizados en la propia plataforma, con el objetivo de entender cómo las personas interpretan lo que ven y cómo discuten las reglas que ordenan el uso de Sora.
Para el estudio se seleccionaron 41 videos que contaban con al menos diez comentarios cada uno. En total se examinaron 254 intervenciones de usuarios.
A partir de ese material, los investigadores identificaron patrones vinculados a tres ejes centrales: la percepción del realismo, la autoría de los contenidos y la forma en que se aplican y discuten las normas de la plataforma.
Cómo se evalúa si un video parece real
Según el estudio, los usuarios no miran los videos de Sora de manera pasiva. En muchos casos, analizan detalles concretos para decidir si una escena podría haber ocurrido en la realidad. ntre los elementos más observados aparecen la iluminación, las sombras, los reflejos, el movimiento de personas u objetos y el comportamiento de líquidos, como el agua.
Algunos comentarios destacan cuando estos aspectos resultan convincentes, mientras que otros señalan errores que permiten identificar que el video fue generado por inteligencia artificial. Entre los mensajes citados en el estudio aparecen frases como "el movimiento de las sombras es demasiado real" o "la física del agua en este video es increíble", que funcionan como validaciones informales del realismo.
El trabajo también registra reacciones inmediatas, como sobresaltos o confusión, incluso entre usuarios que saben que están frente a un contenido sintético. En los comentarios analizados aparecen expresiones como "esto realmente me asustó" o "se sentía tan real que aparté la mirada por un segundo", que describen respuestas físicas ante los videos.
Esta dificultad para distinguir lo real de lo generado alimenta preocupaciones sobre la circulación de estos contenidos fuera de la plataforma. Algunos usuarios advierten que "si lo publicás en Facebook, el 80% lo creería" o que "si alguien le quita la marca de agua, la gente va a pensar que es real".
Los investigadores señalan que, en la práctica, la autenticidad se construye a partir de intercambios entre usuarios y no solo mediante advertencias formales.
Prompts, autoría y reglas en discusión
Otro de los hallazgos del estudio es el cambio en el rol de los usuarios, que pasan de mirar videos a interesarse por cómo se crean y qué instrucciones se utilizan. En los comentarios aparecen pedidos directos como "por favor decime el prompt" o "qué fue lo que escribiste para hacer este video", que muestran una curiosidad creciente por el proceso de creación.
Las descripciones escritas que guían a la herramienta, conocidas como prompts, son vistas por muchos como el principal aporte creativo y, por lo tanto, como algo que debe protegerse. El estudio cita expresiones como "protejan sus prompts, la gente los va a robar" o "no lo publiques o te lo copian", que reflejan esa percepción.
Aunque Sora permite reutilizar y modificar videos, el trabajo recoge discusiones entre usuarios que reclaman reconocimiento y cuestionan la copia sin crédito. Entre los comentarios analizados aparecen frases como "ese es exactamente mi prompt" o "gracias por robar mi contenido", dirigidas a otros creadores.
En cuanto a la moderación, surgen críticas a la falta de claridad en las reglas y a bloqueos que los usuarios consideran difíciles de entender. Algunos mensajes señalan: "intenté hacer un video inocente y no me dejó" o que "recibí una infracción literalmente por nada".
Al mismo tiempo, circulan consejos para evitar restricciones automáticas. El estudio menciona sugerencias como "usar espacios entre las letras", "escribirlo con errores" o "probá en otro idioma", compartidas entre usuarios.
Estas prácticas conviven con llamados al cuidado, donde algunos señalan límites éticos. Entre las frases citadas figuran advertencias como "dejen de usar caras de celebridades sin consentimiento" o "no está bien hacer que personas digan cosas que nunca dijeron".
El estudio concluye que la experiencia en Sora muestra una gobernanza compartida, donde las normas no solo bajan desde la plataforma, sino que también se discuten y ajustan entre los propios usuarios.