Pexels

Revista de ciencia ficción abrumada por cuentos escritos por IA

Clarkesworld deja de aceptar propuestas de historias después de recibir cientos de ejemplos escritos o mejorados por programas como ChatGPT

Tiempo de lectura: -'

23 de febrero de 2023 a las 13:54

Estás por alcanzar el límite de notas.

Suscribite ahora a

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 3 45 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 3 45 / mes

Madhumita Murgia

Una revista reconocida de ciencia ficción ha dejado de aceptar propuestas para nuevas historias, después de verse abrumada por una tecnología en la que sus autores a menudo basan sus narrativas futuristas: la inteligencia artificial (IA).

Clarkesworld, la revista con sede en EEUU, que ha publicado historias de varios escritores de ciencia ficción galardonados en los últimos 17 años, se ha visto inundada por cientos de historias escritas o mejoradas por IA generativa desde diciembre, cuando el chatbot ChatGPT de OpenAI se lanzó al público por primera vez.

El lunes, Neil Clarke, el fundador y editor de Clarkesworld, tuiteó que había decidido dejar de aceptar propuestas a raíz de un aumento de historias mejoradas por IA.

Clarke dijo que la revista había recibido más de 500 historias mejoradas con IA en lo que va de febrero, más de cuatro veces el total de todo enero, y que era imposible filtrarlas manualmente o manejar el volumen de contenido en tiempo real.

“Hace cinco días, el gráfico que compartimos mostraba casi 350 de estas propuestas. Hoy superó 500. Cincuenta de ellas sólo hoy, antes de que cerráramos el plazo para aceptarlas para podernos centrar en las historias legítimas”, dijo el lunes.

En un blog publicado este mes, Clarke agregó: "Para empeorar las cosas, la tecnología sólo mejorará, por lo que la detección será más desafiante".

El impacto potencial de la IA generativa (software que produce texto, arte o código realistas en respuesta a indicaciones humanas) se está volviendo más evidente desde que la tecnología saltó a la palestra el año pasado.

Empresas como OpenAI, propietaria de ChatGPT, y otras que desarrollan tecnologías similares, ya se han visto envueltas en controversias con organizaciones de noticias, artistas e ingenieros de software que afirman que la IA reproduce y se basa en sus obras originales sin reconocimiento ni compensación.

Ésta no es la primera vez que el spam generativo facilitado por la IA ha provocado este problema: en diciembre, el sitio web de codificación de preguntas y respuestas Stack Overflow se vio obligado a prohibir las respuestas generadas por ChatGPT, alegando que estas respuestas estaban inundando su foro con información errónea.

Clarke dijo que había contactado a otros editores que publicaban contenido original y que la situación "no era única". No reveló cómo identificó las historias generadas por AI, y agregó que hay "algunos patrones muy obvios y no tengo intención de ayudar a esas personas a ser menos susceptibles de ser atrapadas”.

Las motivaciones detrás de las propuestas de Clarkesworld no son obvias. Algunos sugieren que es una forma para que la gente gane dinero rápidamente, ya que Clarkesworld les paga a los escritores alrededor de US$0.10 por palabra por propuestas de historias de hasta 22,000 palabras.

Sería fácil para una sola persona falsificar su ubicación y enviar múltiples historias, dijo Eran Shimony, investigador de seguridad en el laboratorio de seguridad cibernética CyberArk.

Otros sugieren que podría ser una forma de aumentar las posibilidades de publicación de escritores novatos en la prestigiosa revista.

Sin embargo, algunos escritores advierten que la medida ahogará la creatividad, ya que el spam de IA obligará a los editores a limitar las ventanas de envío, ralentizar el ritmo de respuesta y, potencialmente, reducir sus tasas de pago.

“Las únicas personas cuyas obras serán seleccionadas serán las ya establecidas y conocidas. Será mortal para los nuevos escritores”, dijo Shiv Ramdas, un escritor de ficción especulativa, en Twitter.

A principios de este mes, OpenAI lanzó una herramienta experimental para detectar contenido generado por IA, en un esfuerzo por abordar las preocupaciones de los educadores sobre el plagio, las trampas y otras formas de "deshonestidad académica". Sin embargo, sus investigadores dijeron que la herramienta sólo identificó contenido generado por IA el 26 por ciento de las veces.

CONTENIDO EXCLUSIVO Member

Esta nota es exclusiva para suscriptores.

Accedé ahora y sin límites a toda la información.

¿Ya sos suscriptor?
iniciá sesión aquí

Alcanzaste el límite de notas gratuitas.

Accedé ahora y sin límites a toda la información.

Registrate gratis y seguí navegando.