Un video publicado en TikTok mostró una ametralladora controlada mediante comandos de voz con ChatGPT. El sistema respondía de manera precisa a órdenes como “dispara en el frente izquierdo”, siguiendo instrucciones para ejecutar disparos.
El creador del proyecto demostró cómo la tecnología de inteligencia artificial puede integrarse fácilmente en dispositivos peligrosos. Según se observa en el video, los comandos fueron diseñados para simular escenarios de conflicto bélico.
Embed - https://publish.twitter.com/oembed?url=https://x.com/itsandrewgao/status/1876719122781806846&partner=&hide_thread=false
El caso generó reacciones inmediatas en redes sociales y entre expertos en tecnología y ética. La capacidad de ChatGPT para ejecutar tareas de este tipo despertó inquietudes sobre el uso indebido de herramientas avanzadas.
Reacción de OpenAI y sus implicaciones
OpenAI, creador de ChatGPT, actuó rápidamente suspendiendo el acceso del usuario responsable a su API. Según la compañía, esta utilización viola claramente los términos y condiciones del servicio y contradice los objetivos principales de la herramienta, que está diseñada para tareas como educación, creatividad y resolución de problemas.
Sin embargo, el incidente reavivó un debate más amplio sobre la necesidad de regular el uso de la inteligencia artificial. Aunque OpenAI establece límites técnicos y éticos, el caso demuestra que estas barreras pueden ser fácilmente superadas por usuarios que busquen fines cuestionables.