En un taller para periodistas en la Universidad ORT, el decano de la Facultad de Ingeniería de ese instituto, Eduardo Mangarelli, abordó el fenómeno de la inteligencia artificial (IA), pidiendo un enfoque medido.
"Es sumamente importante [...] lograr equilibrarnos de forma adecuada entre sobreestimar o subestimar la inteligencia artificial", afirmó Mangarelli ante los presentes.
Para el ingeniero, la comprensión de la IA generativa depende de conocer su funcionamiento, sus peligros y sus fronteras. Este es el primer paso para un uso informado.
"Solo podemos entender el fenómeno de la inteligencia artificial generativa si generamos cierto conocimiento de cómo funcionan", explicó el especialista.
La verificación y los riesgos
Mangarelli enfatizó que los resultados generados por los modelos de IA no deben tomarse como verdades absolutas. La supervisión humana es un paso ineludible.
"Toda respuesta generada tiene que ser sujeta a verificación", fue una de sus advertencias principales durante la instancia.
El uso correcto de estas herramientas tecnológicas redefine la forma en que las personas interactúan con el conocimiento y la información en la era digital.
Además, "la introducción de estas tecnologías definitivamente genera un cambio en las expectativas y requerimientos de las habilidades necesarias para una tarea".
El uso de datos personales para entrenar a los modelos de IA presenta un riesgo latente para la privacidad de los usuarios.
Mangarelli fue claro en su consejo: "Mi recomendación es tomarse el trabajo [de desactivar el uso de datos para entrenamiento]".
El desarrollo de la IA también enfrenta barreras físicas. Una de las más significativas es el alto consumo de recursos que demandan estos complejos sistemas.
"Hoy una de las principales limitantes en el desarrollo de estos sistemas es la disponibilidad de la energía", detalló el experto.
Respecto a los deepfakes de video, su regulación es un desafío mayúsculo. La tecnología para crearlos se encuentra disponible de forma descentralizada y global.
Este factor hace que su uso malicioso sea "incontrolable", aun si las grandes empresas tecnológicas imponen restricciones en sus propias plataformas.
La naturaleza probabilística y las "alucinaciones"
Los sistemas de IA generativa operan mediante probabilidades. No emplean un razonamiento humano, sino que calculan cuál es la palabra siguiente más probable.
"Generar una probabilidad aleatoria para la selección de cada palabra es algo intrínseco a cómo están diseñados estos sistemas", comentó Mangarelli.
Este mecanismo es la causa de las "alucinaciones", respuestas incorrectas o directamente inventadas. Existen estrategias para mitigar este problema.
Una de ellas es acotar su campo de conocimiento. Se le puede "proveerle fuentes de donde trabaja" para que sus respuestas sean más precisas y fiables.
Eliminar por completo las alucinaciones es un objetivo alcanzable, pero implica una mayor inversión económica. "Reducir las alucinaciones a cero, ¿es posible? La respuesta es sí, es más caro".