Tecnología > Arma vs. herramienta

Hackers, porno y estafas: este es el lado oscuro de la inteligencia artificial

Los límites del desarrollo de esta tecnología hoy son inimaginables, pero como cualquier herramienta creada por los humanos posee el potencial de ser aplicada con fines malignos y convertirse en un arma de doble filo 

Tiempo de lectura: -'

06 de abril de 2019 a las 05:02

Uno de los primeros hombres que camina por el planeta Tierra descubre de casualidad que con una piedra más o menos puntiaguda y más o menos afilada puede aplacar más rápido su hambre y la de los suyos. Su vida comienza a ser un poco más sencilla gracias a esa herramienta que años más tarde alguien llamaría cuchillo. Un día el hombre descubre que, así como puede matar un animal y repartir la carne, también puede quitarle la vida a otro hombre. Entonces, sin más, la herramienta se convierte en arma.

Es 1803 y Friedrich Sertürner está en su laboratorio en Alemania haciendo pruebas químicas con opio. Logra aislar el alcaloide de la planta de amapola y crea la morfina, llamada así en honor al dios griego de los sueños. En 1817 la empieza a comercializar como un calmante potente y como medicina alternativa en tratamientos para combatir la adicción al alcohol. El narcotráfico no tardó en aparecer, ni tampoco la primera víctima por sobredosis.

En 1863, otro químico alemán, Joseph Wilbrand, sintetiza la primera muestra de trinitrotolueno, conocido como TNT. Lo hace para optimizar el teñido en amarillo de ciertos tejidos. Tiempo después ese mismo colorante es la materia prima de la dinamita, que causa millones de muertes por explosivos utilizados en guerras y conflictos armados.

El calendario marca 1984 y se empieza a hablar de una impresora que es capaz de materializar un objeto en tres dimensiones. Veinte años más tarde se crea la primera pierna para prótesis en 3D. Al mismo tiempo, y con el mismo equipamiento, se imprime la primera pistola capaz de pasar por detectores de metales y burlar sistemas de seguridad.

Se podrían llenar centenares de páginas con inventos que nacieron con una buena intención, pero que los recorridos del hombre los llevaron por caminos retorcidos: desde la energía atómica hasta el internet.  

Ahora le toca a la inteligencia artificial (IA) encarar esa dicotomía a la que tuvieron que hacer frente casi todos los inventos y herramientas humanas. Esta tecnología es capaz de salvar vidas con ambulancias equipadas para hacer operaciones médicas a distancia, pero también puede cambiar el rumbo político de un país infiltrándose en las elecciones democráticas y alterar para siempre la historia.

Este es el lado oscuro de la inteligencia artificial.

Inteligencia maldita

“La inteligencia artificial trabaja con algoritmos de avanzada que vienen a solucionar problemas que hasta ahora las máquinas no podía solucionar”, dice Nicolás Jodal, CEO de Genexus, una empresa especializada en IA. Y sigue: “El origen de las computadoras fue hacer cálculos o registrar información. Ver, traducir o entender el lenguaje natural no habían podido hacerlo nunca. Ese conjunto de algoritmos de avanzada, que ahora pueden hacer todas esas cosas juntas, es lo que se llama inteligencia artificial”.

El lado “luminoso” –por ponerle un nombre– de esta tecnología se conoce bastante bien. Es el que las marcas y las empresas que trabajan en el desarrollo de proyectos con IA se encargan de publicitar cada vez que tienen la oportunidad.

Últimamente se escucha hablar mucho de ella porque tiene la virtud de poder ser aplicada en diversos campos de la actividad humana. La ciencia, la educación, el internet de las cosas, el automovilismo, la medicina, el arte, las finanzas: todo ya fue tocado por la varita mágica de los algoritmos inteligentes y es probable que continúe esparciendo su ilusión.

Pero así como se está usando para innovar en todos estos campos, también tiene una salida no tan digna (ni legal).

“El problema del mal uso es algo transversal a toda la tecnología”, afirma Raúl Garreta desde California, responsable de MonkeyLearn, un proyecto que trabaja con IA y quiere resignificar el valor de los datos. Y añade: “Quizá lo que tiene la IA de particular, o hasta de peligroso, es que podés hacer las mismas cosas que un ser humano, pero en gran escala”.

Garreta puso como ejemplo clásico la generación de contenidos falsos para difundir en la esfera pública. Las noticias falsas –que se hicieron muy populares en la campaña presidencial de Donald Trump en EEUU– fueron unas de las primeras alarmas que se encendieron dentro de la academia.

“El problema del mal uso es algo transversal a toda la tecnología.”

“Producir noticias falsas requiere cierta inteligencia. Tradicionalmente se utilizaron humanos, pero la IA permite generarlas de manera masiva y hasta incluso lograr mover la aguja de la votación, algo que sería bastante complejo de lograr manualmente”, agrega el experto.

En febrero de este año la empresa OpenAI, liderada por Elon Musk –cofundador de PayPal y Tesla– dio a conocer que su algoritmo GPT2 es capaz de generar textos de apariencia veraz con tan solo un puñado de palabras como insumo. Si bien no es el primero, es uno de los más avanzados. Estiman que este nuevo algoritmo será capaz de producir textos cuyo proceso de chequeo para determinar su autenticidad será más complejo y exhaustivo. Esto podría lograr que la desinformación en las redes se extendiera todavía más.

La compañía intenta desvincularse de potenciales malos usos que se le pueda dar a la herramienta. “Estamos tratando de desarrollar un pensamiento más riguroso”, comunicó Jack Clark, jefe de política de la organización, en declaraciones a The Guardian.

Otro problema de esta gran escala que caracteriza a la IA son los ataques de ciberdelincuentes; algunos de estos tuvieron alto impacto en el último año sobre todo para compañías que manejan información sensible.

Aun así, Jodal no está tan seguro que la responsable de todo esto sea la IA. Lo explica así: “No calificaría los ataques hackers como un problema de la inteligencia artificial. Es un mundo cada vez más digital, con problemas de un mundo cada vez más digital. No me parece que sea algo exclusivo ni que sea más efectivo por usar esta tecnología”.

Otro ejemplo es el desarrollo de chatbots –sistemas de mensajería que pueden generar un “diálogo” entre una máquina y un ser humano– que también se impulsaron gracias a la IA. Pueden ser usados para tratar trastornos psicológicos en una dinámica de terapeuta y paciente, pero también se aplican para robar datos e información a escala masiva.

Siguiendo esta línea, Haldo Sponton –cabecilla del departamento de inteligencia artificial de Globant, una empresa enfocada en los servicios y tecnología de la información– explicó que hay dos tipos de prácticas indebidas que se pueden dar con la IA: intencionales y accidentales.

El primero tiene que ver con aplicar la tecnología con un fin malicioso. A los ejemplos ya mencionados se le podría agregar la tendencia del deepfake, que permite generar videos, fotos o audios en los que se puede poner la cara o la voz de una persona en el cuerpo de otra para afectar su imagen pública. Así, varias celebridades circularon en sitios de páginas porno con videos explícitos que nunca protagonizaron.

“Es un mundo cada vez más digital, con problemas de un mundo cada vez más digital.”

El segundo uso –el accidental– está enmarcado en un sistema mucho más complejo y que gira en el rubro de los datos personales. Las personas y sus datos son el combustible que lo hace funcionar, entonces “mientras seamos capaces de controlar la generación, la captura y el acceso a los datos, vamos a ser capaces de controlar el poder que tienen las máquinas y las decisiones que toman. Un algoritmo va a ser tan inteligente como los datos que le muestren, ellos no van a inventar nada”, señala Sponton.

Los algoritmos pueden convertirse en “un arma de destrucción” si las empresas, instituciones y hasta las personas empiezan a tomar decisiones basadas en sus conclusiones.

Así lo demuestra un libro de Cathy O’Neill –magíster en matemáticas de la universidad de Harvard– llamado Armas de destrucción matemática, en el que evidencia como el big data y la IA aumentaron la desigualdad y son una amenaza para la democracia. 

En su investigación, O’Neill detalla que las decisiones que afectan nuestras vidas hoy no están hechas por humanos, sino por modelos matemáticos. “Los modelos que se utilizan en la actualidad son opacos, no regulados e incontestables, incluso cuando están equivocados”, escribe. Y ejemplifica con diferentes casos que lo demuestran, como el de un estudiante que no puede sacar un préstamo universitario en EEUU porque está dentro de una categoría –determinada por un dato tan aleatorio como su código postal– que le impide al banco prestarle dinero solo por vivir donde vive. Así, la IA “apuntala a los afortunados y castiga a los oprimidos”.

Culpen a la ciencia ficción

Los expertos afirman que la ciencia ficción es la principal responsable de haber llevado la imagen oscura de la IA un paso más allá en el imaginario colectivo.

Sin ir muy lejos en la historia del cine, en 1968 se estrenó 2001: Odisea en al espacio y fue una de las primeras películas en sembrar esa imagen de la computadora que supera en inteligencia a los seres humanos y termina por dominarlos. También están los clásicos Terminator, Yo, robot y la más reciente (y muy recomendada) Ex Machina. En todas sobrevuela la idea de que en algún momento los robots harán su revolución y destruirán a la raza humana.

¿Las máquinas van a ser más inteligentes que los humanos? “No lo sé, es una discusión monstruosa y no creo que nadie pueda saberlo”, aventura Jodal. Y sigue: “Lo que sí puedo decir es que estamos muy lejos de entender cómo funciona el cerebro de cualquier mamífero”. Esa parece ser la pieza que falta.

“Mientras seamos capaces de controlar el acceso a los datos vamos a ser capaces de controlar el poder que tienen las máquinas.”

Este escenario plantea dos futuros posibles, uno en el que se pueda crear un cerebro artificial y otro en el que no. Y “el que logre entender cómo funciona el cerebro cambiará las reglas de juego –explica Jodal–, pero estamos lejos”.

Esa imagen distópica y futurista fue alimentada desde la cultura pop porque “lo apocalíptico siempre vende”, dice Garreta. Pero apunta: “No va a suceder eso, lo vamos a superar como la humanidad superó a otras tecnologías. Aunque depende mucho de nosotros, por supuesto”.

Sponton coincide: “No veo un mundo que vaya hacia ese lado, aunque puede pasar que sintamos que en ciertos aspectos de la vida sí somos controlados por las máquinas”. 

Si bien la ciencia ficción ilustra varios escenarios fatalistas, los expertos saben que el pulso del desarrollo lo marcarán siempre los hombres y las mujeres. Y que, al final del día, el lado oscuro no habla de las máquinas sino de quienes las usan. 
 

REPORTAR ERROR

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 245 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 245 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 245 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...