Pxhere

No te preocupes por la sintiencia de la IA, preocúpate por lo que hacen las personas

El revuelo en torno a LaMDA de Google oculta fallas evidentes que pueden dar lugar a abusos

Tiempo de lectura: -'

26 de junio de 2022 a las 05:00

Estás por alcanzar el límite de notas.

Suscribite ahora a

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 3 45 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 3 45 / mes

Los escritores de ciencia ficción disfrutan explorando uno de los temores más oscuros de la humanidad: que las máquinas “despierten” y nos suplanten. Pero un ingeniero de Google parece haber confundido la ficción con la realidad al afirmar que el modelo de generación de lenguaje de la compañía podría ser ya sintiente. 

En una publicación de Medium, Blake Lemoine publicó una serie de intercambios que tuvo con LaMDA, el Modelo de Lenguaje para Aplicaciones de Diálogo de Google, que impulsa el motor de búsqueda y los chatbots de la compañía. En sus respuestas, misteriosamente plausibles, LaMDA expresó fuertes opiniones sobre sus propios derechos, su condición de persona y su temor a ser desconectado.

Los filósofos y los investigadores de inteligencia artificial (IA) podrían debatir felizmente la naturaleza precisa de la inteligencia, la sintiencia y la conciencia durante toda la eternidad. Pocos descartan la posibilidad de que las computadoras adquieran sintiencia algún día. Casi ninguno cree que lo han logrado todavía.

Pero vale la pena tener en cuenta las preocupaciones planteadas por Lemoine –a quien le dieron licencia administrativa– y otros investigadores de Google despedidos de la compañía el año pasado. ¿Es aceptable que las empresas privadas tengan el control exclusivo de herramientas tecnológicas tan poderosas? ¿Cómo podemos garantizar que los resultados de estos modelos se ajusten a los objetivos humanos? El peligro es que en lugar de aumentar la creatividad humana, pueden amplificar la estupidez humana. 

LaMDA forma parte de una familia de grandes modelos lingüísticos que están ampliando las fronteras de la IA. Hace dos años, OpenAI, una compañía de investigación con sede en San Francisco, sorprendió al mundo de la IA con el lanzamiento de GPT-3, una especie de función de autocompletado turboalimentada que genera un texto inquietantemente auténtico. Desde entonces, la compañía ha desarrollado un modelo similar, conocido como Codex, para generar código informático. También ha lanzado DALL-E, que puede convertir texto en imágenes. Si escribes “sillón con forma de aguacate” se generarán múltiples imágenes de sillones verdes con forma de aguacate, espantosas pero nítidas.

Estos modelos funcionan aplicándoles una enorme potencia de cálculo a grandes cantidades de texto e imágenes de internet y entonces reconociendo y regurgitando patrones estadísticos. Al hacerlo, exhiben competencia sin ninguna comprensión. “Estos modelos tienen unas capacidades increíbles. Pero no entienden el mundo y están completamente desligados de él”, afirma Michael Wooldridge, profesor de informática de la Universidad de Oxford. Si dejas estos modelos funcionando durante tres semanas mientras te vas de vacaciones, no tendrán conciencia de nada de lo que haya ocurrido en el mundo a tu regreso, afirma.

La preocupación más inmediata es que pueden producir resultados sesgados involuntariamente y se prestan a abusos. Hasta la fecha, las compañías que los desarrollan han sido cautelosas en cuanto a cómo los despliegan. La propia Google ha publicado una investigación en la que explora los problemas de los sesgos injustos y la falta de base objetiva en los grandes modelos lingüísticos. Este mes, OpenAI publicó sus mejores prácticas para desplegar estos modelos e invitó a expertos externos a cuestionarlas. 

Las fallas son serias y evidentes. Las redes sociales ya están plagadas de troles humanos que generan noticias falsas, engaños y rumores. Imagínate lo que podría hacer un modelo de generación de texto masivo en las manos equivocadas. “Los humanos tienen que comer y dormir. Las máquinas no. Pueden utilizarse para generar estos contenidos de forma automática y a escala. Eso debería perturbarnos enormemente”, dice Shannon Vallor, directora del Centre For Technomoral Futures de la Universidad de Edimburgo.

Vallor dice que las formas tradicionales de limitar las tecnologías potencialmente peligrosas han sido restringir su uso a dominios seguros y responsabilizar a los usuarios de los daños que provoquen. Pero alega que no solo debemos buscar soluciones técnicas o de gobernanza, sino también invertir en la creación de mayores “reservas de inteligencia humana”. 

Eso significa que deberíamos dedicar mucho más dinero y recursos a crear organismos de investigación independientes y expertos y departamentos universitarios que puedan probar y refutar estos modelos. Quizá LaMDA pueda ayudar a redactar la propuesta de recaudación de fondos.

CONTENIDO EXCLUSIVO Member

Esta nota es exclusiva para suscriptores.

Accedé ahora y sin límites a toda la información.

¿Ya sos suscriptor?
iniciá sesión aquí

Alcanzaste el límite de notas gratuitas.

Accedé ahora y sin límites a toda la información.

Registrate gratis y seguí navegando.