El sitio independiente de noticias Vox publicó los resultados de una encuesta encargada por el grupo de expertos Artificial Intelligence Policy Institute’s (AIPI) y realizada por YouGov en setiembre sobre la opinión de los estadounidenses acerca de la necesidad de regular o no el desarrollo de la súper Inteligencia Artificial (IA).
La encuesta reveló que el 63% de los consultados opinó que debería implementarse una regulación activa para impedir el desarrollo de la superinteligencia de la IA.
Empresas como OpenAI dejaron en claro que la IA superinteligente (un sistema más inteligente que los humanos) es exactamente lo que están intentando construir. Lo llaman inteligencia artificial general (AGI) y dan por sentado que la AGI debería existir. “Nuestra misión –dice el sitio web de OpenAI– es garantizar que la IA general beneficie a toda la humanidad”.
Ahora, lo único que se discute en el debate público es cómo controlar una hipotética inteligencia sobrehumana, no si realmente se la quiere o es necesaria.
“Me resulta muy extraño decir que debemos tener mucho cuidado con la AGI, en lugar de decir que no la necesitamos. Esto no está sobre la mesa”, dijo Elke Schwarz, cientista política que estudia la IA. Y agregó: “Pero ya estamos en un punto en el que el poder se consolida de una manera que ni siquiera nos da la opción de sugerir colectivamente que no se debe implementar AGI”.
El solucionismo tecnológico (la ideología que dice que se puede confiar en los tecnólogos para diseñar la solución a los mayores problemas de la humanidad) desempeñó un papel importante en la consolidación del poder en manos del sector tecnológico. Aunque esto pueda parecer una ideología moderna, en realidad se remonta al período medieval, cuando los pensadores religiosos comenzaron a enseñar que la tecnología era un medio para lograr la salvación de la humanidad. Desde entonces, la sociedad occidental aceptó en gran medida la noción de que el progreso tecnológico es sinónimo de progreso moral.
En Estados Unidos, donde los motivos de lucro del capitalismo se combinaron con narrativas geopolíticas sobre la necesidad de “competir” contra potencias militares extranjeras, el aceleracionismo tecnológico alcanzó un punto álgido. Y Silicon Valley está muy feliz de seguirlo.
Los entusiastas de AGI prometen que la próxima superinteligencia traerá mejoras radicales. Desde curas para enfermedades hasta mejores tecnologías de energía limpia. Podría acelerar la productividad, generando ganancias inesperadas que podrían aliviar la pobreza global. Y llegar primero a ello podría ayudar a Estados Unidos a mantener una ventaja sobre China. En una lógica que recuerda a una carrera de armas nucleares, es mejor “tenerlas nosotros que tenerlas ellos”, dice el argumento.
Pero los estadounidenses aprendieron un par de cosas de la última década en tecnología, y especialmente de las desastrosas consecuencias de las redes sociales. Desconfían cada vez más de los ejecutivos tecnológicos y de la idea de que el progreso tecnológico es positivo por defecto. Y se preguntan si los beneficios potenciales de la AGI justifican los costos potenciales de su desarrollo. Después de todo, los directores ejecutivos como Sam Altman, CEO de OpenAI, proclaman fácilmente que AGI bien puede provocar un desempleo masivo, quebrar el sistema económico y cambiar todo el orden mundial.
En la nueva encuesta del AIPI/YouGov, el argumento de “mejor nosotros que China” se presentó de cinco maneras diferentes en cinco preguntas diferentes. Sorprendentemente, en cada ocasión la mayoría de los encuestados rechazó el argumento. Por ejemplo, el 67% de los votantes dijo que debería restringirse cuán poderosos pueden llegar a ser los modelos de IA, aunque eso corre el riesgo de que las empresas estadounidenses se queden atrás de China. Sólo el 14 % no estuvo de acuerdo.
Naturalmente, en cualquier encuesta sobre una tecnología que aún no existe, resulta un poco complicado interpretar las respuestas. Pero lo que una gran mayoría del público estadounidense parece estar diciendo es que “sólo porque nos preocupa que una potencia extranjera salga adelante no significa que tenga sentido desatar sobre nosotros una tecnología que nos podría dañar gravemente”.
“Mientras hacemos estas preguntas en las encuestas y obtenemos resultados tan desiguales, sinceramente me sorprende un poco ver cuán desiguales son”, le dijo a Vox Daniel Colson, director ejecutivo del AIPI. “En realidad, existe una desconexión bastante grande entre gran parte del discurso de las élites o de los laboratorios y lo que quiere el público estadounidense”.
Y, sin embargo, señaló Colson, “la mayor parte de la dirección de la sociedad la establecen los tecnólogos y las tecnologías que se están lanzando. Hay una forma importante en la que eso es extremadamente antidemocrático”.
Colson expresó su consternación porque cuando los multimillonarios tecnológicos llegaron recientemente a Washington para opinar sobre la política de IA por invitación del senador Chuck Schumer, lo hicieron a puerta cerrada. El público no pudo ver, ni mucho menos participar, una discusión que dará forma a su futuro.
Según Schwarz, no debería permitirse que los tecnólogos representen el desarrollo de la AGI como si fuera una ley natural, tan inevitable como la gravedad. Es una elección, profundamente política.
“El deseo de cambio social no es simplemente un objetivo tecnológico, es un objetivo plenamente político”, afirmó. Y remarcó que “si el objetivo declarado públicamente es ‘cambiar todo lo relacionado con la sociedad’, entonces esto por sí sólo debería ser un estímulo para desencadenar algún nivel de participación y supervisión democrática”.
La IA pretende ser tan transformadora que incluso sus desarrolladores expresan inquietud por lo antidemocrático que fue su desarrollo.
Jack Clark, cofundador de la empresa de investigación y seguridad de IA Anthropic, escribió recientemente un boletín en que confesaba que había varias cosas clave que lo “confundían e inquietaban” en lo que respecta a la IA. Una de las preguntas que se formuló fue: “¿Cuánto permiso necesitan obtener de la sociedad los desarrolladores de IA antes de cambiarla irrevocablemente?”.
Para Clark, que más personas, incluidos los directores ejecutivos de tecnología, estén comenzando a cuestionar la norma de la “invención sin permiso” es un avance muy saludable.
Pero muchas de las grandes innovaciones tecnológicas de la historia ocurrieron porque unos pocos individuos decidieron per se que tenían una excelente manera de cambiar las cosas para todos. Basta pensar en la invención de la imprenta o del telégrafo. Los inventores no pidieron permiso a la sociedad.
Esto puede deberse en parte al solucionismo tecnológico y en parte a que habría sido bastante difícil consultar a amplios sectores de la sociedad en una era anterior a las comunicaciones de masas. Y si bien esos inventos conllevaban riesgos percibidos, no planteaban la amenaza de acabar con la humanidad por completo o someterla al dominio de máquinas súper inteligentes.
Para las pocas tecnologías que se desarrollaron y que conllevan peligros ciertos contra la humanidad, se intentó buscar aportes democráticos y establecer mecanismos para la supervisión global. Es la razón por la que existen un Tratado de No Proliferación Nuclear y una Convención sobre Armas Biológicas, tratados que, aunque tienen dificultades, son muy importantes para mantener el mundo relativamente seguro.
Si bien esos tratados surgieron después del uso de tales armas, el Tratado sobre el Espacio Ultraterrestre de 1967 muestra que es posible crear tales mecanismos de antemano. Ratificado por decenas de países y adoptado por las Naciones Unidas en el contexto de la Guerra Fría, estableció un marco para el derecho espacial internacional. Entre otras cosas, estipuló que la Luna y otros cuerpos celestes sólo pueden usarse con fines pacíficos y que los Estados no pueden almacenar sus armas nucleares en el espacio.
Como dijo Kathryn Denning, antropóloga que estudia la ética de la exploración espacial, en una entrevista con el diario The New York Times: “¿Por qué mi opinión debería importar más que la de una niña de 6 años en Namibia? Ambos tenemos exactamente la misma cantidad en juego”.
O, como dice el viejo proverbio romano: “Lo que afecta a todos debe ser decidido por todos”.
Esto es tan cierto para la IA superinteligente como para las armas nucleares, las armas químicas o las transmisiones interestelares. Y aunque algunos podrían argumentar que el público estadounidense sólo sabe tanto sobre IA como un niño de 6 años, eso no significa que sea legítimo ignorar o anular los deseos generales del público en materia de tecnología.
“Quienes formulan políticas no deberían tomar los detalles sobre cómo resolver estos problemas de los votantes o del contenido de las encuestas”, reconoció Colson.
Y agregó que “sin embargo, creo que los votantes son las personas adecuadas para preguntarles qué quieren de la política o en qué dirección quieren que vaya la sociedad”.
(Extractado de Vox)
Inicio de sesión
¿Todavía no tenés cuenta? Registrate ahora.
Para continuar con tu compra,
es necesario loguearse.
o iniciá sesión con tu cuenta de:
Disfrutá El Observador. Accedé a noticias desde cualquier dispositivo y recibí titulares por e-mail según los intereses que elijas.
Crear Cuenta
¿Ya tenés una cuenta? Iniciá sesión.
Gracias por registrarte.
Nombre
Contenido exclusivo de
Sé parte, pasá de informarte a formar tu opinión.
Si ya sos suscriptor Member, iniciá sesión acá