16 de junio 2024
Dólar
Compra 38,15 Venta 40,35
23 de marzo 2023 - 5:04hs

Por Rana Foroohar

¿Qué sucedería si lo único en lo que realmente pudieras confiar fuera algo o alguien que estuviera lo suficientemente cerca para permitir que pudieras tocarlo físicamente? Ése puede ser el mundo al que nos está llevando la inteligencia artificial (IA). Un grupo de académicos y expertos en inteligencia artificial de Harvard acaba de publicar un informe destinado a crear salvaguardias éticas en el desarrollo de tecnologías potencialmente distópicas como el chatbot OpenAI, aparentemente sintiente, respaldado por Microsoft, que debutó la semana pasada en una versión nueva y "mejorada" (según tu punto de vista), GPT-4.

El grupo, que incluye a Glen Weyl, economista e investigador de Microsoft, Danielle Allen, filósofa de Harvard y directora del Centro Safra para la Ética, y muchas otras personalidades del sector, está dando la voz de alarma ante "la plétora de experimentos con tecnologías sociales descentralizadas". Entre ellos, el desarrollo de "contenidos generados por máquinas altamente persuasivas (por ejemplo, ChatGPT)" que amenazan con trastocar la estructura de nuestra economía, política y sociedad.

Más noticias

Creen que hemos llegado a un "momento constitucional" de cambio que requiere un marco regulador totalmente nuevo para estas tecnologías.

Algunos de los riesgos de la IA, como un futuro al estilo Terminator en el que las máquinas decidan que los humanos ya no son útiles, son un camino trillado en la ciencia ficción, que, cabe señalar, ha tenido un historial bastante acertado en los últimos 100 años cuando se trata de predecir hacia dónde se encaminará la propia ciencia. Pero hay otros riesgos que aún no comprendemos del todo. Si, por ejemplo, la IA puede generar ahora un documento de identidad falso perfectamente indetectable, ¿de qué sirven los marcos jurídicos y de gobernanza que se basan en dichos documentos para permitirnos conducir, viajar o pagar impuestos?

Una cosa que ya sabemos es que la IA podría permitirles a los malos actores hacerse pasar por cualquiera, en cualquier lugar y en cualquier momento. "Hay que suponer que el engaño será mucho más barato y frecuente en esta nueva era", dice Weyl, que ha publicado un libro en línea con la ministra de asuntos digitales de Taiwán, Audrey Tang. En él se exponen los riesgos que la IA y otras tecnologías avanzadas de la información representan para la democracia, sobre todo que empeoran el problema de la desinformación.

Las ramificaciones potenciales abarcan todos los aspectos de la sociedad y la economía. ¿Cómo sabremos que las transferencias digitales de fondos son seguras o incluso auténticas? ¿Serán fiables los notarios y contratos en línea? ¿Pasarán las noticias falsas, que ya son un gran problema, a ser prácticamente indetectables? Y qué decir de las ramificaciones políticas del incalculable número de disrupciones del empleo, un tema que los académicos Daron Acemoglu y Simon Johnson explorarán en un libro muy importante posteriormente este año.

Es fácil imaginar un mundo en el que los gobiernos tienen dificultades para seguir el ritmo de estos cambios y, como dice el informe de Harvard, "los procesos democráticos existentes, muy imperfectos, resultan impotentes... y son así abandonados por unos ciudadanos cada vez más cínicos".

Ya hemos visto indicios de esto. La ciudad privada de Texas que está construyendo Elon Musk para alojar a sus empleados de SpaceX, Tesla y Boring Company es apenas la más reciente iteración de la fantasía libertaria de Silicon Valley en la que los ricos se refugian en complejos privados en Nueva Zelanda, o trasladan su riqueza y sus negocios a jurisdicciones extragubernamentales y "zonas económicas especiales". El historiador de Wellesley Quinn Slobodian aborda el auge de estas zonas en su nuevo libro, Crack-Up Capitalism.

En este escenario, los ingresos fiscales caen, la participación de la mano de obra se erosiona y el mundo de suma cero resultante exacerba una "exitocracia" de los privilegiados.

Por supuesto, el futuro también podría ser mucho más brillante. La IA tiene un potencial increíble para aumentar la productividad y la innovación, e incluso podría permitirnos redistribuir la riqueza digital de nuevas formas. Pero lo que ya está claro es que las compañías no van a cejar en su empeño de desarrollar tecnologías Web3 de vanguardia, desde IA hasta cadenas de bloques, tan rápido como puedan. Se ven a sí mismas en una carrera existencial entre sí y con China por el futuro.

Por ello, están buscando formas de vender no sólo la IA, sino las soluciones de seguridad para ella. Por ejemplo, en un mundo en el que la confianza no puede autentificarse digitalmente, los desarrolladores de inteligencia artificial de Microsoft y otras empresas están pensando si podría haber un método para crear versiones más avanzadas de "secretos compartidos" (o cosas que sólo tú y otra persona cercana podrían conocer) digitalmente y a escala.

Eso, sin embargo, suena un poco como resolver el problema de la tecnología con más tecnología. De hecho, la mejor solución al acertijo de la IA, en la medida en que exista una, puede ser analógica.

"Lo que necesitamos es un marco para una vigilancia más prudente", afirma Allen, citando el informe de la comisión presidencial sobre bioética de 2010, que se elaboró en respuesta al auge de la genómica. Creó directrices para la experimentación responsable, lo que permitió un desarrollo tecnológico más seguro (aunque se podría señalar la nueva información sobre la posible fuga de laboratorio en el caso de la pandemia de Covid-19, y decir que ningún marco es internacionalmente infalible).

Por el momento, en lugar de prohibir la IA o tener algún método perfecto de regulación, podríamos empezar por obligar a las compañías a revelar qué experimentos están haciendo, qué ha funcionado, qué no y dónde podrían estar surgiendo consecuencias imprevistas. La transparencia es el primer paso para garantizar que la IA no supere a sus creadores.

Copyright The Financial Times Limited 2023

© 2023 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web.

Temas:

inteligencia artificial ChatGPT Bard Microsoft Google

Seguí leyendo

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos