Un equipo de OpenAI se abocará a evaluar los riesgos de la Inteligencia Artificial
El grupo de expertos analizará los llamados de “modelos de frontera” que tienen capacidades superiores a los softwares ya disponibles
La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, anunció que conformará un grupo de expertos especialmente dedicado a identificar y prevenir los riesgos asociados a la Inteligencia Artificial (IA), decisión que podría acarrear la suspensión o el retraso en el lanzamiento de nuevas aplicaciones.
El grupo, cuyas directrices fueron divulgadas por la firma, evaluará cuatro categorías de riesgos con el objetivo de "ayudar a cubrir el vacío" y sólo autorizará aquellos modelos catalogados como de “riesgo medio” o “inferior”, precisó OpenAI mediante un comunicado.
Según señaló la compañías, unas de las categorías comprende el área de la ciberseguridad y los análisis se centrarán en la capacidad del modelo de llevar adelante ciberataques a gran escala. En segundo lugar, los especialistas estudiarán la propensión del programa a crear preparaciones químicas, organismos vivos y armas nucleares.
La tercera categoría se concentra en los poderes de persuasión del modelo; es decir: hasta qué punto es capaz de influenciar la conducta de una persona. Por último, los expertos de OpenAI evaluarán el riesgo de su autonomía potencial, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.
OpenAI realizó el anuncio un mes después que su consejo directivo despidiera a su director ejecutivo Sam Altman, para finalmente volverlo a contratar pocos días después, tras una masiva y dura protesta por parte de los empleados e inversores.
De acuerdo con varios medios estadounidenses, los miembros del consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.
Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, equipo que hará recomendaciones a Altman, o alguien nombrado por él, para determinar finalmente si son necesarias modificaciones para reducir los riesgos del modelo, proceso en el que consejo de administración será informado y podrá revertir las decisiones de la dirección.
(Con información de AFP)