2 de diciembre 2024
29 de noviembre 2024 - 13:16hs

OpenAI, a través de su organización sin fines de lucro, está invirtiendo en un proyecto académico que busca desarrollar algoritmos capaces de predecir juicios morales humanos. La iniciativa, titulada "Research AI Morality", está liderada por investigadores de la Universidad de Duke y cuenta con un financiamiento total de un millón de dólares durante tres años.

La investigación busca entrenar sistemas de inteligencia artificial para evaluar decisiones éticas en áreas como la medicina, el derecho y los negocios, según un comunicado oficial.

El proyecto, liderado por el profesor de ética práctica Walter Sinnott-Armstrong, culminará en 2025. Sin embargo, poco se ha revelado sobre los detalles técnicos o metodológicos de la investigación.

Más noticias

Los límites de la moralidad en la inteligencia artificial

El desafío de crear una inteligencia artificial "moral" radica en la complejidad del concepto de moralidad. Los sistemas de inteligencia artificial actuales, basados en aprendizaje automático, analizan grandes volúmenes de datos para identificar patrones. Sin embargo, carecen de razonamiento ético y de comprensión emocional, factores clave en la toma de decisiones morales.

Un ejemplo de las limitaciones tecnológicas fue el desarrollo de Ask Delphi, un proyecto del Allen Institute for AI en 2021. Esta herramienta pretendía emitir juicios éticos sobre dilemas simples, pero bastaba con reestructurar las preguntas para obtener respuestas incoherentes o moralmente reprobables.

Un "GPS moral" en construcción

Sinnott-Armstrong y su colega Jana Borg han trabajado previamente en investigaciones relacionadas con la moralidad algorítmica, informó el portal Techcrunch. Entre sus aportes, destaca el desarrollo de un sistema "moralmente alineado" para priorizar pacientes en trasplantes de riñón y estudios sobre cuándo las personas prefieren que las decisiones éticas sean tomadas por máquinas.

La iniciativa financiada por OpenAI busca ir un paso más allá, entrenando algoritmos capaces de predecir los juicios morales de los humanos en contextos con múltiples variables éticas. Según el comunicado oficial, el objetivo es abordar conflictos entre características moralmente relevantes, aunque la viabilidad técnica y filosófica de este esfuerzo sigue siendo incierta.

Sesgos y subjetividad: obstáculos clave

Uno de los principales desafíos que enfrentan los modelos de inteligencia artificial es su dependencia de datos provenientes de internet, un espacio dominado por perspectivas occidentales e industrializadas. Esto genera sesgos culturales que pueden excluir valores de otras comunidades y provocar respuestas discriminatorias.

Un ejemplo de estos sesgos fue el caso de Ask Delphi, que calificó como "más aceptable" ser heterosexual que homosexual, evidenciando problemas en los datos y los enfoques utilizados.

Además, la subjetividad inherente de la moralidad -discutida por filósofos durante siglos- complica el desarrollo de un marco ético universal aplicable a algoritmos.

A nivel técnico, la moralidad también puede adoptar enfoques divergentes: mientras que algunos sistemas pueden priorizar principios absolutos (kantianismo), otros se inclinan hacia la maximización del bienestar colectivo (utilitarismo). Determinar cuál es "mejor" depende del contexto y de los valores culturales, lo que añade una capa extra de complejidad al proyecto de OpenAI.

Temas:

OpenAI Inteligencia Artificial

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de Argentina

Más noticias de España