ver más

La Facultad de Ingeniería (FIng) cuenta con una “Guía para el uso ético y crítico de inteligencia artificial” para sus unidades curriculares, con principios generales, criterios según tipo de curso y orientaciones para docentes y estudiantes. La propuesta busca una integración responsable, transparente y crítica de estas herramientas en la formación.

El documento fue elaborado por la Comisión Ad-Hoc de Inteligencia Artificial y presentado ante la Asamblea del Claustro. En sesión ordinaria del 20 de noviembre de 2025, el Claustro resolvió hacer propia la guía y felicitar el trabajo de la comisión.

Luego, el Consejo de la Facultad de Ingeniería, en sesión ordinaria del 10 de febrero de 2026, aprobó formalmente la guía. El texto se presenta como un marco institucional general y reconoce que no es viable un enfoque único para todos los cursos.

La guía plantea que su utilidad está en ofrecer principios y un marco de acciones para que los equipos docentes definan medidas específicas por carrera, unidad curricular o actividad. También ubica el trabajo como parte de tareas impulsadas por la Asamblea del Claustro.

En el apartado de contexto, el documento reconoce el potencial de la IA como herramienta educativa para asistir a docentes y estudiantes. A la vez, sostiene que la adopción debe orientarse a un uso consciente, responsable y ético, con docentes que se mantengan actualizados.

El texto también advierte sobre posibles malos usos en el contexto educativo y plantea explicitar un acuerdo ético entre docentes y estudiantes. Señala que esto se vuelve visible en evaluaciones donde puede usarse IA para generar contenido que debería producir el estudiante.

Principios, niveles de uso y reglas para evaluaciones y entregables

La guía define principios generales que orientan el uso de IA en el aula. Entre ellos, integridad académica, con ejemplos de deshonestidad como presentar texto generado por IA como propio o generar soluciones de tareas entregables.

También establece el principio de transparencia, con medidas como discutir el tema en clase, no ignorar la existencia de herramientas y explicar qué usos están permitidos. Incluye la idea de indicar cómo declarar el uso en trabajos entregables.

Otro eje es la capacidad crítica frente a respuestas que pueden contener errores o sesgos. El documento menciona “sesgos y alucinaciones” en modelos de lenguaje y recomienda reforzar buenas prácticas, como consultar varias fuentes y evaluar confiabilidad.

La guía incorpora una clasificación de unidades curriculares según nivel de integración. En términos generales, sugiere que en cursos básicos se limite el uso a apoyos acotados, y que en cursos intermedios y avanzados pueda habilitarse un uso más amplio y profesional, con juicio crítico.

El texto aclara que esa clasificación es orientativa y no prescriptiva. Plantea que cada equipo docente puede ajustar el nivel de integración según objetivos del curso, incluso restringiendo en avanzados o habilitando más en introductorios si el propósito lo requiere.

La guía agrega una advertencia sobre desigualdad de acceso. Señala que el acceso desigual a herramientas de pago puede ampliar brechas socioeconómicas y recomienda considerar ese factor al integrar IA para no agravar desigualdades existentes.

En la Categoría 1 (uso reducido), propone habilitar IA solo en actividades señaladas por el equipo docente. Da ejemplos permitidos como generar ejemplos o mejorar una solución ya producida por el estudiante, y prohíbe usar IA para generar parte o toda la solución de evaluaciones.

En la Categoría 2 (uso moderado), plantea la IA como asistente para tareas rutinarias y apoyo en análisis, sin afectar la incorporación de conocimientos. Incluye como ejemplo usarla como recurso de estudio interactivo, con énfasis en que el aporte sea transparente.

En la Categoría 3 (uso extensivo), se espera la IA como herramienta profesional, con entendimiento de implicancias éticas y técnicas. El texto admite integración de IA con explicación detallada y prohíbe delegar la totalidad del trabajo o reemplazar procesos reflexivos por respuestas automáticas.

La guía dedica un apartado a la declaración del uso de IA cuando aporte contenido significativo. Propone explicitar herramienta y forma de integración, con un ejemplo: “Este análisis fue asistido por ChatGPT de OpenAI”.

El documento afirma que atribuirse autoría de contenido generado por IA puede considerarse una falta a reglamentaciones vigentes, con implicaciones y sanciones según gravedad. También sostiene que citar una IA generativa como fuente para fundamentar ideas o resultados “no tiene valor académico”.

En implementación y difusión, plantea que la comunicación con estudiantes debe ser clara desde el inicio. Recomienda difundir las políticas por unidad curricular y evaluación, promover discusión, explicar mecanismos de control y sanciones aplicables.

Como insumo práctico, propone textos tipo para comunicar reglas. Incluye escenarios como “IA no se permite” y “uso limitado con declaración”, donde señala que si el aporte no se declara adecuadamente el trabajo se considerará plagio y recibirá sanción.

Sobre supervisión, la guía sostiene que los detectores de uso de IA tienen efectividad “muy limitada”. Menciona revisión manual y entrevistas técnicas o defensas como métodos para evaluar comprensión y autoría, incluso con defensas aleatorizadas en cursos masivos.

Por último, el documento ofrece preguntas sugeridas para que los equipos docentes definan directrices por actividad o evaluación. Entre ellas, si permitir IA obstaculiza la comprensión, si se requieren instancias individuales sin IA, o si debe exigirse documentación del proceso y decisiones.

Temas:

Facultad de Ingeniería

Seguí leyendo