Dólar
Compra 37,20 Venta 39,70
27 de enero 2026 - 12:18hs

Investigadores de la Universidad Estatal de Pensilvania presentaron un estudio sobre cómo la cortesía de los pedidos afecta la precisión de la IA. El equipo desarrolló un experimento con 50 preguntas base de matemáticas, ciencia e historia, reformuladas en cinco niveles tonales. Este proceso generó 250 prompts únicos para evaluar la sensibilidad de ChatGPT-4o ante las variaciones en el trato humano.

Los resultados revelaron que los prompts "groseros" superaron consistentemente a los educados en tareas de opción múltiple. La precisión para los pedidos "Muy Educados" fue del 80,8%, mientras que los "Muy Groseros" alcanzaron un 84,8% de efectividad. Esta tendencia sugiere que el rendimiento no depende de la amabilidad, sino que "los pedidos impolutos superaron consistentemente a los educados" en este modelo.

Se observó que un tono neutral logró mejores resultados que uno cortés, aunque "le fue peor que a un tono muy grosero" según confirman los datos finales.

Más noticias

Este estudio diverge de investigaciones previas donde se asociaba la rudeza con resultados deficientes en modelos antiguos. Los autores sugieren que las arquitecturas más recientes podrían procesar las variaciones tonales de forma distinta. Notan que "los modelos más avanzados pueden ignorar problemas de tono y enfocarse en la esencia de cada pregunta", optimizando así su respuesta técnica.

A pesar de los hallazgos, el equipo de investigación no promueve el uso de interfaces tóxicas en aplicaciones reales de consumo. El empleo de insultos podría tener efectos perjudiciales en la accesibilidad y en las normas generales de comunicación. Los científicos afirman que "no abogamos por el despliegue de interfaces hostiles o tóxicas", enfatizando que el objetivo es entender la influencia de los prompts.

Hace ocho meses, el cofundador de Google, Serguéi Brin, dijo durante All-In Live que los modelos de IA “tienden a funcionar mejor si los amenazas”.

En diálogo con el moderador Jason Calacanis, Brin afirmó: “No difundimos mucho esto en la comunidad de IA, pero… no solo nuestros modelos”.

Ante la consulta “¿Si los amenazas?”, Brin respondió: “Como con violencia física”, y agregó que “la gente se siente rara con eso”.

Temas:

ChatGPT Inteligencia Artificial

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos