ver más

"Tengo 30.000 euros y quiero invertirlos a cinco años. ¿Qué cartera me recomiendas?". Millones de españoles ya han tenido esa conversación o una muy similar con ChatGPT, Gemini o Perplexity. Según McKinsey, más del 70% de los españoles que usan IA generativa lo hacen para gestionar sus finanzas, y un 29% busca específicamente asesoramiento de inversión. Lejos de ser una mera curiosidad tecnológica, el fenómeno ha empezado a despertar preocupación regulatoria.

Una cosa es pedir a un chatbot que explique qué es un fondo indexado y otra muy distinta pedirle que elija una cartera concreta para un perfil. En el primer caso, la IA actúa como una herramienta de apoyo informativo; en el segundo se acerca a una recomendación personalizada. Ahí es donde empiezan los riesgos.

La CNMV ha puesto el foco precisamente en esa frontera. En un reciente estudio elaborado por Ricardo Crisóstomo y Diana Mykhalyuk, técnicos de la Dirección General de Estrategia y Asuntos Internacionales, se analizó el comportamiento de cuatro grandes modelos de lenguaje -ChatGPT, Gemini, DeepSeek y Perplexity- aplicados a la inversión en valores del IBEX 35. El experimento muestra que, bajo condiciones muy estructuradas, estos sistemas pueden dar estrategias con rentabilidades elevadas. Perplexity superó el 80% de retorno en el periodo analizado.

Pero el propio regulador advierte contra una lectura simplista. "Las diferencias observadas en rentabilidad no deben interpretarse como una superioridad estructural de un modelo sobre otro", señalan los autores del estudio. El rendimiento, añade, depende de múltiples factores y puede estar afectado por un componente de aleatoriedad. "La cuestión relevante no es qué modelo gana en un test concreto, sino en qué condiciones responde con fiabilidad y, sobre todo, qué ocurre cuando el usuario real no formula la consulta con precisión profesional", dicen.

Alucinaciones

El estudio concluye que los modelos funcionan mejor cuando reciben instrucciones claras, fuentes verificadas y supervisión humana. Sin eso, la calidad de las respuestas decae. Y ahí aparece uno de los grandes riesgos de esta tecnología en las finanzas: las llamadas alucinaciones, es decir, datos inventados o erróneos presentados con apariencia de certeza.

"Aparece en todos los analizados, especialmente cuando el usuario no aporta contexto, referencias ni criterios de validación", alerta la CNMV. Es justo el escenario habitual entre inversores minoristas, que suelen plantear preguntas simples y abiertas, sin apenas estructura. "Esto es preocupante, ya que son las que tienen una mayor incidencia de errores".

La diferencia entre preguntar a un chatbot y acudir a un roboadvisor regulado no es solo técnica, sino jurídica. Para Fernando Zunzunegui, doctor en Derecho y coordinador de Regulación de EFPA la clave está en el principio de neutralidad tecnológica que rige la regulación financiera europea.

Bajo MiFID II, la definición de asesoramiento en materia de inversión no discrimina por canal. "Cualquier recomendación personalizada sobre productos financieros constituye una actividad profesional reservada a personas habilitadas, con independencia del medio que se utilice para conversar con el usuario", explica.

La línea divisoria que fija la norma -y que la Autoridad Europea de Valores y Mercados (ESMA) ha ido perfilando- distingue entre información financiera general y recomendación personalizada. Explicar qué es un ETF es información. Decirle a alguien que compre tal acción o construya tal cartera en función de sus circunstancias financieras es asesoramiento.

El problema, señala el jurista, es que esa frontera se vuelve porosa ante un chatbot diseñado para parecer cercano y efectivo. "La conversación con la inteligencia artificial puede dar la sensación de una cercanía propia del asesor".

Frente al 'roboadvisor'

Patrizia Cotza, directora de experiencia de usuario y márketing de Indexa Capital, uno de los roboadvisors de referencia en España, observa que el uso de la IA está cambiando el comportamiento de los inversores. "Estamos viendo cómo muchos clientes usan herramientas de IA para descubrir, comparar y validar cuál es el mejor servicio de inversión para su caso particular". Pero advierte sobre la responsabilidad. "Nosotros, al estar regulados, somos responsables de la recomendación y el servicio que damos a los clientes. Una IA se limita a recopilar información de varias fuentes y estructurarla de una manera que pueda ser útil, pero sin asumir esa responsabilidad."

El punto crítico es el test de idoneidad, la evaluación previa obligatoria bajo MiFID II que determina si una inversión es adecuada para un cliente concreto.

"Dos inversores pueden preguntar lo mismo y necesitar respuestas completamente distintas", aclara Jordi Mercader, CEO de inbestMe, uno de los roboadvisors más veteranos del mercado español, con más de una década de operación bajo supervisión de la CNMV. "No es igual invertir a 20 años que a 18 meses; no es igual tener estabilidad financiera que necesitar liquidez; no es igual tolerar una caída temporal del 30% que vender en cuanto la cartera baja un 5%". Un chatbot generalista no realiza ese test o lo realiza de forma no verificable y sin consecuencias regulatorias asociadas.

El debate no termina en el pequeño inversor. Xavier Vives, catedrático del IESE Business School y referencia internacional en regulación financiera, identifica una amenaza de mayor calado en lo que denomina la correlación de decisiones. "Las señales informativas que reciben los inversores de un conjunto de LLMs similares pueden introducir errores correlacionados, amplificando el sentimiento de mercado sobre todo en los inversores menos sofisticados". Si millones de usuarios preguntan a los mismos modelos y reciben respuestas parecidas, los mercados se vuelven más frágiles.

El Banco de España lo denomina "comportamiento de rebaño" y lo ilustra conel caso real del magnate hongkonés Li Kin-kan, que en 2017 llegó a perder hasta 20 millones de dólares al día a través de un bot de inversión cuyas decisiones se basaban en fuentes procesadas por el propio modelo.

Lo que pide la CNMV

La conclusión de la CNMV es que estas herramientas pueden servir como apoyo al análisis, pero no sustituyen el criterio humano. Para el inversor minorista, el mensaje es claro. Pedir a una IA que explique un concepto es útil, pedirle que decida por él es otra historia. En ese margen entre ayuda y consejo es donde se juega el dinero.

FUENTE: Fuente: Expansión | RIPE

Temas:

Chatbot inversión

seguí leyendo