23 de abril 2026 - 11:33hs

El 18 de abril de 2026, en el marco del expediente “In re Prince Global Holdings Limited, et al., No. 26-10769”, el estudio Sullivan & Cromwell LLP se presentó ante el Hon. Martin Glenn, del U.S. Bankruptcy Court for the Southern District of New York, para rectificar una presentación previa. No se trató de un incidente menor ni de un ámbito irrelevante. Se trata de un proceso de reestructuración internacional de alta complejidad, tramitado en uno de los tribunales más exigentes del sistema federal estadounidense.

Sullivan & Cromwell no es un actor más. Es una de las firmas más influyentes del mundo en litigios complejos, con intervención recurrente en operaciones de escala global. Precisamente por eso, el episodio adquiere otra dimensión: incluso en ese nivel, con protocolos, equipos y estándares de excelencia, la Inteligencia Artificial puede introducir errores con apariencia de legitimidad.

Pero reducir el análisis a un error técnico sería quedarse en la superficie. Porque mientras el debate público todavía discute si la IA debe utilizarse o no, en la práctica ocurre algo distinto: muchos la utilizan, pocos lo reconocen y casi nadie explica cómo la controla.

Más noticias

En ese contexto, la discusión relevante dejó de ser quién escribe. La pregunta correcta es quién controla, quién valida y, sobre todo, quién asume la responsabilidad.

El riesgo y el error

Lo que este episodio expone no es un error aislado. Es la aparición de un nuevo tipo de riesgo: el riesgo sistémico profesional derivado del uso de Inteligencia Artificial sin control efectivo.

La Inteligencia Artificial no es el problema. Bien utilizada, es probablemente la herramienta más poderosa que ha incorporado la práctica jurídica en décadas. El riesgo aparece cuando se delega en ella aquello que exige juicio profesional, criterio jurídico y verificación independiente.

Uno de los aspectos más sensibles es que la IA introduce una falsa sensación de control: resultados técnicamente verosímiles que no necesariamente han sido verificados. Y en el ámbito jurídico, esa diferencia es crítica.

A eso se suma otra dimensión que empieza a adquirir relevancia: la información. Cada interacción con Inteligencia Artificial deja una huella. Textos, datos, estrategias, borradores. En determinados contextos, esa información puede tener valor probatorio o exponer aspectos que deberían permanecer bajo resguardo.

No es un punto menor. Porque cuando esa información se integra en circuitos inadecuados o se incorpora en expedientes equivocados, el problema deja de ser únicamente técnico. Puede involucrar la exposición de datos sensibles, la afectación del secreto profesional o la proyección de información de un cliente en un ámbito que no le corresponde.

Y ahí el conflicto cambia de naturaleza.

El alcance del error

El problema no termina en el error técnico. En escenarios de alta exposición, ese error se convierte en un evento reputacional: circula, se interpreta, se amplifica y redefine la percepción sobre el estudio y sobre el cliente.

A partir de ese momento, el conflicto deja de ser exclusivamente procesal. Se abre un doble frente: el jurídico -que exige corrección y defensa técnica- y el reputacional -que exige control del daño y gestión del mensaje-.

Uno de los errores más frecuentes es fragmentar ese abordaje: lo legal por un lado, la comunicación por otro, la tecnología por otro. En la práctica, eso no funciona. El problema es uno solo.

En este tipo de escenarios, la respuesta requiere una estrategia integrada. Verificación técnica inmediata del alcance del error, contención para evitar su escalamiento y redefinición clara de responsabilidades. Todo en simultáneo y en tiempo real.

Aquí aparece una diferencia que no siempre se explicita: no todos los conflictos generados por Inteligencia Artificial pueden ser abordados con herramientas tradicionales. Cuando el problema combina error técnico, exposición pública y riesgo legal, la respuesta exige un nivel de conducción que integre todas esas variables.

Porque además hay un dato que no puede ignorarse: estos episodios ya no quedan dentro del expediente. Trascienden. Se vuelven públicos. Y cuando eso ocurre, el margen de maniobra se reduce.

En la práctica, la mayoría de las intervenciones no ocurren antes del problema. Ocurren cuando el error ya es visible, cuando la información ya circula y cuando la gestión del daño se vuelve urgente.

En ese punto, la diferencia no la marca la tecnología utilizada, sino la capacidad de gobernar el conflicto.

Por eso, el estándar profesional también cambió. Ya no alcanza con conocer el derecho. Hoy exige comprender cómo operan las tecnologías que intervienen en el proceso, cuáles son sus riesgos y cómo esos riesgos pueden impactar simultáneamente en lo jurídico, lo institucional y lo reputacional.

La Inteligencia Artificial no puede analizarse como una herramienta aislada. Forma parte de un sistema que requiere gobernanza, control y criterios jurídicos claros.

En ese contexto, la diferencia ya no está en usar Inteligencia Artificial o no. Está en entender el riesgo que genera y cómo se lo gestiona dentro de una estrategia.

Porque cuando la tecnología entra en el expediente, lo que está en juego no es solo un argumento. Es la credibilidad, la reputación y la responsabilidad de quien conduce el caso.

Y en ese nuevo escenario, el verdadero diferencial ya no es técnico. Es estratégico.

Temas

inteligencia artificial error síntoma expedientes

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de España

Más noticias de Estados Unidos