Negligencia del abogado por usar inteligencia artificial sin verificar jurisprudencia

Compartir:

Analizamos la responsabilidad del abogado que utiliza inteligencia artificial sin comprobar citas jurisprudenciales, con riesgo procesal, disciplinario y civil.

La inteligencia artificial ha entrado en los despachos con la misma velocidad con la que algunos profesionales han decidido abdicar de su obligación de pensar. Y cuando eso ocurre, el resultado suele ser grotesco: escritos con citas inventadas, resoluciones inexistentes, normas mal traídas y una confianza ciega en sistemas que no razonan, no contrastan y, desde luego, no asumen responsabilidad alguna.

El problema jurídico no es que la inteligencia artificial pueda equivocarse. Eso ya se sabe. El verdadero problema es que el abogado no puede permitirse el lujo de equivocarse de esa manera cuando actúa ante un tribunal, y mucho menos escudarse en que el error proviene de una herramienta tecnológica. Si firma el escrito, responde por su contenido. Así de simple. Y así de inexorable.

Un caso reciente lo ha dejado meridianamente claro: un abogado fue sancionado por citar en un recurso de apelación hasta 48 sentencias falsas del Tribunal Supremo y un informe inexistente del Consejo General del Poder Judicial, todos ellos supuestamente sugeridos por inteligencia artificial. El órgano judicial entendió que esa conducta suponía una actuación contraria al deber de veracidad y a las reglas de la buena fe, con abuso del servicio público de la Justicia. Traducido al lenguaje real: no era un error inocente, sino una actuación procesal inadmisible.

La inteligencia artificial no sustituye el criterio profesional del abogado

A estas alturas, debería resultar innecesario recordarlo, pero visto el panorama conviene insistir: la inteligencia artificial es una herramienta asistencial, no decisoria. No sustituye el juicio jurídico, no valida la estrategia procesal y no exonera al profesional de comprobar la exactitud de lo que presenta ante el juzgado.

El abogado tiene el deber de verificar personalmente las fuentes normativas, doctrinales y jurisprudenciales que invoca. Ese deber no desaparece porque un sistema genere un texto con apariencia pulcra y tono solemne. De hecho, precisamente porque esa apariencia puede resultar convincente, la exigencia de revisión es todavía mayor.

Confiar en que una IA generalista haga por sí sola una búsqueda jurisprudencial rigurosa y luego incorporar sus resultados a un recurso sin verificación directa no es modernidad. Es negligencia. O, en el mejor de los casos, una forma sofisticada de imprudencia profesional.

El caso de las 48 sentencias falsas: cuando el problema deja de ser tecnológico y pasa a ser deontológico

En el supuesto descrito, el tribunal reprocha al letrado no haber sometido a revisión ni verificación alguna las citas incorporadas en el recurso. No contrastó números de sentencia, fechas, identificadores ni autenticidad de las referencias. Ni siquiera comprobó una sola de ellas en una base oficial y gratuita como CENDOJ. Es decir, falló en lo más elemental.

Ese dato es demoledor. No estamos ante una cita doctrinal discutible, una referencia incompleta o una interpretación arriesgada. Estamos ante una utilización acrítica de contenido ficticio en un escrito procesal. Y eso conecta directamente con varios deberes profesionales básicos:

  • el deber de veracidad,
  • la buena fe procesal,
  • el deber de diligencia,
  • la obligación de supervisión humana,
  • y el estándar de competencia profesional exigible al abogado.

Lo relevante del caso no es solo la multa de 420 euros, sino el criterio del tribunal: la supervisión humana es indeclinable cuando se emplean herramientas de IA en el ejercicio profesional. Exactamente como debía decirse. Porque ya iba siendo hora de que alguien pusiera por escrito lo que en ciertos despachos parece una idea revolucionaria: copiar y pegar basura jurídica sigue siendo mala praxis, aunque la basura salga de una interfaz elegante.

Cuándo el uso de IA puede convertirse en negligencia profesional del letrado

No toda utilización de inteligencia artificial genera responsabilidad. El problema surge cuando el abogado la emplea sin control y ese uso defectuoso produce un resultado objetivamente contrario al estándar exigible de diligencia profesional.

Puede hablarse de negligencia profesional, entre otros supuestos, cuando:

1. Se aportan resoluciones judiciales inexistentes

Este es el caso más evidente. Un abogado no puede citar sentencias sin haber comprobado previamente que existen y que dicen lo que él afirma que dicen. Hacerlo implica una quiebra frontal del deber de veracidad y del deber de diligencia.

2. Se invocan normas o textos jurídicos inaplicables

Cuando la herramienta mezcla ordenamientos, inventa artículos o traslada normas extranjeras sin contexto, el abogado está obligado a detectarlo. Si no lo hace, la responsabilidad no desaparece por el hecho de que el disparate proceda de una IA.

3. Se presenta un escrito sin revisión técnica real

Usar IA para estructurar ideas o generar un borrador puede ser razonable. Presentar ese contenido casi en bruto, sin contraste normativo ni jurisprudencial, ya no lo es. Eso no es automatización eficiente; es abandono de funciones.

4. Se perjudica la defensa del cliente

Si la falta de verificación compromete la posición procesal del cliente, deteriora la credibilidad del recurso, provoca inadmisiones, condenas en costas o pérdida de oportunidades procesales, puede abrirse el debate sobre la responsabilidad civil profesional del letrado.

La multa judicial no agota el problema: también hay riesgo disciplinario

Uno de los aspectos más relevantes del caso es que, además de imponer la sanción económica, el tribunal acordó dar traslado de la resolución al Colegio de Abogados correspondiente para que, en su caso, depure responsabilidades disciplinarias.

Y aquí conviene detenerse, porque muchos siguen leyendo estas resoluciones como si la multa fuera el final del asunto, cuando en realidad puede ser solo el principio. La conducta del abogado puede proyectarse sobre el plano deontológico si se aprecia infracción de los deberes básicos que rigen la profesión.

La cuestión no es menor. La utilización de citas falsas, aunque provengan de una IA, puede ser valorada como una conducta incompatible con la seriedad y rigor exigibles al ejercicio profesional. Y si además revela ausencia de control, despreocupación por la exactitud del contenido o una forma de litigar que convierte el proceso en un experimento, el reproche disciplinario no solo es posible, sino bastante lógico.

La responsabilidad civil del abogado: el siguiente escalón del problema

Desde la perspectiva del cliente, la pregunta importante no es si al abogado le han puesto una multa modesta o si ha quedado en evidencia ante el tribunal. La pregunta importante es otra: ¿ha sufrido el cliente un daño por esa actuación negligente?

Si la respuesta es sí, la posible responsabilidad civil profesional entra de lleno en escena.

Esto puede suceder cuando la utilización irreflexiva de IA provoca:

  • pérdida de una oportunidad procesal,
  • desestimación de una pretensión por defectuosa fundamentación,
  • empeoramiento de la posición procesal,
  • imposición de costas,
  • pérdida de credibilidad ante el órgano judicial,
  • o cualquier otro perjuicio económicamente evaluable.

Naturalmente, no basta con que el abogado haga el ridículo. Para que exista una acción indemnizatoria habrá que acreditar incumplimiento del estándar de diligencia, daño y nexo causal. Pero desde luego, si el escrito se sostiene sobre jurisprudencia inventada, el terreno para discutir esa responsabilidad queda lamentablemente abonado.

El argumento del arrepentimiento no borra la negligencia

En el caso analizado, el abogado reconoció expresamente su falta de diligencia, asumió el error y mostró arrepentimiento, lo que fue tenido en cuenta por la Sala para moderar la sanción. Procesalmente puede tener sentido. Jurídicamente, también. Pero conviene no confundir atenuación con absolución moral o profesional.

Que el letrado admita su error está bien. De hecho, era lo mínimo. Lo que no puede sostenerse es que ese reconocimiento convierta en irrelevante la conducta previa. La negligencia ya se había producido. El recurso ya contenía citas falsas. El tribunal ya había tenido que dedicar recursos públicos a comprobar lo que el profesional debió revisar antes de presentar su escrito.

Y ese detalle es importante: la falta de diligencia del abogado no solo perjudica potencialmente al cliente; también deteriora el funcionamiento del sistema judicial.

La falsa coartada de la IA generalista frente a la IA jurídica

Resulta llamativo que la propia Sala tome como referencia, incluso para cuantificar la multa, el coste aproximado de una herramienta de IA específicamente jurídica. El mensaje de fondo es bastante claro: si se va a utilizar inteligencia artificial en un contexto profesional tan sensible como la litigación, al menos debería emplearse una herramienta diseñada para ese entorno y no un sistema generalista que mezcla con la misma alegría una sentencia, una receta y una fantasía estadística.

Ahora bien, tampoco conviene caer en la tontería contraria. El problema no se soluciona mágicamente por pagar una suscripción más cara o más especializada. Una IA jurídica puede reducir riesgos, pero no elimina el deber de comprobación. El abogado sigue obligado a verificar la jurisprudencia, la normativa y la exactitud del contenido. El software no sustituye la responsabilidad profesional; como mucho, disminuye la probabilidad de hacer el ridículo.

Supervisión humana: obligación, no recomendación estética

La idea central que deja esta resolución es impecable: la supervisión humana constituye el eje vertebrador del uso profesional de la inteligencia artificial en la abogacía. No es una recomendación elegante para congresos. Es una exigencia jurídica y deontológica.

Eso significa que el abogado debe:

  • entender qué herramienta está utilizando,
  • conocer sus limitaciones,
  • revisar de manera efectiva sus resultados,
  • comprobar las fuentes,
  • corregir errores,
  • y decidir finalmente con criterio propio.

Lo contrario no es apoyarse en la tecnología. Lo contrario es renunciar a la función profesional y delegarla en un sistema incapaz de asumir consecuencias.

Cómo usar IA en el despacho sin cruzar la línea de la mala praxis

La inteligencia artificial puede ser útil en tareas internas de apoyo, pero su uso exige reglas claras. Un despacho mínimamente serio debería establecer, al menos, estas cautelas:

Verificación obligatoria de jurisprudencia y normativa

Ninguna cita debe incorporarse a un escrito sin comprobación directa en fuentes fiables y oficiales.

Prohibición de introducir datos sensibles en plataformas abiertas

No se deben volcar datos confidenciales de clientes, estrategias procesales, documentos reservados ni información protegida en sistemas sin control suficiente.

Revisión técnica completa del producto generado

El texto generado por IA debe ser tratado como un borrador, nunca como una pieza lista para presentar.

Formación interna en riesgos de IA

No basta con “probar herramientas”. El despacho debe conocer riesgos de confidencialidad, errores de contenido, protección de datos y responsabilidad profesional.

Trazabilidad y control

Debe poder identificarse cuándo se ha utilizado IA, para qué finalidad y bajo qué mecanismos de revisión.

Conclusión

La sanción al abogado que citó 48 sentencias falsas generadas por inteligencia artificial no castiga la tecnología, sino la falta de diligencia del profesional que decidió utilizarla sin verificar su resultado. Y ese matiz es decisivo.

https://www.diariosur.es/economia/mibolsillo/sancion-ejemplarizante-abogado-citar-recurso-apelacion-sentencias-20260213171039-nt_amp.html

La IA puede asistir, ordenar, resumir o sugerir. Lo que no puede hacer es asumir el deber de veracidad, la buena fe procesal, la diligencia profesional ni el secreto del cliente. Todo eso sigue recayendo, íntegramente, sobre el abogado.

Por tanto, la pregunta ya no es si puede usarse inteligencia artificial en el ejercicio de la abogacía. La pregunta es si el profesional está dispuesto a usarla con el rigor que exige el proceso judicial. Porque si no lo está, no está innovando. Está fabricando responsabilidad.

¿Necesitas reclamar por una negligencia profesional de tu abogado o analizar si una mala praxis procesal ha causado un perjuicio indemnizable?
Estudiamos la viabilidad de la acción, el daño sufrido y la estrategia jurídica más eficaz en cada caso.

Artículos relacionados

  • All Posts
  • Blog