top of page

EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN EL SISTEMA JUDICIAL COLOMBIANO Y SUS RESPONSABILIDADES - David Roa Salguero

  • Foto del escritor: drabogados
    drabogados
  • 20 feb
  • 9 Min. de lectura

Actualizado: 20 feb

Enfrentamos una época en que muchas publicaciones aparecen, pero la calidad y el nivel intelectual palidecen.


A inicios del año pasado publiqué el artículo titulado “Inteligencia artificial aplicada al derecho disciplinario: repercusiones de la inteligencia artificial en el debido proceso disciplinario”, en el que analicé de manera sistemática los impactos que el uso de sistemas de IA puede generar en las garantías del debido proceso, no sólo en el ámbito disciplinario, sino también en otros escenarios judiciales y administrativos, especialmente en lo relativo a la motivación de las decisiones, la valoración probatoria y el principio de imparcialidad.

 

Allí se advertía, casi que de manera predictiva y en atención a lo expuesto por la Corte Constitucional en Sentencia T-323 de 2024, que los principales riesgos del uso imprudente de la IA podrían generar responsabilidades legales y éticas para las autoridades judiciales y administrativas, así como para los abogados en el ejercicio de la representación legal.

 

En el primero de los escenarios, se indicó que entregarle a la IA la capacidad de razonar y juzgar de manera crítica afectaba el debido proceso, las garantías del juez natural y presunción de inocencia. Asimismo, frente a los abogados en ejercicio de la profesión, se relacionaron varios casos de España y Estados Unidos en los que se hizo uso de IA con información falsa y engañosa.

 

Tal como se anunciaba, ya en Colombia la IA comenzó a impactar en el sistema judicial debido a su uso imprudente e indiscriminado. De forma reciente, hemos conocido tres casos[1] que envían un claro mensaje a la comunidad jurídica: la IA debe usarse de forma prudente, transparente, ética y responsable.

 

·      PRIMER CASO: SE ANULA DECISIÓN DE TRIBUNAL POR CITAR JURISPRUDENCIA INEXISTENTE

 

A través de una acción de tutela, una ciudadana pidió anular la decisión judicial proferida por la Sala Civil Familia Laboral del Tribunal Superior del Distrito Judicial de Sincelejo, que decretó la terminación de un proceso ejecutivo por desistimiento tácito.

 

Aquí el juez constitucional evidenció que dos sentencias utilizadas como apoyo de la decisión cuestionada, se fundamentaron en que, al consultarse, sus contenidos diferían totalmente de lo indicado por la autoridad judicial accionada.

 

Si bien los radicados de las sentencias existían y abordaron algunos aspectos relativos al desistimiento tácito, ninguna de ellas contenía las expresiones que el Tribunal transcribió con literalidad, sin percatarse que las argumentaciones no correspondían a esos fallos.

 

Por último, aunque no se concluyó que el grave error haya sido consecuencia del uso de IA, la Sala recordó que, en función de la motivación de sus providencias, el funcionario judicial debe prestar especial atención en utilizar los fundamentos normativos y jurisprudenciales adecuados y verificar su autenticidad y contenido.

 

·      SEGUNDO CASO: USO DE LA INTELIGENCIA ARTIFICIAL GENERATIVA PARA LA ELABORACIÓN DE SENTENCIAS JUDICIALES 

 

Este asunto se refiere a un fallo de tutela proferido por la Sala de Decisión de Tutelas nro. 2 de la Sala de Casación Penal de la Corte Suprema de Justicia (Rad. Nº 150.278), en el cual se ampararon los derechos fundamentales al debido proceso y a un juicio imparcial de una persona procesada por delitos sexuales con menor de 14 años y quien antes de preparar sus alegatos finales, se percató que ya obraba en el expediente digital una sentencia condenatoria en su contra con una pena de 18 años de prisión, valoración probatoria integral y una conclusión expresa de la responsabilidad penal suscrita por la funcionaria judicial. Por tal motivo, su defensor formuló recusación contra la juez encargada de decidir el asunto, al considerar que existía un pronunciamiento previo que configuraba un supuesto de prejuzgamiento. No obstante, la recusación fue negada, razón por la cual el afectado acudió ante el juez constitucional en procura de la protección de sus derechos fundamentales.

 

Lo llamativo aquí, es que la Sala de Decisión encontró que, en el borrador de sentencia, luego de la transcripción de la declaración de la víctima, aparecía un análisis de dicho testimonio que ‘no correspondía a un ejercicio de razonamiento humano’, sino que fue elaborado con apoyo de una herramienta de inteligencia artificial generativa, inferencia que realizó el juez constitucional a partir del lenguaje, estructura y contenido del texto utilizado. 

 

En cuanto a lo que refiere a la responsabilidad de la funcionaria judicial, de forma sucinta se indicó:

 

“En este contexto, si bien el juez puede acudir a sistemas de IA cuando ello resulte necesario y pertinente, su utilización debe ser razonada y ponderada, orientada a la protección de los derechos fundamentales, y sujeta a buenas prácticas, criterios éticos y respeto por los mandatos superiores. El empleo indiscriminado o imprudente de estas tecnologías puede comprometer la responsabilidad del funcionario judicial, por lo que, como presupuesto mínimo, deben observarse el principio de no sustitución de la racionalidad humana y las cargas de transparencia, responsabilidad y privacidad".

 

Como se observa, el alto Tribunal reconoce que en este asunto existió un uso imprudente de los sistemas de IA por parte de la autoridad judicial, al permitir que haya sido la IA quien realice el razonamiento de los hechos y la valoración probatoria.

 

Al respecto, como superior jerárquico y funcional la alta Corte decidió no compulsarle copias a la funcionaria con destino a la autoridad disciplinaria; por el contrario, sin decirlo expresamente cumplió con los presupuestos del artículo 68 de la Ley 1952 de 2019, al exhortar al juzgado para que, en caso de acudir al uso de herramientas de inteligencia artificial en el trámite de actuaciones judiciales, lo haga con estricta sujeción a los lineamientos, prohibiciones y principios previstos en el Acuerdo PCSJA24-12243.


Sin embargo, particularmente considero que este hecho concreto no se trató de aquellos que contrarían en menor grado el orden al interior de la administración de justicia, tanto así que intervino el juez constitucional para impedir la afectación de los derechos fundamentales al debido proceso y las garantías de presunción de inocencia e imparcialidad del procesado.

 

·      TERCER CASO: SANCIONAN CON MULTA A ABOGADO POR USO INDEBIDO DE INTELIGENCIA ARTIFICIAL EN PROCESO JUDICIAL 

 

Este es el primer caso en el que se sanciona a un profesional del derecho por el uso indebido de IA, pero dentro de un proceso civil por temeridad; si, así como se lee, por temeridad en un proceso civil y no en una actuación disciplinaria.

 

Se precisa que la sanción de multa de 15 salarios mínimos legales mensuales vigentes estuvo a cargo de la Sala de Casación Civil, Agraria y Rural de la Corte Suprema de Justicia con fundamento en los artículos 80 y 81 de la Ley 1564 de 2012, y no de la Comisión Nacional de Disciplina Judicial, que es la autoridad encargada de examinar la conducta y sancionar las faltas de los abogados en ejercicio de su profesión conforme prevé el artículo 257A de la Constitución.

 

En línea con ello, la sanción se edificó sobre uno de los casos que señala el artículo 79 del CGP para presumir la temeridad: “6. cuando se hagan transcripciones o citas deliberadamente inexactas”. 

 

En este específico asunto, el cual recoge todos los pronunciamientos aquí narrados, se declaró responsable patrimonialmente a un abogado por interponer un recurso extraordinario de revisión en el Tribunal Superior de Villavicencio con transcripciones, citas normativas y jurisprudenciales inexactas, lo cual fue confirmado por la relatoría al certificar que ninguno de los pronunciamientos citados corresponde a providencias reales: “no obran en los repositorios oficiales ni fue posible su ubicación en las fuentes auténticas”.


Se destaca de esta ilustrativa sentencia que analiza en profundidad los conceptos de “estándar de conducta” del abogado y el “deber de verificación” que le asiste al citar fuentes jurídicas, deber que encuentra respaldo tanto en el Código General el Proceso como en el Código Disciplinario de los Abogados, y que se hace mucho más exigible [o se intensifica] ante el uso de herramientas de IA generativas para la redacción de memoriales, cuya responsabilidad de verificación se mantiene en quien lo suscribe, así se haya delegado su elaboración en apoyo humano o automatizado.

 

Para la autoridad judicial, lo que resultó inadmisible es algo concreto: “introducir en el proceso fuentes inexistentes o atribuir a las existentes un contenido que no les corresponde”, porque “verificar antes de citar no es, pues, apenas una práctica recomendable: es un deber profesional”. Se afirma lo anterior porque “el memorial no es un acto de autoridad ni un acto decisorio; es un acto de postulación”.

 

Uno de los aspectos más notables del pronunciamiento radica en que se reconozca que el uso de estas herramientas no es por sí mismo reprochable, en tanto puede constituir un auxiliar valioso si se la emplea con criterio profesional y se someten sus resultados a una verificación rigurosa, en particular cuando el producto incorpora citas normativas o jurisprudenciales.

 

Lo que resulta inadmisible para la Corte es recibir el texto generado y trasladarlo al proceso sin contraste alguno con los repositorios oficiales (sesgo de automatización).

 

Para explicar todo esto, sostiene:

 

“Quien así procede –esto es, quien omite verificar pese a conocer que el origen de la información carece de garantías de fiabilidad– incurre en lo que la doctrina denomina ceguera voluntaria (willful blindness): una evitación deliberada del conocimiento que se está en condiciones de obtener. Cabe anotar que, en su formulación más estricta, la ceguera voluntaria se equipara funcionalmente al dolo, en tanto supone una decisión consciente de sustraerse al conocimiento de un hecho para poder alegar después su desconocimiento. 

[…]
Lo decisivo, pues, no es que el abogado haya querido introducir fuentes falsas, sino que renunció a una comprobación elemental cuya omisión tornó previsible –y evitable– el resultado lesivo. Tal comportamiento no atenúa el incumplimiento del deber de verificación, sino que lo agrava, pues no puede invocarse la ignorancia como excusa cuando ha sido conscientemente preservada mediante la renuncia a comprobar lo que era objetiva y fácilmente comprobable.
[…]
Ni el ordenamiento jurídico ni esta Corporación proscriben el empleo de herramientas de inteligencia artificial generativa en el ejercicio profesional del derecho. Con todo, la integridad del debate judicial exige que los escritos incorporados al expediente sean expresión del criterio del abogado que los suscribe, quien debe mantener control efectivo sobre su elaboración y asumir plena responsabilidad por su contenido. Ese principio de supervisión humana es innegociable. La censura que aquí se formula no se dirige, pues, contra la herramienta, sino contra la conducta de quien traslada al proceso un producto generado por IA sin la verificación mínima que le era exigible".

Finalmente, al comprobarse que la conducta se adecua, en principio, a los elementos objetivos del tipo disciplinario descrito como falta en el numeral 10, artículo 33 de la Ley 1123 de 2007, se remitieron copias a la Comisión Seccional de Disciplina Judicial de Bogotá para que evalúe la actuación del abogado y se determine si concurren todos los presupuestos de la responsabilidad, tal como ordena el artículo 81 del CGP.

 

REFLEXIONES

 

De la lectura sistemática y el análisis crítico de los pronunciamientos citados se desprenden las siguientes reflexiones:

 

·      Es mucho más flexible el cuestionamiento que se hace del uso imprudente de los sistemas de IA en los despachos judiciales que frente a los abogados en ejercicio de la profesión. Aunque se identifican los errores de motivación y de verificación por parte de  funcionarios y empleados judiciales, no se toman medidas contundentes y eficaces sobre el cumplimiento responsable del deber funcional de motivar las providencias judiciales con fundamentos normativos adecuados y existentes.

 

·      La afectación a derechos fundamentales como el debido proceso, la presunción de inocencia y la imparcialidad por el uso de IA de forma indebida e inadecuada en la administración de justicia, no constituyen un tema menor. Por tanto, se debe indagar la diligencia en esas conductas ya no desde el plano administrativo, sino desde el ámbito disciplinario para determinar responsabilidades.

 

·      Al implementarse un ‘Código de Integridad del Servidor Judicial’, en este no podría faltar un listado detallado, actualizado y preciso de comportamientos relacionados con el uso de la IA en la administración de justicia, ya que a través de esta se ejercen actos de “autoridad normativa” con significativa incidencia en la confianza ciudadana.


[1] El primero: Sentencia de tutela del 5 de noviembre de 2025, proferida por la Sala de Casación Civil, Agraria y Rural de la Corte Suprema de Justicia, radicación Nº 11001-02-03-000-2025-05001-00, M.P. Adriana Consuelo López Martínez. El segundo: Sentencia de tutela del 2 de diciembre de 2025, proferido por la Sala de Decisión de Tutelas nro. 2 de la Sala de Casación Penal de la Corte Suprema de Justicia, radicación Nº 150.278, M. P. José Joaquín Urbano Martínez. El tercero: Auto del 13 de febrero de 2026, proferido por la Sala de Casación Civil, Agraria y Rural de la Corte suprema de Justicia, radicación Nº 11001-02-03-000-2025-05324-00, M.P. Martha Patricia Guzmán Álvarez. Aquí no puedo dejar de mencionar el auto del 02 de diciembre de 2025, emitido por la Sala Penal del Tribunal Superior de Bogotá, en el que se declaró la nulidad de lo actuado por sustitución del juez natural ante el uso irresponsable de herramientas de IA, providencia en la cual igualmente se le compulsó copias al funcionario judicial para determinar su presunta responsabilidad disciplinaria. Radicado Nº 2014-00222-01 (1714), M.P. Jarol Estibens Echeverry Giraldo.

 

 
 
 
bottom of page