En una resolución inédita que fija un límite ético y técnico al uso de inteligencia artificial en los tribunales, la Justicia de Tucumán sancionó a una abogada por incurrir en temeridad y mala fe procesal al fundamentar una demanda en fallos judiciales inexistentes. El fallo advierte que el uso de IA sin control humano vulnera los deberes de veracidad y lealtad profesional, y puede convertirse en un riesgo serio para el servicio de justicia.
La sentencia interlocutoria fue dictada por el juez Santiago José Peral, titular del Juzgado Civil y Comercial Común de la X° Nominación, en el marco del expediente “Ortiz, Fátima Cecilia c/ Booking.com Argentina S.R.L. y otro s/ daños y perjuicios”. Allí, el magistrado concluyó que la conducta de la letrada patrocinante, Marcela Cecilia Lazarte Vigabriel, se encuadró en una “cita deliberadamente inexacta” de fundamentos legales, luego de comprobarse que seis de los precedentes invocados no existían en ninguna base de datos jurídica nacional.
El conflicto salió a la luz durante la audiencia inicial, cuando el apoderado de la empresa demandada, Federico Sassi Colombres, advirtió que no podía localizar los fallos citados por la actora. Ante la sospecha de que se tratara de las denominadas “alucinaciones” —un fenómeno propio de la inteligencia artificial generativa que produce información aparentemente verosímil pero falsa—, el tribunal intimó a la abogada a presentar las copias íntegras de la jurisprudencia en un plazo de cinco días.
Sin embargo, la profesional no logró acreditar la existencia de causas como “González c/ Booking.com” o “Defensoría del Pueblo c/ Viajes YA S.A.”. Por el contrario, los enlaces aportados en su descargo conducían a páginas de error o a expedientes con carátulas y fechas completamente distintas a las mencionadas, lo que terminó de consolidar la convicción judicial sobre la falsedad de las citas.
En los considerandos, el juez Peral fue contundente al señalar que, por la estructura de los textos y la naturaleza de los errores detectados, “puede razonablemente inferirse” que los fundamentos fueron generados mediante herramientas de inteligencia artificial sin la debida supervisión profesional. Si bien reconoció el valor de la innovación tecnológica, advirtió que su uso debe ser “responsable y contextualizado”, sin sustituir el juicio humano.
“El uso de inteligencia artificial debe concebirse siempre como una herramienta auxiliar del servicio de justicia, nunca como un reemplazo del razonamiento jurídico del profesional”, remarcó el magistrado. En ese sentido, sostuvo que la responsabilidad por el empleo indebido de estos sistemas recae exclusivamente en quien los utiliza, ya que la fidelidad y trazabilidad de los argumentos presentados en juicio son obligaciones esenciales del ejercicio de la abogacía.
Como consecuencia de esta conducta, el tribunal impuso a la letrada una multa de $ 620.000, equivalente al valor de una consulta escrita vigente. Además, la resolución incluyó una exhortación para que adecue su actuación futura a los principios de probidad y buena fe procesal, bajo apercibimiento de sanciones más severas ante nuevas irregularidades.
Finalmente, el juez ordenó la remisión de copias del expediente al Tribunal de Ética y Disciplina del Colegio de Abogados de Tucumán, para que evalúe la conducta profesional en el ámbito de su competencia. La medida busca sentar un precedente y funciona como una advertencia clara a la comunidad jurídica sobre los riesgos de delegar la fundamentación legal en algoritmos sin una revisión humana exhaustiva.