TRIBUNALES
El Constitucional avisa sobre el uso de Chat GPT por los abogados: sus errores se sancionarán
Lo que el presidente del Constitucional, Cándido Conde-Pumpido, y los cinco magistrados que lo acompañan en la Sala Primera del tribunal tenían en sus manos ha merecido la calificación de "estrambótico". Un recurso de amparo "de especial trascendencia constitucional" que citaba textualmente 19 supuestas sentencias del órgano de garantías que no se correspondían con la realidad. No era que el abogado que redactó el escrito se hubiera equivocado con los números de las resoluciones, es que ninguno de los entrecomillados teóricamente textuales casaba con ninguna resolución previa del Tribunal Constitucional. El caso se ha cerrado con la inadmisión a trámite del recurso, sin siquiera estudiar sus pretensiones, y con una sanción de apercibimiento contra el letrado por considerar que, con su error, había faltado el respeto al tribunal y a los magistrados que lo componen. Y con la sospecha de que el documento pudo redactarse mediante Chat GPT o cualquier otra herramienta de inteligencia artificial.
Durante la tramitación del procedimiento sancionador contra el abogado, este reconoció "su responsabilidad por el error (...) por la falta de diligencia constatada y por haber sometido al tribunal una demanda con unos tales fundamentos que, sin duda, han perturbado el normal desarrollo de sus funciones". También amitió que las sentencias citadas "no se corresponden con las citas que se hacen de las mismas" y achacó el fallo a la desconfiguración de una base de datos de Excel que descuadró los números de las sentencias con "las citas textuales" que había preparado de cada una de ellas, algo de lo que, aseguró, era "completamente inconsciente" cuando redactó el recurso de amparo.
Sin embargo, los magistrados sí estudiaron cada uno de los entrecomillados. Y comprobaron que no se trataba de "una mera discordancia de citas doctrinales y fechas de sentencias". La realidad era que ninguno de esos párrafos teóricamente textuales recogidos en la demanda de amparo se hallaban "con ese texto" en ninguna sentencia del Tribunal Constitucional. Tras reprochar al letrado que no hubiera intentado demostrar el fallo informático que alegaba, el acuerdo sostenía que el error pudo tener entre sus causas el "uso de la inteligencia artificial". Herramientas de este tipo, como Chat GPT, permiten elaborar texto a partir los datos que proporcionan sus usuarios.
Infolibre ha intentado sin éxito, por teléfono y mensaje de texto, ponerse en contacto con el abogado sancionado para corroborar si, efectivamente, recurrió a uno de estos programas para escribir su recurso, pero no ha obtenido respuesta. Fuentes del Consejo General de la Abogacía Española (CGAE) señalan, sin embargo, que la mención del Constitucional a la inteligencia artificial es muy relevante porque su uso está cada vez más extendido en los bufetes. En un artículo publicado en el portal de ese organismo, el experto Iñigo Jimenez enumera las ventajas de estas herramientas: "Puede automatizar tareas rutinarias y repetitivas, como la revisión de documentos y la investigación legal, lo que libera tiempo para que los abogados se centren en el trabajo más estratégico y de mayor valor".
Sin embargo, también advierte de los riesgos que conlleva. "Una de las más significativas es el riesgo de sesgos en los sistemas de inteligencia artificial", explica el experto. "Además, puede amenazar la privacidad y la confidencialidad de la información legal si no se maneja adecuadamente", añade. John Villasenor, investigador del Centro para la Innovación Tecnológica de The Brookings Institution, asegura que estas herramientas pueden utilizarse "para redactar rápidamente versiones iniciales, citar la jurisprudencia pertinente, presentar argumentos y rebatir los de la parte contraria". "La aportación humana seguirá siendo necesaria para elaborar la redacción final, pero el proceso será mucho más rápido", añade.
Esa "aportación humana" para "elaborar la redacción final" es lo que -usara o no herramientas como Chat GPT- no dispuso el abogado sancionado por el Tribunal Constitucional. "La responsabilidad del abogado o abogada a quien se ha encomendado la defensa de su cliente", prosiguen los magistrados en su acuerdo, "le exigía una comprobación exhaustiva del escrito de demanda y de cualquier otro escrito que tuviera que consignar, corrigiendo así lo mal hecho", antes de su presentación en el tribunal. Es el letrado el que tiene que encargarse "de la comprobación de la veracidad de las citas de doctrina constitucional". "El incumplimiento de esta tarea no comporta la expresión de un descuido o negligencia, sino que constituye una dejación deliberada de su deber profesional, siendo irrelevante el porqué de este comportamiento", añaden.
El tribunal considera que, con el error cometido, el abogado faltó al respeto de la Sala y sus miembros "con claro desprecio de la función jurisdiccional que estos desempeñan". La lectura de esa demanda "estrambótica", además, "trajo consigo una perturbación" al trabajo de la Sala Primera del tribunal "por tener que enjuiciar las consecuencias de tal injustificada irregularidad", tanto en el propio recurso de amparo como en el procedimiento sancionador abierto contra el defensor.
La resolución del Constitucional es la primera de un tribunal español que se pronuncia sobre el uso indebido de la inteligencia artificial en la abogacía. Pero el fenómeno tiene varios precedentes en la justicia de EE UU. Un juez de Nueva York sancionó el año pasado con una multa de 5.000 dólares por mala fe a dos abogados y a su despacho por presentar un informe jurídico redactado con Chat GPT que también incluía citas de casos anteriores inexistentes. La sanción incluía la obligación para los letrados de informar del castigo a cada uno de los jueces a los que atribuyeron las sentencias falsas. A ese caso se han sumado varios más este año.
El XIII Congreso de la Abogacía Española, organizado por el CGAE, ya advirtió en mayo de 2003 en sus conclusiones finales de la necesidad de regular en España este tipo de aplicaciones en la abogacía para "establecer un sello de control y calidad que garantice a los usuarios y a los profesionales la neutralidad tecnológica de las mismas y que no produzcan efectos contrarios a la deontología profesional y a los derechos de defensa de la ciudadanía". El Proyecto de Ley Orgánica del Derecho de Defensa, actualmente en tramitación parlamentaria, ha recogido en una de sus enmiendas el derecho de los ciudadanos a "a conocer con transparencia los criterios de inteligencia artificial empleados por las plataformas digitales".