Exposición de Jordi Nieva-Fenoll (Universidad de Barcelona).
En Seminario sobre Derechos Fundamentales e Inteligencia Artificial
UNED, Madrid, 17 de mayo 2024.
Modera: Sonia Calaza López
TRANSCRIPCIÓN DE LA EXPOSICIÓN
Inteligencia artificial ¿Una tremenda amenaza para los derechos procesales o una gran oportunidad para reafirmarlos?
Jordi Nieva-Fenoll
Presentación
Sonia Calaza López:
Buenas tardes,
Va a dar comienzo la sesión de la tarde y tengo el gusto de presentar a mi querido amigo Jordi Nieva-Fenoll, siempre me dice que lo pronuncio mal, pero hago lo que puedo. Él nos va a hablar de Inteligencia Artificial y lo ha titulado de forma muy sugerente, como siempre él hace: “Una tremenda amenaza para los derechos procesales o una gran oportunidad para reafirmarlos”. Como no hace falta presentar a Jordi, sencillamente le doy la palabra y ahora él nos sorprenderá. Muchas gracias.
Introducción
Jordi Nieva-Fenoll:
Muy bien, muchas gracias. Buenas tardes a todos y me parece que es la vez que me bajo de un tren y doy una conferencia más rápido, en menos plazo, porque realmente acabo de llegar ahora mismo. En todo caso, muchas gracias por estar aquí; muchas gracias también por invitarme. Es siempre un placer estar aquí con nosotros y, bueno, para hablar de un tema del que, hace seis años, hablábamos cuatro, pero ahora la verdad es que está en boca de todo el mundo: la inteligencia artificial.
Está bien que haya debate, pero llega un momento en que también empiezan a repetirse demasiadas ideas, como nos van diciendo lo mismo una y otra vez, y también un poco haciendo castillos en el aire, si me permiten la expresión, tratando de adivinar qué va a ser esto.
La Inteligencia Artificial en la Justicia
¿Por qué estoy diciendo esto? Porque ustedes se han dado cuenta de que en la justicia no utilizamos inteligencia artificial, seis años después de estar hablando de ella.
Es un contraste: estamos haciendo todo tipo de congresos, jornadas, conferencias, actos, cursos, etcétera, sobre inteligencia artificial, y uno va a un juzgado y, salvo la que tenga uno en el teléfono móvil, no hay inteligencia artificial, o prácticamente no se trabaja con ella, salvo excepcionalmente en alguna prueba pericial. Me referiré a ello ahora mismo.
Oportunidad o Peligro para los Derechos Procesales
Esto tiene que ver con lo que voy a hablar hoy, que es fundamentalmente, si esto es un peligro o es una ventaja. Es decir, si los derechos procesales que tenemos reconocidos, tanto por la Constitución, en parte, como más profundamente por la jurisprudencia del Tribunal Constitucional, están en peligro por la inteligencia artificial o por culpa de la inteligencia artificial, o bien a lo mejor encontramos la oportunidad de transformar la manera en que hemos entendido tradicionalmente estos derechos y, tal vez, tenemos un refuerzo que no nos esperábamos en absoluto.
Nos está pasando lo mismo en la universidad. El otro día estábamos en la Universidad de Barcelona, hablando de la aplicación de inteligencia artificial a las técnicas docentes, etcétera. Y de entrada lo que ves es miedo. Es decir, bueno, ¿pero esto se podrá utilizar? Que si la inteligencia artificial generativa… Y claro, hay una incertidumbre sobre si esto va a ser bueno o va a ser malo.
Perspectiva General sobre la Inteligencia Artificial
Miren, yo voy a empezar diciéndoles que la inteligencia artificial no es ni buena ni mala, es como cualquier otra invención que se ha hecho en la historia del mundo y que siempre, en un primer momento, se ha tratado con una cierta desconfianza cuando era muy disruptiva.
En este caso, ha sido así. Pero antes pasó con la imprenta, por ejemplo. Fue un cambio absolutamente radical en nuestra evolución humana, y hay unos sectores que todos ustedes conocen muy bien, que se resistieron a que ciertos libros fueran publicados y empezaron a aplicar la censura. Ya no era tan fácil como que no lo escribieran a mano, pues algunas personas, las pocas que sabían escribir, sino que de repente se podía publicar aquello. Pero al final fue un poco como ponerle puertas al campo, porque todo el mundo sabemos en qué acabó la censura de los libros. Al final hemos podido leer prácticamente todo lo que hemos querido.
La Aplicación de la Inteligencia Artificial en los Procesos
En el proceso, pasa algo parecido. Esta especie de, digamos, alergia a aplicar la inteligencia artificial en los procesos, ¿tiene recorrido? ¿Va a ir mucho más allá? ¿Tiene sentido protegernos frente a la inteligencia artificial con respecto al sistema procesal? Pues bien, miren, intentaré ser lo más claro posible en la exposición.
Estructura de la Exposición
- Derechos a Proteger: En primer lugar, les hablaré de qué derechos son los que tenemos que proteger. Es decir, qué es lo que nos tiene que preocupar.
- Influencia Positiva de la IA: En segundo lugar, hablaré de cómo puede influir la inteligencia artificial positivamente en la protección de estos derechos.
- Riesgos Potenciales: En tercer lugar, hablaré por último de los riesgos, es decir, qué ocurrirá si esto no se utiliza bien. Con lo cual repartiré mi intervención en estas tres partes principales.
Derechos a Proteger
En primer lugar, ¿qué es lo que queremos proteger? Pues bien, queremos proteger el sistema de derechos fundamentales aplicables al proceso. Pero, ¿eso qué es? El debido proceso, como lo llamamos, incluye una serie de principios y derechos que aseguran que el proceso judicial sea justo.
Hay muchas formas de abordar esta cuestión y muchas formas de describir todo esto, pero a mí ninguna de las que he visto hasta ahora en la doctrina me parecen especialmente claras, especialmente cuando se refieren al proceso debido.
Porque ahí tienes que hacer una traducción de lo que se hace en Estados Unidos, que en el fondo es de donde viene la parte más importante de lo que nosotros tenemos aquí en España. Y lo de ellos viene de lo que consiguieron en el siglo XVIII, principalmente a base de pelearse entre el rey y su parlamento, lo que fue dando una serie de contenidos que actualmente forman parte de la English Constitution, aunque no está codificada, pero está ahí.
Todo eso, además, si lo conjuntas con la variedad en que están expuestos estos derechos a lo largo y ancho de las cartas magnas del mundo, incluyendo, por supuesto, las que tienen sesgo internacional, uno tiene una cierta dificultad para hacer una lista completa de lo que hay que poner ahí.
Principios Fundamentales del Proceso
Yo lo intentaré exponer de una manera que sea fácil de captar. ¿Qué queremos en un proceso? Básicamente, queremos:
- Juez Honesto: Que el juez sea honesto, es decir, independiente e imparcial. Si no podemos avanzar en esto, tenemos un juez corrupto y no podemos avanzar.
- Derecho de Audiencia: Queremos que el juez nos escuche. Esto es lo que antiguamente se llamaba derecho de audiencia. Que el juez te escuche, porque si estás hablando de lo que tú quieres frente a una especie de columna, no tiene mucho sentido.
- Acceso y Participación: Queremos que primero te deje acceder, que puedas hacer alegaciones, practicar pruebas, enfrentarte con la parte contraria (derecho de contradicción), y hacer conclusiones que forman parte de esta contradicción.
- Motivación de la Sentencia: Queremos una motivación de la sentencia para ver si el juez se ha enterado de algo.
- Derecho a Apelar: Queremos poder recurrir las sentencias si el ordenamiento lo permite.
- Ejecución de la Sentencia: Queremos ejecutar la sentencia.
Todo esto es defenderse. Si no tienes alguna de estas cosas, no te estás defendiendo realmente. Todo lo que estoy diciendo podría tener más contenidos y matices, pero es únicamente a los efectos de transmitirles lo que les voy a decir a continuación.
Por último, para que sea eficaz esto que hemos hecho de acudir a un juez honesto y que nos escuche, también queremos que lo que diga el juez se quede ahí, por tanto, tenemos que tener un derecho a la cosa juzgada.
Podría no ser así; hay culturas que no han tenido cosa juzgada. Parece que la antigua cultura egipcia no tenía cosa juzgada, mientras que la cultura mesopotámica casi que la tenía. Eso depende de las culturas del mundo. Algunas están más interesadas en alcanzar la verdad a toda costa, es decir, discutir esto una y otra vez hasta que realmente estemos seguros de lo que queremos hacer, o sea, lo que es correcto.
Lo que hemos hecho y otras veces decidimos: «Oye, no, ya está, tuviste la oportunidad, déjalo ahí por favor, o sea, no molestes más. Tuviste tu oportunidad de hacer el conflicto. Por tanto, no repitas tu demanda.»
Bien, estas serían las tres columnas principales de lo que serían los derechos fundamentales en el proceso.
¿Inteligencia artificial? ¿Cómo podemos hacer para proteger estos derechos? Pues bien, empecemos por el principio.
Derecho al Juez Independiente e Imparcial
Imagínese, por favor, conmigo que vamos a proceder a una sustitución completa del juez, es decir, que vamos a tener un ingenio de Inteligencia Artificial, una aplicación de inteligencia artificial que gracias a la llamada inteligencia artificial generativa va a conseguir darnos respuesta a lo que nosotros le hemos planteado. Imagínenselo. De esta forma, con más o menos complejidad.
Lógicamente, no va a ser lo mismo un procedimiento ordinario de 25.000 euros, con una cierta complejidad, que una demanda de desahucio. Claro, la segunda es prácticamente automática, con lo cual ahí ya más que de Inteligencia Artificial hablamos de automatización, que es otra cosa, de acuerdo. Pero con la demanda que es más complicada, ¿podremos hacer algo? Vamos a verlo, vamos a verlo.
Derecho al juez independiente e imparcial, claro, ¿por qué queremos a un juez independiente e imparcial? Porque queremos que sea honesto, lo he dicho antes, que no esté influido, que no sienta emociones como consecuencia de influencias externas, que pueden venir de otras instituciones del Estado, de poderes económicos, de su familia, de sus amigos, de sus propias convicciones, que quiere aplicar en la sentencia al margen del ordenamiento jurídico. Ven por dónde voy, ¿no?
Claro, esto es muy humano, ¿no? No lo ven claro?. Una máquina, ¿haría falta que fuera independiente e imparcial, teniendo en cuenta que no es humana y, por tanto, no va a sufrir esas emociones como consecuencia de esas influencias que se pueden producir? De las que me ha llamado no sé quién y claro, que mírate con cariño esta sentencia, ese tipo de cosas. Claro, a una máquina no puedes hacer eso, ¿no? Con lo cual, ¿haría falta proteger el derecho a la independencia y la imparcialidad si es una máquina que está realizando la sentencia? Pues claro, de entrada, la respuesta sería claramente no, rotundamente no. Pero cuidado.
Algoritmos y Programadores
Porque no piensen que la máquina dicta sentencias en absoluto. La inteligencia artificial funciona gracias a unos algoritmos que en realidad mueven una tremendamente grande base de datos y los combinan de una forma que alguien ha programado. Imagínense a alguien moviendo los hilos, por favor, de acuerdo. Claro, es ese alguien el que nos interesa, y claro, ¿ese alguien es independiente e imparcial?
Hombre, desde luego un juez no es. Desde luego un juez no es. Quién es? Es una empresa, una empresa que es capaz de trabajar con esta tecnología, habitualmente una empresa privada. ¿Ustedes creen que una empresa privada es independiente e imparcial? Naturalmente no, ni siquiera lo quiere ser, por mucho que quiera dar una imagen corporativa de serlo, pero no. Y por tanto, a partir de ahí, la tentación de que el CEO de esa empresa quiera aplicar su ideología a los pronunciamientos judiciales que va a producir su herramienta, pues hombre, esa tentación es enorme. En manos de algunos de los gobernantes que han pasado a lo largo de nuestra historia, pues hubiera sido una maravilla.
Una de las obsesiones de Hitler, por ejemplo, era controlar la justicia. Imagínense si llega a tener esto. Ya no le hubiera hecho falta decirles que los jueces tienen que seguir libremente, por supuesto, el sano espíritu del Führer. Ya está, él mismo, o su gente, hace esa herramienta y, por tanto, no hay ningún problema. Con lo cual, me imagino que estarán percibiendo que esto realmente es un peligro.
Es un peligro, pero, ojo, también es una oportunidad.
Confianza en el Juez
Porque, aunque no somos muy conscientes de ello, ahora mismo aplicamos una tremenda dosis de confianza que yo casi llamaría fe, con todos los respetos, por la figura del juez. Pero en el sentido de que creemos que va a ser alguien que no solamente va a aplicar las leyes, -ustedes saben que las leyes son interpretables, lo sabemos todos los juristas-, sino que no se va a dejar llevar por sus impulsos personales a la hora de aplicarlas. No se va a dejar llevar por sus impulsos personales al aplicar exactamente lo que ha dicho el legislador.
Me encantaría ver alguna vez en alguna sentencia alusiones a los debates parlamentarios que han llevado a una ley, porque esa es justamente la mens legislatoris, y de eso se suele hacer poco caso, por cierto. Pero bueno, ahí el juez tiene que intentar aplicar la ley, aislarse de su propia ideología, pero todos sabemos que los seres humanos tenemos emociones, lo he dicho antes, y claro.
Cuando estás ante alguno de aquellos casos que te toca la fibra, la tentación de «este es mi momento», claro, es enorme. No seamos ingenuos. Un juez no es un ser de luz, (perdón si hay algún juez en la sala). Un juez es un ser humano exactamente igual que todos los demás, y como ser humano, esa tentación, naturalmente, la va a tener. ¿Y por qué es importante? Porque no sé si ustedes se han dado cuenta de que justamente esa parte de emotividad en el juez es, junto con lo que hemos recopilado como derecho positivo en el ordenamiento jurídico, nuestra idea de lo que es justo, es decir, la justicia.
Claro, ¿qué es lo que estamos haciendo? Estamos convirtiendo al juez en una especie de oráculo, al cual le confiamos que su interpretación va a estar de acuerdo con nuestra idea social extendida en un momento de lo que está bien y lo que está mal, que al final es la idea de justicia. Confiamos en él porque es un ser humano como los otros.
Pero, claro, esto es peligroso, naturalmente. Confiamos en más cosas. Por ejemplo, también confiamos en que los jueces miran a la cara de la gente y saben si mienten o no. Esto es extraordinario; por supuesto que no lo saben. Además, en los últimos tiempos lo ha dicho muy bien y con bastantes datos científicos la psicología del testimonio.
Pero lo sorprendente es que esto lo dijo Franz von Litz en 1902, cuando publicó un artículo en el Zeitschrift für die gesamte Strafrechtswissenschaft, en el cual dijo qué ocurriría si la base principal de nuestro sistema de justicia penal, que es la prueba testifical, de repente descubriéramos que es una base científica falsa. Bueno, pues claro, lo que ocurriría es que habría que cambiar cosas. Nadie le escuchó ni le hizo caso, pero eso está ahí y está dicho nada menos que por Franz von Litz; no era un cualquiera.
Como ven, tenemos una dosis fuerte de fe en los jueces. Claro, si aplicamos la inteligencia artificial, podríamos restringir este margen de fe, que al final nos centra en situaciones peligrosas. No digo complicadas, digo peligrosas. Porque claro, puede ser que el juez te guste o que coincidas con su ideología, pero como no coincidas, escucharán a los partidos políticos quejarse cuando hay algún fallo que no les guste. Claro, ese margen está ahí y la inteligencia artificial lo podría anular. Les voy a decir cómo.
La inteligencia artificial, en primer lugar, podría tener entre sus datos todas las interpretaciones posibles de una ley de acuerdo con la voluntad del legislador. Eso podría hacerlo y de hecho sería mucho más eficaz que un juez, porque tiene mucha más memoria que cualquiera de nosotros, incluso juntos. La memoria es enorme.
Claro, pero falta eso que decía usted del sentido emocional social, eso que percibimos como el factor humano de la justicia y tal. No, esto es muy sencillo. Vamos a ver. La sociedad tiene su sentido de lo que es justo y lo que no, y va cambiando a lo largo del tiempo. Incluso cambia en las instituciones que se tienen como más inmovilistas. Ustedes miren los escritos teológicos de cualquier religión de hace 500 años y de ahora y verán cómo han cambiado, se adaptan a los tiempos, naturalmente.
Claro, podría ser que la inteligencia artificial captara la común opinión extendida en una sociedad y a partir de ahí dijera: «Mira, lo que espera la sociedad es esto, y cómo esperar esto.» En la medida en que encuentras una interpretación de la ley adecuada a “esto que espera la sociedad”, aplícalo
Podría hacerlo, sí. E incluso es fácil. Tenemos redes sociales. Tenemos, en definitiva, un montón de foros en los cuales se plantean opiniones y lo único que habría que hacer es intentar optimizar la toma de la muestra estadística para saber si las opiniones allí reflejadas son efectivamente las que defiende la comunidad en general o no.
Peligros y Oportunidades
Es peligroso, por supuesto. Porque yo, como CEO de esa empresa, evidentemente, me puedo dedicar a seleccionar lo que me gusta y lo que no. Es más, si además de ser el responsable de esta herramienta que se aplica en la justicia, resulta que poseo alguna red social -¿les suena el nombre de Elon Musk?-. Bueno, ¿por qué no condiciono yo las opiniones que se expresan en esa red social para al mismo tiempo generar opinión y, por supuesto, recoger la que me interesa? Claro, peligroso es, naturalmente que es peligroso.
Pero imagínense que conseguimos hacerlo bien. A a partir de ahí ese factor de imprevisibilidad del juicio de los jueces, pues deja de existir. Se hace previsible y, es más, se hace explicable.
Marcial Pons va a publicar un libro llamado “El juez emotivo”, una traducción de un libro en italiano (de Forza, Menegon y Rumiati), en el cual nos habla de cómo los jueces deciden diferente antes o después de comer, o en función de si hace más frío o menos frío, por decir solamente dos características o dos circunstancias.
Una máquina trabaja 24 horas seguidas, no duerme, no descansa y, además, es inmune al frío y al calor. Tampoco se alimenta más allá de la electricidad, pero no le produce apetito, no es exactamente lo mismo. Por tanto, estamos en otro escenario.
Podríamos hacerlo, sí, pero tiene sus riesgos. Les hablaré en la tercera parte de esos riesgos, no se preocupen. Pero insisto, la posibilidad existe.
Derecho de Defensa
Queremos acceder, que nos dejen hacer alegaciones, pruebas, conclusiones, etcétera. Sí, pero fíjense que el derecho de defensa, -aunque de esto se ha hablado poco-, en realidad está configurado en nuestras normativas, sobre todo para captar la atención del juez, -para optimizar sus recursos atencionales, si lo queremos, en una forma más cursi- para captar la atención del juez, para que nos escuche realmente.
Una máquina tiene toda la atención del mundo; no pierde atención. Con lo cual, ya no va a hacer falta que hagamos un escrito de alegaciones retóricamente adecuado para poder persuadir a un juez y crearle un marco mental en el cual sienta empatía por nuestra posición. Ya no. Con lo cual, toda esa labor argumentativa podrá ser exactamente igual, naturalmente, pero dando datos concretos, no acudiendo a la emotividad de sus señorías. Es diferente, es decir, cambia la forma de hacerlo.
Es más. Eso naturalmente puede hacer que cambie no solamente el estilo de las alegaciones, sino la extensión de las alegaciones en el sentido de que, por supuesto, serán muchísimo más breves que ahora; una máquina no hace falta que le des ahí. Pero cuidado, que la respuesta del juez, claro, como ya no va a ser persuasiva porque no intenta convencerte de nada, sino que está hecha de acuerdo con una serie de parámetros diseñados por esa herramienta, va a ser una motivación muy sucinta.
Y si quieres saber realmente por qué la máquina decidió de esa forma, tendrás que mirar el algoritmo, tendrás que mirar el funcionamiento de la herramienta y, a partir de ahí, verás si hay fallos o no hay fallos en esa herramienta. Esos fallos que obsesionan a Daniel Kahneman, en su último libro, Ruido, y que detectaba en los jueces humanos, pero que por supuesto también se pueden, teóricamente concebible, en una herramienta de inteligencia artificial que haga exactamente la misma labor que un juez. Con lo cual, eso cambia, pero cambia ambas cosas.
Podremos recurrir una sentencia que dicta la inteligencia artificial porque, oye, si es perfecta, ¿cómo vamos a poder recurrirla? ¿Ya está única instancia? ¿Para qué queremos casación, por ejemplo? Podremos recurrirla, sí, pero claro, el recurso va a ser distinto. El recurso puede consistir monográficamente en detectar un error de la aplicación. Decir: «Oiga, aquí esto se está haciendo mal, se está llevando la labor de la herramienta hacia un terreno que no es el que corresponde en función de los parámetros que ha establecido democráticamente, por supuesto, el legislador.»
Con lo cual, todo eso, evidentemente, cambia.
Pero si quieren plantearlo de una forma más futurista todavía, no piensen que los jueces son los únicos que pueden llegar a ser sustituidos, al menos en parte. También los abogados. Que a lo mejor vamos a tener una aplicación que habla entre sí o, mejor dicho, será la misma aplicación.
Imagínenlo muchas veces con el divorcio de mutuo acuerdo. Claro, no hay nada que hablar cuando es de mutuo acuerdo. Sí que es más complicado cuando no lo es, pero cuando es de mutuo acuerdo, si están de acuerdo con todo, pues paz, directamente está hecho.
Pero también con bastantes juicios posesorios que no tienen complejidad y que, en definitiva, pues se sustancian con toda una serie de papeles actualmente en los juzgados, lo que hace que al final tengan su grueso, más o menos antiguamente de esto, ahora tienes unos cuantos megas de pdfs para resolverlo, pero claro, ya no tiene sentido porque dicen siempre exactamente lo mismo. Esas sentencias son siempre exactamente iguales.
A veces ocurre incluso con sentencias más complejas, perdón, con autos más complejos como el auto de prisión provisional. Me estremezco cada vez que veo que en esos autos de 12 páginas hay ocho o diez páginas que están escritas de antemano. Me estremezco porque estamos hablando de la libertad de una persona.
Me estremezco, pero al mismo tiempo pongo este ejemplo a aquellas personas que les da mucho miedo la aplicación de la inteligencia artificial en la justicia porque dicen: «Vamos a incurrir en una especie de automatismo.» Por Dios! Pero si ya hay un cierto automatismo en los juzgados. ¿No te das cuenta? Antes, incluso se veía mucho más porque había una diferencia de letra. Ahora, con el tipo de letra lo puedes cambiar, pero detectas perfectamente cuando lo ha escrito el juez y cuando es lo de siempre, porque basta con que tengas dos resoluciones de ese mismo juez, ya está, ya lo ves, no hay ningún problema.
La Cosa Juzgada
Y vamos hablando de la cosa juzgada, al menos así en un sentido, iba a decir divertido, pero no, es aburridísima, en un sentido polémico, de la cosa juzgada. Al menos desde la época romana, con los libros 22 y 24 del Digesto, creo que eran 48, 44 hasta 40 o 54, parece que eran, que se dedican a analizar todos los problemas que en aquel momento salieron de la cosa juzgada para tratar de darle al juez pistas sobre cuál debía ser la solución adecuada. Eso es lo que heredaron los glosadores y comentaristas, y es lo que nos ha marcado la vida hasta el día de hoy, básicamente. El hecho de ver complicaciones ahí donde a lo mejor tampoco las había tanto.
Pero claro, ¿qué queremos con la cosa juzgada? En realidad, lo que queremos básicamente es garantizar que los juicios no se repitan, que los procesos no se repitan. Eso es básico como esto. Claro, ¿ustedes creen que hay alguna posibilidad de que si la inteligencia artificial domina la justicia de un país, aunque sea incluso en parte, existe alguna posibilidad de que se repita algún juicio porque alguien no lo detecta? Difícil. Y además, como eliminamos la retórica, va a ser mucho más complicado plantear la misma demanda de otra forma, a como la plantea, tener un caso que perdí e intentar ver si cuela. Ese es el problema principal con la cosa juzgada. Pues las cosas se hacen bastante más complicadas.
Con lo cual creo que ustedes estarán diciendo: «Bueno, pues está aquí hablando un señor que se acaba de bajar de un tren y que todavía tiene cara de velocidad, porque está encantado con la inteligencia artificial y le parece fantástica.» No. Miren, yo he sido la primera persona que ha escrito un libro sobre inteligencia artificial y proceso en España, es verdad, en el ámbito de hispanohablantes, de hecho. Pero eso no me ha hecho ser un fanático de la inteligencia artificial, antes al contrario.
Problemas de la Inteligencia Artificial
La inteligencia artificial -y es la tercera y última parte de mi intervención- tiene problemas. Yo les he hecho antes una exposición de por qué no se estaba aplicando en la justicia. Pues, ¿por qué? Porque la inteligencia artificial necesita datos. Muchos datos. Necesita que recopilemos todos los datos de cómo hacemos resoluciones judiciales, qué tenemos en cuenta, qué tiene en cuenta el juez, todo eso que les he dicho yo medio en broma medio en serio al principio: la emotividad del juez, su ideología, lo que sea. Claro, eso es lo primero que te va a pedir un ingeniero cuando quieras que te haga una herramienta: «Vale, ¿dónde están los datos?»
Es lo mismo que cuando le llaman los médicos, los oncólogos, y le dicen: «Mira, queremos una herramienta que nos detecte tumores.» Esto ya hace tiempo que lo están haciendo, además. «Vale, dame datos.» Pues, tienes todos estos datos histológicos de tumores de hace muchísimo tiempo, y con esos datos, efectivamente, se puede realizar una buena herramienta.
Falta de Datos en la Justicia
Pero en la justicia no nos hemos puesto ni a recopilar esos datos.
Ustedes pueden decir: «Bueno, la jurisprudencia”. Pero en la jurisprudencia, tenemos motivaciones, y no siempre son realmente buenas. No hemos descubierto cómo funciona la mente judicial. Es decir, necesitaríamos más datos de los que se han estudiado en Estados Unidos bajo la categoría de «judicial behaviour», que es muy interesante. Pero es que eso no lo hemos recopilado; se ha intentado, pero no se ha recopilado.
En estas condiciones, a lo máximo que podemos aspirar es a lo que ha hecho un gran profesor de esta casa, Miquel Soler, en su último libro, que es decir: «Oye, estos procesos son automatizables porque son sencillos, y voy a decir cómo.» Es un gran qué, porque al menos nos pone en una autopista, es decir: «Vale, pues por aquí empezamos a abrir camino.» Esa es la vía de futuro, pero mientras no haya datos, no hay inteligencia artificial que valga.
Con lo cual puede ser un poco de escudo para los más escépticos o los más reticentes al uso de esta tecnología.
Pero, como les decía, tiene problemas.
Peligros de la Privatización de la Justicia
Miren, yo no quiero que las empresas privadas hagan herramientas de inteligencia artificial aplicables a la justicia. No quiero, porque la justicia es un poder del Estado que, como todos los demás, está cubierto por la democracia. De otra forma, como les he explicado al principio. Al final, las sentencias se dictan en nombre del pueblo, o del rey, si uno quiere formularlo de una forma más monárquica. Pero al final, estamos hablando de lo mismo: es el poder último nuestro el que confiere esas capacidades, esas potestades.
Yo no quiero darle poder a una empresa privada para que haga lo que le dé la gana con la justicia. Ustedes podrán decir: «Bueno, pero los jueces hacen lo que quieren.» No, no, ya, pero es que eso lleva haciéndose milenios y ya estoy acostumbrado. De alguna forma, ya tengo claro lo que he hecho y he desarrollado una especie de fe en todo esto. Además, originariamente la justicia es un concepto claramente teológico y los primeros jueces eran una especie de sacerdotes de una diosa egipcia, como expliqué en mi último libro. Eso efectivamente nos ha hecho arrastrar esta fe hasta el día de hoy en el juez ser humano, pero cada vez estamos siendo más exigentes.
Es decir, cada vez nos quejamos más cuando un juez hace algo que no nos motiva. Cada vez le ponemos más caras de disgusto cuando hace lo que quiere con una prueba pericial. Y decimos “no, cuidado el perito habrá dicho algo, habrá que tratarlo con cariño, por lo menos, o si lo criticas habrá que saber por qué”. Esto es inédito.
Últimamente, nos hemos puesto a discutir bastante, como les decía antes, sobre sus capacidades con respecto a la prueba testifical. Ya, evidentemente, nos hemos caído de la mula y hemos visto la luz y hemos dicho: «No, cuidado, no nos creemos esto. Si dices que un testigo no es creíble, tendrás que decir por qué”. Y por alguna razón mejor que una sentencia que leí este miércoles, que decía que el testigo era creíble porque desde el principio del proceso hasta el final del proceso había mantenido siempre la misma idea, y como no la había cambiado eso quería decir que era creíble porque era constante en sus dichos. Gran labor de los abogados, naturalmente que lo prepararon, pero eso no es un indicio de credibilidad.
Pero fíjense que esto es muy reciente. Lean ustedes a Bentham a principios del siglo XIX, “Tratado de las Pruebas Judiciales”, recomendaba que los jueces vieran a los testigos para que los jueces supieran si alguien miente o dice la verdad. Y esto hace cuatro días, como quien dice. No han pasado ni 200 años, ha pasado muchísimo menos tiempo desde que todavía creíamos esto.
Oportunidades y Riesgos
Pero claro, todo eso, que entraría en una especie de magia, una especie de fábula, una especie de autoengaño que nos había hecho, más o menos, felices durante muchísimo tiempo, ahora mismo se ha caído. Tenemos una oportunidad de hacerlo mejor, que es justamente la inteligencia artificial.
Pero claro, si en lugar de confiar en esos jueces confiamos, como les decía al principio, en esas grandes empresas, estamos a su merced. Primero controlarán ese poder judicial, y antes habrán controlado la opinión de las personas que están en las redes sociales. Eso influirá en lo que voten nuestros parlamentarios. En los parlamentos, nuestros diputados, y como ese parlamento va a elegir gobiernos. Adivinen ustedes en manos de quién van a estar nuestras instituciones a partir de entonces.
Vean ustedes en manos de quién van a estar nuestras instituciones a partir de entonces. Claro que esto es muy peligroso. Esto tiene un recorrido mucho más ambicioso del que cualquiera se puede llegar a imaginar, aunque lo piense 10 segundos. Es necesaria una reflexión en este sentido.
Propuesta para el Futuro. El Papel del Estado
Lo cual me ha hecho proponer, y con esto acabo, que sean los Estados los que asuman esta tecnología. Es decir, hubo una época en la cual el Estado no externalizó la función judicial, sino que dijo: «No, voy a poner jueces, voy a asumir yo esto porque me parece importante.» Tampoco externalizó la labor de gobierno. «No, vamos a asumirla nosotros y vamos a decir qué es lo que hay que hacer de acuerdo con lo que elija un parlamento.»
Claro, si lo que les estoy diciendo puede afectar a todas estas instituciones, ¿por qué externalizarlo? Habrá quien diga que es inevitable, que los gobiernos lleguen tardísimo en esta carrera.
Por supuesto que es inevitable, pero bueno, perdón, por supuesto que llegan tarde en esta carrera, es verdad, es completamente cierto. Se han dejado llevar por la influencia de Estados Unidos, por esta corriente de privatización de sectores públicos, y ahora mismo se están viendo en peligro, sobre todo en el tema de los deepfakes.
De repente, están viendo que se puede manipular todo: imágenes, textos, cualquier cosa. Se puede manipular hasta una declaración de guerra. ¿Se imaginan?
Claro, por eso están asustados y ahora se están dando cuenta del daño que se han hecho a sí mismos por ahorrar, por ahorrarse dinero. Creo que lo que hay que hacer es detener esta deriva.
No confiar en estas empresas, naturalmente. Seleccionar muy bien a las personas que se van a encargar de hacer las herramientas que queramos aplicar a la justicia, -esta que yo le estoy diciendo, que es maximalista, u otras que ya existen-, de las que podemos hablar después en el debate, que tienen un recorrido mucho menor.
Pero asumir su producción para garantizar y mantener el control democrático de su funcionamiento. Porque de lo contrario, estaremos en manos de Google, Meta, OpenAi y cualquier otra empresa que ustedes quieran, mucho más de lo que ya estamos en estos momentos.
Muchísimas gracias por su atención.
Mapa conceptual de la exposición:
Video: UNED
Nota:
Subtítulos agregados
Transcripción realizada con IA. Edición V.T.
Mapa conceptual: campusvirtual.net