C. RECENSIONES BIBLIOGRÁFICAS

Arturo Felipe Onfray Vivanco

Lectura estimada: 26 minutos 157 views
Descargar artículo en PDF

 

 

Arturo Felipe Onfray Vivanco 1

NIEVA FENOLL, JORDI. Inteligencia artificial y proceso judicial. Marcial Pons, Barcelona, Buenos Aires, Madrid y Sao Paulo, 2018, 166 páginas.

Jordi Nieva Fenoll, a sus cincuenta años, ha recorrido un destacado camino en el ámbito del Derecho Procesal, disciplina en la cual ha alcanzado el grado más alto en el escalafón docente de una universidad española, a saber, el de catedrático, puesto que ejerce en la Universidad de Barcelona. Se trata de una jerarquía que concuerda con sus estudios, su copiosa producción bibliográfica, su participación en numerosos congresos internacionales, varios de ellos en Chile, y su membresía en relevantes institutos y asociaciones vinculadas con la disciplina procesal. Allende dichos méritos, no puede dejar de mencionarse su calidad humana, la cual brilla e ilumina el camino de los estudios procesales y universitarios, así como el de la común humanidad a cuyo perfeccionamiento, a todos y a cada uno se nos convoca.

En estas breves líneas, con agrado, he convertido en grafías algunas reflexiones generales sobre su breve mas profunda obra, titulada “Inteligencia artificial y proceso judicial”, la cual es parte de los títulos de la colección “Proceso y Derecho”, de Marcial Pons, la cual, junto con ser dirigida por destacados profesores como son Michele Taruffo, recientemente fallecido, Eduardo Oteiza y Daniel Mitidiero, además del propio Jordi Nieva Fenoll, destaca por la amplitud y relevancia disciplinar de los temas analizados, así como por la cuidadosa selección y edición de los textos.

“Inteligencia artificial y proceso judicial” es un testimonio de los cambios en el ámbito de la Administración de Justicia en el mundo, los cuales han sido acelerados en los últimos años. Así, amén de las grandes transformaciones provocadas por la Constitucionalización del Derecho, la Internacionalización del Derecho y el Acceso a la Justicia, fácil resulta advertir, en concordancia con ellos, un aumento en el número de ingresos y en el tipo de asuntos de que conocen los tribunales así como un movimiento en favor de importantes reformas a la Administración de Justicia tanto en lo orgánico, ámbito en el cual se ha depurado la función jurisdiccional de otras como la administrativa o la de investigación criminal, como en lo funcional, rama en la cual se testimonia un tránsito de la escritura a la oralidad, en concordancia con la relevancia de los principios de la inmediación, de la concentración, de la oportunidad y de la publicidad.

A tales desarrollos se suman nuevos desafíos transversales, algunos endógenos y otros exógenos al Derecho, tales como, entre los primeros, la diversificación de las fuentes del Derecho y, entre los segundos, la importancia de los medios de comunicación y de las redes sociales.

Asimismo, es posible advertir otros retos de naturaleza más bien nacional, como, en el caso de Chile, a partir del estallido social y de la pandemia, los asociados a la protección de los derechos humanos en el marco de la protesta ciudadana, a la reforma de la Constitución y su impacto en el Poder Judicial y a una serie de ajustes tecnológicos, a los cuales Chile ya se había vinculado desde hace un tiempo, muy destacadamente por lo demás, entre otros ámbitos, en los relativos a la transparencia, la Oficina Virtual y la tramitación electrónica.

En este escenario, ampliamente evolutivo, surge la cuestión de la justicia digital y, en general, de la inteligencia artificial, a cuyos efectos fácil resulta advertir la existencia de apologetas y críticos, que avizoran la sustitución del juez por las máquinas o que rechazan en forma absoluta tal posición, dadas las características específicas del juicio jurisdiccional, oposición concordante, asimismo, con tensiones en otros ámbitos de la disciplina, como son la apreciación de la prueba o el rol del Derecho en el juicio jurisdiccional.

El autor analiza cómo la inteligencia artificial se entrecruza con el proceso judicial, en el cual, como bien lo recuerda, “aunque no lo parezca, en muchas ocasiones actuales un juez es mucho más mecánico que una máquina”. Empero, ello no lleva al autor a proponer una substitución del juez por las máquinas más allá de los significativos avances de la inteligencia artificial. El autor recalca que “la inteligencia artificial no dicta sentencias, al menos no habitualmente. Solo ayuda a dictarlas”.

La obra se estructura en seis capítulos.

En el primer capítulo, el autor revisa la impronta de la inteligencia artificial en el proceso, estableciendo una clara distinción inicial entre la “tramitación y búsqueda de datos, por una parte, y la actividad mental que supone el enjuiciamiento, por la otra”. A dicho respecto, afirma que “la primera actividad no reviste mayor complejidad, siendo la segunda la que encierra más incógnitas, aunque ello no quiere decir que esté completamente cerrada la inteligencia artificial”.

Continúa el derrotero de sus reflexiones con una revisión de la noción básica y parámetros de uso de la inteligencia artificial, ámbito en el cual advierte la existencia de limitaciones tanto en el razonamiento de un juez humano como en los desarrollos de la inteligencia artificial, a cuyos efectos una máquina puede equivocarse al operar sobre la base de generalizaciones, como aconteció, según recuerda el autor, con la histórica “censura automática de Facebook a la foto de la niña vietnamita que huía quemada por napalm, por estar desnuda”.

Prosigue Jordi Nieva Fenoll con los usos judiciales actuales de la inteligencia artificial en materia de procedimiento, en la prueba y en la argumentación, lo cual revela un tránsito desde una “inteligencia artificial débil”, como sería la asociada a los buscadores de doctrina, jurisprudencia y legislación, a una que reconoce mayores niveles de sofisticación, como sucede, por ejemplo, en los desarrollos asociados a la argumentación referida, área en la cual se advierten aplicaciones orientadas a estructurar argumentos jurídicos como QUESTMAD, ARGUMED o CATO, o a calcular las tasas de éxito judicial, como acontece con ROSS INTELLIGENCE.

Se revisan luego los límites de la inteligencia artificial, la cual si bien podría reposiciones a la escritura con respecto al hoy ampliamente extendido principio de la oralidad o conceptos como el de competencia territorial, no debería afectar la calidad de la respuesta democrática a la sociedad por parte de la judicatura y, en tal entendido, la inteligencia artificial debe contribuir a la evolución de la jurisprudencia y, asimismo, a “descubrir y vencer los errores más frecuentes de nuestro pensamiento”, razón por la cual si bien la mecanización en algunos ámbitos de la justicia no debe conducir a su absoluta automatización, a cuyos efectos concluye el autor con una revisión de las decisiones que estima automatizables, las cuales centra, fundamentalmente, en lo procedimental; en la admisión de pruebas en el proceso civil; en la admisión y resolución de recursos en el caso de certiorari; y en la ejecución, a cuyos efectos destaca, por ejemplo, la ventaja de la compilación en un solo algoritmo de “todas las inembargabilidades y todos los bienes realizables” ya que “estando debidamente sistematizados y clasificados todos los bienes en los respetivos registros públicos o privados —registros bancarios, por ejemplo— la complejidad actual de la ejecución se reduciría muy notablemente”.

En el inicio del segundo capítulo, titulado elemento psicológicos de las decisiones judiciales e inteligencia artificial, el autor constata que los jueces humanos actúan, con frecuencia, mecánicamente, y que, de alguna manera, están condicionados por unos pocos principios generales, lo que refleja las imperfecciones humanas y hace pensar, a algunos, “que en el futuro los jueces serán cada vez menos necesarios”.

En favor de una cierta rutinización en las decisiones judiciales se suma el hecho que “cuando los asuntos que deben llevar son muchos, como suele ser el caso, aumenta la mecanización de sus decisiones, lo que les hace particularmente sensibles a los heurísticos de pensamiento descritos por TVERSKY y KAHNEMAN”. Un heurístico, según afirma el autor, “es una especie de directriz general que podemos seguir los seres humanos para tomar una decisión”, por lo que “se trata de un cálculo estadístico bastante intuitivo”. A tales efectos, revisa una serie de heurísticos, a saber, la representatividad, la accesibilidad, la afección y el anclaje y ajuste, ámbito en el cual explora el llamado “sesgo de confirmación”, ámbito en el cual advierte mayores posibilidades de rectificación, de los errores a tal sesgo asociados, en la acción humana que en la de la máquina.

Continúa el texto con el estudio de las emociones, las cuales ordinariamente se atribuyen, en forma exclusiva, al hombre, frente a lo cual el autor destaca que una herramienta de inteligencia artificial podría desarrollar un grado de empatía, “rechazando decisiones que pudieran provocar un daño a toda la sociedad y ejecutando las que considere solidarias”.

Explora, entonces, la escasa ayuda del mal uso de la estadística, en cuanto que juzgar va más allá de los números ya que dicho ejercicio “es una combinación de conocimientos, formulación y comprobación de hipótesis, uso de heurísticos y aplicación de las emociones para redondear la justicia del caso concreto”.

Concluye con la pregunta de si son previsibles los jueces, a cuyo efecto admite la posibilidad de considerar los diversos factores que regulan el comportamiento judicial —Richard Posner considera varias posibles teorías del comportamiento judicial: el apego a la letra de la ley, la ideología de los jueces, su previsión de la reacción de otros poderes públicos a sus fallos, la voluntad de dichos poderes de mantenimiento de la división de los mismos, la composición del tribunal, la aversión al disenso entre sus miembros, la búsqueda del fallo más útil económicamente o más aceptable socialmente— con la salvedad de que no es un ejercicio de certezas, en cuyo contexto afirma que “con los jueces ocurre casi lo mismo que con la economía; puede explicarse a posteriori su comportamiento –igual que los datos económicos de un país–, pero no es tan sencillo de prever a priori, pese a que tampoco es imposible y por ello es factible realizar prognosis sobre dicha conducta”.

El capítulo tercero, titulado el periculum de las medidas cautelares y la inteligencia artificial, explora el complejo tema, en las medidas cautelares, del periculum in mora, en el ámbito civil, y de la libertatis, en el ámbito penal, y, en particular, las posibilidades de su determinación. A dichos efectos, advierte Jordi Nieva Fenoll, “se trata de pronosticar las tendencias de un litigante en el proceso, y ello no resulta nada fácil porque se trata de un estudio que difícilmente puede decirse que sea realmente jurídico, y por ello los jueces suelen no estar preparados para apreciarlo”.

En tal contexto, el uso de las estadísticas y de la inteligencia artificial se estiman como posibles instrumentos en orden a la evaluación del riesgo, el cual, sin embargo, no depende directamente ni exclusivamente de dichas variables.

A dichos efectos, Jordi Nieva Fenoll estudia los riesgos concretos en las medidas cautelares, para lo cual revisa, con detalles, aspectos tales como el riesgo de impago o evasión patrimonial, el riesgo de destrucción de pruebas, el riesgo de fuga y el riesgo de reiteración delictiva, este último objeto de particular atención por parte de los desarrollos propios de la inteligencia artificial, enumerándose al efecto una serie, para los no tan familiarizados con el tema, asombrosa de programas de predicción del riesgo, destacando, entre ellos, COMPAS, el cual trata de calcular el riesgo de reincidencia de una persona, a cuyos efectos se asocia el delito imputado con una serie de factores, tales como la pertenencia a una banda organizada, el número de detenciones previas, las infracciones disciplinarias en prisión, el consumo de drogas y alcohol, etc. Se trata, en total, de 137 ítems, algunos de los cuales han sido considerados sesgados, cual es el caso por ejemplo de la consideración de “índices de peligrosidad más altos en afroamericanos que en personas de raza blanca”. A dichos efectos, se destaca la sentencia del Tribunal Supremo de Wisconsin pronunciada en la causa State v. Loomis, en la cual se afirma que “siempre que COMPAS sea tenido en cuenta, junto con otras pruebas, como un elemento más de convicción, su uso es regular y que, por tanto, no afectaría al derecho a defensa”. Se trata de un tema que demanda estar atento, como advierte el autor, al recordar que “ya hemos vivido y sufrido demasiadas épocas y religiones que han intentado (…) el establecimiento del humano modelo”, a lo cual, a modo de ejemplo y de reflexión, agrega lo siguiente: “Una cosa es que un alcohólico tenga mayor predisposición a la violencia, y otra muy distinta es que sea el autor de un concreto homicidio. Es lo segundo lo que debe determinarse. Lo primero es simplemente una posible ayuda en el juicio posterior sobre su potencialidad de reincidencia”.

El cuarto capítulo de la obra, titulado inteligencia artificial y valoración de la prueba, se inicia constatando una certeza, a saber, que en los regímenes de prueba legal, proclives a un cierto automatismo por parte del juzgador, los espacios para la inteligencia artificial son favorables, realidad que se desdibuja en los sistemas de valoración libre, aun cuando existe una serie de datos objetivables que apelan a ella.

En el decurso del estudio, se revisa la prueba de declaración de las personas, distinguiendo al efecto la valoración de las circunstancias situacionales, los parámetros de valoración, la formulación de preguntas y la aplicación de la neurociencia. En el derrotero del análisis se advierten preliminarmente las limitaciones que afectan a la credibilidad del testimonio, entre ellas el “que la memoria humana no es especialmente buena”, a cuyos efectos se presenta una reflexión sobre la psicología del testimonio y las imprecisiones matemáticas a ella asociadas, las cuales, amén de la memoria y del tiempo, están vinculadas a factores que, tales como las respuestas al alcohol o al estrés, condicionan la percepción, a cuyos respecto se han elaborado algunos programas —por ejemplo, ADVOKATE— destinados a evaluar la credibilidad de los testigos, los que trabajan en base a la estadística, la que no debe sustituir, empero, los hechos del proceso. En ese orden de ideas existen elementos de las declaraciones que fortalecen o debilitan su valor, tales como su coherencia, su contextualización, su corroboración por otros medios de prueba y su vinculación con afirmaciones oportunistas, todos elementos que, eventualmente, podrían ser incorporados en un algoritmo aun cuando por una vía que no se advierte de fácil desarrollo.

En el ámbito de la formulación de las preguntas, el autor, en cambio, estima que “la inteligencia artificial puede ser muy eficiente en la labor de admisión de las preguntas de un interrogatorio, y por descontado en la valoración de las mismas”. Central en dicho camino es procurar la neutralidad de las preguntas. A su vez, hay espacios para la exploración del cerebro merced a la neurociencia, la cual ha emprendido un camino que, en forma relevante, ha superado el tradicional ojo clínico permitiendo —merced a instrumentos tales como la prueba de la onda P-300 o la fMRI— detectar la honestidad de las declaraciones más allá de las limitaciones asociadas a los falsos recuerdos o mentiras inconscientes.

Jordi Nieva Fenoll prosigue su análisis con la revisión de la prueba documental, ámbito en el que explora la posibilidad, por parte de la inteligencia artificial, de revisar la prueba documental, a cuyos efectos, allende la lectura documental, es preciso considerar los aportes de otros elementos como el contexto y la modalidad. Se trata de antecedentes que impactan en la comprensión del documento, en la cual si bien se advierten los aportes de la inteligencia artificial, difícil resulta avizorar la exclusión de la intervención del ser humano. Como afirma el autor: “(…) una cosa es saber lo que dice literalmente un documento y otra comprender su significado. Para ello es preciso el ser humano, aunque (…) la inteligencia artificial puede ayudar en ese terreno”.

Concluye el autor con la prueba pericial, a cuyos efectos “más que valorar las conclusiones de otro profesional cuya ciencia no conoce” releva que se consideran los posibles aportes de la inteligencia artificial en ciertos aspectos específicos como son la valoración objetiva del curriculum del perito, un ejercicio complejo que va allende los datos objetivos, como se puede observar a diario, a pesar de la constatación de una cultura de la primacía de las formas; y los criterios Daubert, esto es “la serie de puntos que el juez BLACKMUN expuso en la sentencia que lleva ese nombre, y que fueron confirmados y matizados en dos resoluciones posteriores del mismo Tribunal Supremo de los Estados Unidos”, a cuyo respecto se pregunta si estos criterios son automatizables, ámbito en el cual advierte que “una herramienta debidamente configurada sí que podría (…) descubrir fallos de coherencia en los resultados del dictamen, (…) muy difíciles de descubrir para el juez. Es decir, cálculos erróneos, mediciones desproporcionadas o conclusiones que no se correspondan con los datos que el mismo perito ha recogido en su examen y presenta en su dictamen”.

En el quinto capítulo, titulado inteligencia artificial y sentencia, se revisa uno de los temas probablemente más complejos del entrecruce entre Derecho y tecnología, cual es “que una máquina pueda dictar sentencias, de manera que nuestro destino esté en manos, no de personas como nosotros, sino de una aplicación que solo decide en función de aplastantes variables estadísticas y que, por ello, resolverá siempre de la misma forma, no solamente no adaptándose a los cambios, sino reafirmando sus “prejuicios” con el paso del tiempo y la acumulación de más decisiones en un determinado sentido, que serán sus propias decisiones”, lo que deviene, a su vez, de alguna forma, en que la “inteligencia artificial tiende a fosilizar las decisiones”.

Dicho anuncio, y los posibles temores que genera, no debe, según el autor, inquietarnos, y, en dicho entendido, él desarrolla una serie de reflexiones, en tal dirección, en el curso del capítulo, comenzando con la argumentación probatoria, destacando como central la necesidad de evitar el sesgo. Así, cabe entender “que una persona entre en una serie de parámetros de riesgo no quiere decir que haya cometido un delito en concreto”. A dichos efectos se repasa la motivación de la valoración probatoria, la cual está asociada a la confianza algorítmica en cuanto, en mayor medida se confíe en el uso de la inteligencia artificial las motivaciones se limitarán a lo esencial, esto es a lo que no dependa de las máquinas, lo cual no es sino un ejercicio concordante con otros desarrollos como, cotidianamente, lo advertimos, por ejemplo, de los correctores de texto o de los traductores, los cuales, aun cuando han experimentado importantes perfeccionamientos aún dejan importantes espacios para la intervención del usuario.

A su vez, con el tiempo, se espera permitir una resignificación de la fase de admisión y de la impugnación de la valoración de la prueba, la cual merced a los avances de la inteligencia artificial irá dosificando la importancia de la motivación. Ella “sin duda seguirá existiendo, pero parece obvio que con los años vendrá a menos esa utilísima labor para el ejercicio del derecho de defensa y de la interdicción de la arbitrariedad judicial, esencial en un Estado democrático”.

A lo anterior, el autor agrega una reflexión sobre la aplicación de estándares probatorios, los cuales, de alguna manera, apunta al ideal de objetivar los niveles de convicción judicial, lo que, de alguna manera es una suerte de ejercicio propio de Sísifo, en cuanto, como afirma Jordi Nieva Fenoll, “podemos estar seguros de que 2 + 2 es igual a 4, o de que existen las ondas gravitacionales, pero habitualmente no es posible saber a ciencia cierta si un testigo ha mentido”; se trata de un ámbito en el cual el juez y su reflexión crítica ocupará un rol central, al punto que afirma el autor: “(…) la inteligencia artificial no sustituirá el trabajo del juez, sino que le prestará una asistencia formidable en la que su criterio y buen hacer —el del juez— será fundamental, sobre todo, como digo, en la recogida de la resultancia probatoria. Pero en la valoración tendrá una asistencia con la que probablemente ningún juez pudo soñar hasta hace relativamente poco”. En el futuro, “el juez supervisará y completará el funcionamiento de la inteligencia artificial, igual que ahora selecciona la jurisprudencia que le viene por el buscador que habitualmente utilice”.

Concluye el autor con una reflexión sobre la apreciación de la presunción de inocencia, cuya relevancia ya es destacada por Ulpiano, la cual, para ser desvirtuada, debe serlo más allá de toda duda razonable, estándar que no siempre se logra merced al recurso a la inteligencia artificial, la cual, por ejemplo, basa, al menos parcialmente, su fiabilidad en estándares estadísticos cuya pertinencia admite ser cuestionada.

A ello se suma una revisión de la argumentación jurídica, ámbito en el cual se destaca la existencia de una serie de Bases Jurídicas —v. gr. ARGUMED, CATO, JURIMETRÍA, ROSS INTELLIGENCE o QUESTMAP— las cuales ordinariamente sugieren argumentos o jurisprudencia en favor de un determinado problema jurídico, más allá de lo cual, dado el ejercicio de persuasión que la argumentación supone, en esta etapa, parece difícil ir, salvo en ámbitos asociados con la automatización de “procedimientos sencillos en los que la aplicación del derecho siempre es la misma”.

Prosigue la obra con un cuestionamiento sobre el fin de la motivación, la cual, en particular en el ámbito de lo administrativo, se observa en el horizonte, sin obliterar la cotidiana realidad de, en los hechos, una suerte de abandono de la motivación asociada a la cultura del copiar y pegar, extendida en el ámbito de la abogacía y de la judicatura.

A ello se suma la posibilidad de apreciar, en base a la inteligencia artificial, la concurrencia de cosa juzgada y de la litispendencia, amén de la acumulación de procesos, en cuanto se está ante un análisis comparativo de información, en general de una complejidad abordable por esta vía.

Concluye el capítulo con una mención a la independencia judicial, la que es esencial al buen juez y si bien la máquina no se ve amenazada en cuanto a una posible afectación de su independencia, sí lo está “su programador, es decir, aquel que elabora el algoritmo que hace que la máquina funcione, y cuya ideología sí puede influir decisivamente en la elaboración del algoritmo”. Esa presencia de un elemento artificial al juez —que el autor ya advierte desde antiguo en la propia ley escrita, lo que admite matices, en mi opinión, en cuanto el algoritmo a diferencia de la ley no es Derecho— debe seguir unas determinadas directrices, entre ellas, en forma principal, el respeto a los derechos fundamentales, materia a ser revisada en la parte final de la obra.

El sexto capítulo, titulado inteligencia artificial y derechos humanos, revisa cómo impacta el uso de la inteligencia artificial en el ámbito de los derechos humanos, los cuales “nacieron como una barrera defensiva de los ciudadanos frente al inmenso poder del Estado”.

Son los riesgos en la afectación de tales derechos los que se estudian en este capítulo, a cuyos efectos se revisa, en primer término, el derecho al juez imparcial, el cual, en términos del autor “es uno de los tres derechos esenciales del proceso, junto con la defensa y la cosa juzgada”. El autor explora la esencia de la imparcialidad, vinculada con la ausencia de emociones como el afecto y el odio, para luego revisar la imparcialidad y la inteligencia artificial, escenario en el que cabe advertir que si bien las emociones pueden excluirse del funcionamiento de las máquinas, al menos hasta ahora, ello no excluye la existencia de posibles insuficiencias en la construcción de los algoritmos que sirven de base a su funcionamiento. Agrega así que, en la revisión de la imparcialidad e independencia como equivalentes en un contexto de inteligencia artificial, se releva la necesidad de que “los algoritmos de la máquina sean igualitarios en general, y no discriminatorios”, a cuyo respecto la preservación de la imparcialidad por sobre las empatías debe considerarse en el diseño de instrumentos de inteligencia artificial, sin perjuicio que existan necesarios espacios de humanidad en el juicio jurisdiccional, asociados a la individualización de la norma general en un caso concreto, materia en que los algoritmos se revelan insuficientes en orden a ser “verdaderamente capaces de captar exhaustivamente y en tiempo real esas tendencias sociales”.

El libro explora, en seguida, el derecho a defensa y cómo la inteligencia lo afecta, en cuanto eventualmente puede resultar lesionado, por ejemplo, “por no conocer los litigantes los algoritmos que la herramienta utiliza para tomar sus decisiones”. En estas materias, Jordi Nieva Fenoll destaca la relevancia de la publicidad de los algoritmos, lo cual se ha promovido a partir del caso State v. Loomis, sin perjuicio de que la señalada garantía pueda admitir modificaciones en el tiempo, a cuyos efectos advierte que es posible que, en el futuro, “esa publicidad solamente se pueda obtener telemáticamente, aunque con una mayor facilidad y sobre todo previsibilidad que las que actualmente podemos observar”.

Asimismo es probable que los recursos procesales se vean limitados, en concordancia con una resignificación de los altos tribunales, en cuanto ellos deberán centrar sus esfuerzos en lo novedoso, a cuyos efectos se afirma: “Si se limitan a sustentar y defender precedentes, esa labor ya la podrá hacer la inteligencia artificial en su mayoría, salvo cuando decidan innovar (…) sus fallos brillarán en una medida desconocida hasta el momento, teniendo en cuenta que exclusivamente se pronunciarán cuando deban decir algo distinto de lo que afirmaron en el pasado, lo que sucederá no pocas veces porque el Derecho es como la sociedad: vivo y, por tanto, cambiante”.

A lo señalado se suma la posibilidad de una defensa de la inteligencia artificial frente a un juez de inteligencia artificial, a cuyo respecto “es posible que el abogado acabe siendo prescindible, sobre todo si habitualmente limita su función al uso de herramientas de inteligencia artificial y no ejerce su labor con mayor reflexión del despacho rutinario habitual de asuntos”.

Concluye el autor este capítulo con una reflexión sobre el derecho a la intimidad y a la presunción de inocencia, cuya discusión se releva como necesaria en cuanto en la inteligencia artificial se manifiesta una transparencia suma, la cual trabaja con innumerables datos, en cuya selección podría afectarse la neutralidad de juicio de la conducta del ciudadano. Jordi Nieva Fenoll revisa, en particular, los riesgos asociados a la recolección indiscriminada de datos y al establecimiento de patrones delictivos contrarios al derecho a la presunción de inocencia, a cuyo respecto destaca la necesidad de juzgar las conductas humanas no sobre la base de perfiles, sino que de hechos debiendo los patrones tendenciales ser ajenos a la instrucción de modo tal de no vulnerar la presunción de inocencia.

El tema de la obra, cuya revisión ya se concluye, bien podría ser parte de un congreso de futurología. Sin embargo, se trata de una tendencia que, cada vez más, adquiere relevancia en la planificación de los sistemas de justicia, la cual, en algunos casos, más allá de la tramitación digital, o una inteligencia artificial más bien débil como la vinculada a la masificación de las bases de datos de doctrina, de jurisprudencia y de legislación, considera hoy la introducción de dicha inteligencia en la decisión de las contiendas, como, por ejemplo, lo testimonia, entre otros varios casos, un reciente proyecto desarrollado en Estonia, el cual permite que una máquina decida casos de cuantía menor a siete mil euros, sin perjuicio de la posibilidad de apelar ante un tribunal integrado por jueces humanos.

Estamos ante una obra que nos convoca y nos introduce, de una manera realista, sin apasionamientos ni desasosiegos, en el impacto de la tecnología digital en el proceso judicial, la cual viene a apoyar, de manera relevante, la solución de importantes cuestiones procesales, por ejemplo, en los ámbitos de lo cautelar y de lo probatorio, por no mencionar la gran cuestión de lo decisorio, todas esferas en las cuales, por ahora, no se avizora la eliminación de la intervención humana, las que sin embargo sí demandan el respeto de los derechos fundamentales en material procesal.

Sin duda, se trata de un tema de trascendencia mayor tratado con gran inteligencia y conocimiento por Jordi Nieva Fenoll, práctica usual en sus reflexiones procesales. Así lo devela, además del texto central, una copiosa bibliografía, que junto con testimoniar la relevancia actual del asunto sirve de orientación a la conducción de próximos estudios, que, sin duda, nacerán frente a un tema que, se avizora, iniciará un giro en el Derecho procesal y, en suma, en las prácticas de la Justicia.


ARTURO FELIPE ONFRAY VIVANCO. Abogado del Departamento de Estudios del Consejo de Defensa del Estado y Profesor de la Facultad de Derecho de la Universidad Finis Terrae. Licenciado en Derecho y Educación, Magíster en Sociología del Derecho (MA) y en Teoría del Derecho (LLM) y Doctor en Derecho (PhD) de la Universidad Católica de Lovaina. Miembro de los Institutos Chileno de Derecho Procesal e Iberoamericano de Derecho Procesal y de la Asociación Internacional de Derecho Procesal.

CONTENIDO