Los asistentes de IA se usan para cotejar pruebas, verificar información y hasta para predecir sentencias. Fiabilidad de las fuentes e imparcialidad en el manejo de la información, los principales cuestionamientos.
Las empresas en China (Asia) están impulsando el desarrollo de la Inteligencia Artificial (IA), y el gobierno chino, a su vez, está apoyando activamente esas industrias e invirtiendo en IA; de hecho, está interesado en utilizar estos logros para digitalizar diversas ramas del Estado.
En los tribunales chinos, la IA ya participa en la toma de decisiones. Un tribunal de Hangzhou, por ejemplo, utiliza un asistente de juez llamado Xiao Zhi 3.0 o “Pequeña Sabiduría” (小智).
Al principio, Xiao Zhi 3.0 se encargaba de las tareas repetitivas, como anunciar los derechos y las obligaciones de las partes. Ahora, que se utiliza en procesos por temas económicos sencillos, graba los testimonios con reconocimiento de voz, analiza materiales del caso y verifica la información en bases de datos en tiempo real.
Un tribunal de Suzhou aplicó una tecnología similar en litigios sobre accidentes de tráfico, en los que el asistente de IA examinó las pruebas y redactó los veredictos, ahorrando el 80% del tiempo del juez.
El sistema inteligente de predicción de sentencias Xiao Baogong, otra IA, también es utilizado por jueces y fiscales en Derecho Penal. La aplicación puede sugerir penas basándose en el análisis de big data de la información del caso, y en sentencias anteriores de casos similares. “Uno de los retos de la justicia penal china es garantizar la uniformidad. Quieren asegurarse de que en las distintas regiones de China las penas sean coherentes entre sí”, dijo a DW el Dr. Shitong Qiao, profesor de Derecho en la Facultad de Derecho de Duke.
No todos están preparados para la IA en los tribunales tal como ocurren en las cortes de China
Las soluciones basadas en IA ya se aplican en los sistemas jurídicos de muchos países, sobre todo para optimizar las bases de datos y hacerlas más accesibles. Sin embargo, solo unos pocos países están preparados para ir más allá. Francia, por ejemplo, prohibió cualquier desarrollo de litigios predictivos basados en IA en 2019, argumentando, entre otras cosas, el riesgo de la comercialización de datos.
Esta preocupación es razonable, ya que los tribunales no tienen la capacidad de desarrollar IA por sí mismos. El proceso se externaliza a empresas tecnológicas privadas.
“Las motivaciones de esas empresas son diferentes a las de las instituciones públicas. Por tanto, la forma de asegurarse de que el proceso es responsable, de que los datos en sí no están sesgados, de que los algoritmos sean justos es un reto fundamental no solo para China, sino para todo el mundo”, dijo Qiao.
Dudas sobre decisiones imparciales en el uso de la Inteligencia Artificial en cortes de China
En China, los ciudadanos pueden utilizar teléfonos inteligentes para presentar una denuncia, seguir la evolución del caso o comunicarse con el juez. Las máquinas basadas en IA ofrecen, entre otras cosas, consultas jurídicas, registran casos y generan documentos legales las 24 horas del día. Incluso pueden predecir la probabilidad de éxito o fracaso de un juicio.
Sin embargo, hay cuestionamientos sobre la fiabilidad del sistema. El Dr. Zhiyu Li, profesor adjunto de Derecho y Política en la Universidad de Durham, dijo a DW que, luego de entrevistas realizadas a litigantes se halló que “son bastante escépticos sobre la fiabilidad y utilidad de las predicciones”, porque estas se basan principalmente “en respuestas a preguntas de opción múltiple y no en comunicaciones cara a cara e interactivas”.
Otro problema es que los sistemas de IA se desarrollan sobre un registro público incompleto. Se debe a la desigual digitalización de información en las regiones de China. Además, el gobierno ha sido sorprendido eliminados casos de las bases de datos. El caso de una mujer secuestrada en Xuzhou lo puso de manifiesto.
La opinión pública se indignó por el número de casos similares y penas inadecuadas que encontraron en el sitio web China Jugdements. Tras una interrupción del servicio, los casos desaparecieron. Parece dudoso que un sistema de Inteligencia Artificial basado en datos fragmentarios pueda tomar una decisión imparcial.