Los últimos días, desde el Gobierno anunciaron lo que será el proyecto de ley oficialista para regular el uso y desarrollo de inteligencia artificial (IA) en Chile, incluyendo medidas como una clasificación con cuatro niveles de riesgo según el uso de la tecnología.
Éstos serán definidos por un Consejo Asesor Técnico, y con sanciones a cargo de la futura Agencia de Protección de Datos Personales.
La propuesta, aseguraron desde el Ministerio de Ciencias, calibra la necesidad de protección con la de innovación, posibilita la entrada de nuevos actores, promueve los espacios de prueba controlados para sistemas de IA y plantea medidas dirigidas a empresas de menor tamaño en esta materia.
“No es lo mismo un algoritmo destinado a influir las emociones que uno que pretende recomendar opciones de música”, explicó la ministra de Ciencia, Aisén Etcheverry, detallando el enfoque basado en riesgos que define la propuesta legislativa.
Los riesgos
Siguiendo como referente la Ley de IA de la Unión Europea, el proyecto clasifica los sistemas en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo moderado y sin riesgo evidente.
¿Cómo funcionará? “En lugar de exigir que las tecnologías pasen por un proceso de certificación o análisis antes de entrar al mercado, se estableció que cada empresa clasifique sus sistemas de IA en base a un listado de riesgos que se elaborará, donde cada categoría tendrá reglas específicas que cumplir. Las sanciones para quienes no lo hagan serán administrativas, aplicadas por la futura Agencia de Protección de Datos Personales, en un procedimiento regulado por ley y en el que se puede apelar en las cortes de apelaciones”, explicó la ministra.
Los usos incluidos en la categoría de “riesgo inaceptable” están definidos en el proyecto, a diferencia de “alto riesgo” y “riesgo limitado”, que el proyecto describe en forma genérica pero donde se espera que el Consejo Asesor Técnico de Inteligencia Artificial -formado por representantes del sector privado, público, academia y sociedad civil- proponga usos y aplicaciones existentes.
Además, deberá proponer el alcance y modo de cumplimiento de las reglas a las que deberán sujetarse los operadores de ese tipo de sistemas.
¿Qué aplicaciones entran en cada categoría? Se consideran inaceptables, de acuerdo con el proyecto, aquellas que atenten contra la dignidad de las personas -como los utilizados para crear deepfakes de contenido sexual que exploten vulnerabilidades de niños, niñas y adolescentes-.
También prácticas con alto potencial de manipulación o evaluación de los estados emocionales de una persona, los usos biométricos para el análisis de imágenes de vídeo que empleen identificación en tiempo real (salvo para usos relacionados con la seguridad pública), y los sistemas de IA basados en técnicas de facial scrapping.
El proyecto define de “alto riesgo” aquellas aplicaciones de IA que presentan un peligro significativo de causar perjuicios para la salud, la seguridad, los derechos fundamentales protegidos por la Constitución o el medio ambiente, así como para los derechos de los consumidores.
Por ejemplo, un sistema de IA destinado a la contratación o selección de personas, especialmente para analizar y filtrar solicitudes de empleo y evaluar candidatos.
En “riesgo limitado” se incluyen aquellos usos que no implican riesgos significativos de manipulación, engaño o error derivado de la interacción con personas, por ejemplo, un chatbot de un servicio público que responde a consultas dentro de su esfera de competencia.
Por último, un sistema de IA sin riesgo evidente podría ser uno que sugiere películas o canciones, según las preferencias de un usuario, u otro que en ninguna circunstancia pueda causar perjuicios a los derechos fundamentales.
El proyecto de ley se centra también en que los usos de IA funcionen en condiciones transparentes, asegurando que las personas reciban información clara y precisa y sean conscientes siempre de que están interactuando con una máquina.
Fomento a la innovación
Según el Ministerio, calibrar la protección con la innovación fue una de las prioridades del proyecto. Para ello, éste faculta a los organismos de la administración del Estado para diseñar espacios controlados que faciliten el desarrollo, la prueba y la validación de sistemas innovadores de IA, durante un período limitado de tiempo antes de su introducción en el mercado.
Los detalles de este espacio deberán acordarse entre los proveedores potenciales y las autoridades, bajo su orientación y supervisión.
La propuesta también incluye medidas de apoyo a empresas de menor tamaño, en consideración a los intereses de los proveedores y los usuarios de sistemas de IA a pequeña escala. Entre ellas, dar acceso prioritario a espacios existentes de prueba para IA y fomentar la participación de representantes de empresas de menor tamaño en el Consejo Asesor Técnico de IA incluido en la propuesta de normativa.
Este proyecto de ley sería de los primeros a nivel mundial en su campo, basdándose en la normativa europea sobre IA, además de la agenda internacional y principios consensuados al alero de la Unesco y la OCDE.
Recoge también el trabajo de la Comisión de Desafíos del Futuro del Senado y de la Comisión de Futuro de la Cámara de Diputados, así como las recomendaciones del Consejo Asesor de IA. “Todo ello permite que esta propuesta de regulación converse muy bien con los países a los cuales exportamos y desde donde importamos tecnología”, sostuvo la ministra.