La Inteligencia Artificial (IA) está transformando rápidamente nuestra sociedad. Sin embargo, su potencial solo puede aprovecharse plenamente si se desarrolla de manera ética y responsable, de forma tal que sus beneficios lleguen a todos sin comprometer la seguridad, la privacidad y los derechos fundamentales. Un marco regulatorio bien diseñado permite fomentar el uso ético, la transparencia, mitigar sesgos y prevenir el uso indebido de estas tecnologías, asegurando que la IA trabaje en favor del bienestar humano.

Pareciera haber consenso en que se debe regular, el dilema es, ¿cuánto? Regular de tal forma que no desincentive la innovación, no aumenten los costos de desarrollo ni limite la competitividad del ecosistema empresarial y de innovación. El problema reside en que por desconocimiento o por temores muchas veces infundados, es fácil caer en el exceso de regulaciones.

Lamentablemente, la sobre regulación puede generar más efectos no percibidos a simple vista: la discriminación que podría favorecer a grandes corporaciones con recursos para cumplir con normativas complejas, mientras excluye a startups y PYMES. Además, una normativa excesiva y mal diseñada puede generar barreras innecesarias para la investigación y el desarrollo (I+D), retrasando avances que podrían beneficiar a la sociedad.

¿Regulación o freno a la innovación?

Debido a la relevancia de disponer de normativas como esta es que el 7 de mayo del año 2024, el Estado de Chile presentó una propuesta de proyecto de ley para la regulación en IA, que aún se encuentra en discusión en el Congreso.

La propuesta toma muchos aspectos de la regulación de la Unión Europea (EU AI Act) y otros originalmente provenientes de la OCDE, aunque esta última, desde el principio (2017) se adscribió a varios de sus principios de la europea, la única por ahora, que se encuentra en marcha gradual.

Sin embargo, en general vale la pena realizar dos observaciones al respecto:

    – Como un país pequeño de menos de 20 millones de habitantes, estamos adoptando una parte importante de aspectos normativos de la UE que conglomera a 27 países, y que posee una realidad tecnológica, cultural, social, estratégica, empresarial y bélica/defensa, diametralmente diferente a la de nuestro país.

    – No somos un país desarrollador ni exportador de tecnología de IA. Muchos servicios y tecnologías utilizados a nivel empresarial son “importados” principalmente desde EEUU. Luego, considerando nuestra realidad y estado incipiente, debería haber una normativa que más bien incentive el desarrollo local en todo el ecosistema más que castigar y controlar per se todo lo que se realice.

¿Chile está copiando el modelo europeo sin adaptarlo?

En el último tiempo, hemos sido testigos de muchos eventos geopolíticos relevantes a nivel internacional. Uno de ellos repercutió directamente en la regulación europea en el último AI Action Summit celebrado en febrero en París. En este, se mostró una gran preocupación sobre los riesgos de la excesiva regulación para la competitividad de los países, como parte del discurso del VP de EE. UU., JD Vance quien tuvo un tono más bien de oportunidades de la IA más que en la Seguridad de la IA.

Una de las consecuencias es que EE. UU. y Reino Unido rechazaron firmar la declaración de Paris sobre IA inclusiva. Pero, no solo eso, tiempo atrás empresarios y grupos tecnológicos europeos ya habían solicitado a la EU modular la regulación de IA. A raíz de esto y la crítica de EE. UU. es que recientemente, la EU eliminó otra directiva, la de “Responsabilidad de IA” (AI liability) de los actos legislativos para el año 2025. En simple, esta se refiere a la responsabilidad por los daños que pudiera causar los sistemas de IA, y que se introdujo por primera vez en la propuesta del 2022.

Lamentablemente, nuestra regulación local comparte las mismas características punitivas de la europea. Más allá de los castigos por los eventuales riesgos detectados en los sistemas de IA y otras normativas que se estipulan (i.e., ética, explicabilidad, transparencia, sesgos, justicia algorítmica) prácticamente no existe incentivo alguno para las instituciones, empresas y emprendimientos que desean desarrollar y/o utilizar tecnologías de IA.

Paradójicamente, el único aspecto aludido como aparente fomento es el uso de espacios de prueba controlados o sandboxes, que no solo se puede convertir en una limitante especialmente para PYMES, sino que no se ha mostrado su uso exitoso sistemático en el mundo. En este sentido, tampoco existe posibilidad alguna de autorregulación, o al menos no está explícita en la actual propuesta.

Un enfoque híbrido: regulación mínima y fomento a la IA

En vez de intentar regular todo lo habido y por haber, y considerando las características propias socioculturales, crecimiento, impulso a la I+D y de emprendimiento/innovación ¿no sería mejor tener una normativa que vaya más a la par y fomente la adopción/uso en vez de castigarla y controlarla?

Quizás, una propuesta híbrida podría tener muchos más beneficios: una regulación mínima y luego autorregulación, acompañado de multas altas para los que no la respetan. Esto podría fomentar la innovación responsable y a la vez la competitividad, asegurando que la IA beneficie a la sociedad en su conjunto.