El año 2023, de cierto modo, fue el año regulatorio de la Inteligencia Artificial (IA). Aún en mayo, la Cumbre del G7 destacó la importancia de promover salvaguardas para los sistemas avanzados de IA a nivel global.
En agosto, fue el turno de China de promulgar una ley específicamente asociada con la IA generativa, con el objetivo de mitigar el daño esencial a las personas, mantener la estabilidad social y asegurar su liderazgo regulatorio internacional a largo plazo.
A raíz de este proceso, le correspondió a Estados Unidos, representado por su entonces presidente Biden, emitir una orden ejecutiva encargada de orientar la aplicación de la IA en el ámbito de la fiabilidad, la seguridad y la protección de los elementos fundamentales de la soberanía estadounidense.
Sin embargo, la guinda del pastel fue, en gran medida, el acto de IA de la Unión Europea, preaprobado en diciembre de 2023 y sancionado a principios de 2024. Profundamente debatido y bastante amplio, el Acto alcanza el estatus de una regulación con vocación internacional concebida como marco legal para el desarrollo y la aplicación de sistemas de IA para los países miembros del bloque.
En Brasil, la ley 2.338 de Inteligencia Artificial marca un punto de inflexión en la regulación de las tecnologías emergentes en el país. A gran escala, la ley posee aspectos positivos, pero también denota cierta fragilidad en áreas estratégicas para el desarrollo de nuestro liderazgo en el campo de la IA.
En el centro de la regulación brasileña se encuentran disposiciones de la Ley General de Protección de Datos (LGPD), enfatizando la protección de datos personales con énfasis en la privacidad. La ley pretende, de este modo, garantizar que la IA no comprometa los derechos individuales. La LGPD también quiere incentivar la innovación, ofreciendo algunos incentivos fiscales y subsidios para empresas que invierten en investigación y desarrollo de IA. Este aspecto busca posicionar a Brasil como un centro de innovación tecnológica, fomentando la competitividad y la creación de startups en el sector de IA. En lo que respecta a los impactos sociales, la inclusión digital y el uso ético de la IA para reducir desigualdades están contemplados mediante la promoción de programas educativos y de capacitación para poblaciones vulnerables, preparando a la fuerza laboral para la era de la inteligencia artificial. La idea es mitigar los impactos sociales negativos de la automatización, promoviendo una transición más equitativa.
Sin embargo, hay puntos negativos que destacar. El primero de ellos gira en torno a una burocracia excesiva, como la exigencia de múltiples evaluaciones y certificaciones que podrían sobrecargar a las empresas, especialmente a las startups y pequeñas empresas, con costos adicionales y procesos largos. Este aspecto burocrático puede desalentar la innovación y la adopción de nuevas tecnologías. Aunque la ley tiene intenciones interesantes, algunos críticos citan ambigüedad en ciertas disposiciones, lo que posibilita interpretaciones conflictivas e inseguridad jurídica. Falta claridad en cuanto a responsabilidades y penalidades específicas que dificultarán su aplicación práctica. Todavía existen preocupaciones sobre el uso potencial de la regulación de IA con fines de control estatal. Este aspecto plantea cuestiones sobre la protección de las libertades civiles y los límites de la intervención del Estado.
Estamos, en cualquier caso, ante un hito importante en la regulación de la IA. Este componente regulatório es necesario para lograr un equilibrio entre la protección de derechos, el incentivo a la innovación y la promoción de la inclusión social. Sin embargo, la eficacia de la ley dependerá de su implementación práctica y de la capacidad para mitigar los riesgos asociados. La transparencia, la claridad regulatoria y la vigilancia constante de la sociedad civil serán esenciales para garantizar que los beneficios superen los desafíos.