Es un hecho: las empresas brasileñas han incorporado la Inteligencia Artificial a sus estrategias comerciales, al menos el 98%, según un estudio realizado a finales de 2024. Sin embargo, el problema radica en que solo el 25% de las organizaciones se declaró preparada para implementar la IA. El resto adolece de limitaciones de infraestructura, gestión de datos y escasez de talento especializado. Sin embargo, esto no significa que el 75% restante esté esperando las condiciones ideales para avanzar en sus proyectos: al contrario, estas empresas siguen implementando la tecnología.
El problema radica en que solo una de cada cinco empresas logra integrar la IA en su negocio, según un informe global publicado recientemente por Qlik en colaboración con ESG. Además, solo el 47 % de las empresas reportaron implementar políticas de gobernanza de datos. Estas cifras son globales, y no sería sorprendente que las estadísticas brasileñas fueran aún mayores. Y aunque la IA se aplica actualmente de forma aislada, y el punto de entrada de la tecnología suele ser la atención al cliente, aún existen riesgos financieros, regulatorios y reputacionales.
Las empresas que optan por implementar IA sin la preparación adecuada se enfrentan a numerosos obstáculos. Estudios de caso han demostrado que algoritmos mal gestionados pueden perpetuar sesgos o comprometer la privacidad, lo que resulta en daños a la reputación y a las finanzas. La gobernanza de la IA no es solo una cuestión tecnológica, sino también de ejecución y diligencia debida: sin una estrategia bien definida, los riesgos aumentan junto con las oportunidades, desde violaciones de la privacidad y el uso indebido de datos hasta decisiones automatizadas opacas o sesgadas que generan desconfianza.
Presión regulatoria y cumplimiento: fundamentos de la gobernanza de la IA
La necesidad de establecer una gobernanza de la IA no surgió sólo en el ámbito empresarial: están surgiendo nuevas regulaciones y el progreso ha sido rápido, incluso en Brasil.
En diciembre de 2024, el Senado Federal aprobó el Proyecto de Ley 2338/2023 , que propone un marco regulatorio para la IA con directrices para su uso responsable. El proyecto de ley adopta un enfoque basado en el riesgo , similar al de la Unión Europea, clasificando los sistemas de IA según su potencial para vulnerar los derechos fundamentales. Se prohibirán las aplicaciones que presenten un riesgo excesivo, como los algoritmos de armas autónomas o las herramientas de vigilancia masiva, mientras los sistemas de IA generativos y de propósito general deberán someterse a evaluaciones de riesgo previas antes de su comercialización.
También existen requisitos de transparencia, por ejemplo, que exigen a los desarrolladores revelar si utilizaron contenido protegido por derechos de autor al entrenar los modelos. Simultáneamente, se debate la posibilidad de asignar a la Autoridad Nacional de Protección de Datos (ANPD) un papel central en la coordinación de la gobernanza de la IA en el país, aprovechando el marco de protección de datos existente. Estas iniciativas legislativas indican que las empresas pronto tendrán obligaciones claras en relación con el desarrollo y el uso de la IA, desde la elaboración de informes y la mitigación de riesgos hasta la contabilización del impacto algorítmico.
En Estados Unidos y Europa, los organismos reguladores han intensificado el escrutinio de los algoritmos, especialmente tras la popularización de las herramientas de IA generativa, lo que generó debate público. La Ley de IA ya entró en vigor en la UE y su implementación está prevista para finalizar el 2 de agosto de 2026, fecha en la que la mayoría de las obligaciones de la norma serán aplicables, incluyendo los requisitos para sistemas de IA de alto riesgo y modelos de IA de propósito general.
Transparencia, ética y rendición de cuentas algorítmica
Más allá del aspecto legal, la gobernanza de la IA abarca principios éticos y de responsabilidad que van más allá del simple cumplimiento de la ley. Las empresas se están dando cuenta de que, para ganarse la confianza de los clientes, los inversores y la sociedad en su conjunto, la transparencia sobre el uso de la IA es esencial. Esto implica la adopción de una serie de prácticas internas, como la evaluación previa del impacto algorítmico, la gestión rigurosa de la calidad de los datos y la auditoría independiente de modelos.
También es fundamental implementar políticas de gobernanza de datos que filtren y seleccionen cuidadosamente los datos de entrenamiento, evitando sesgos discriminatorios que puedan estar incluidos en la información recopilada.
Una vez que un modelo de IA está operativo, la empresa debe realizar pruebas, validaciones y auditorías periódicas de sus algoritmos, documentando las decisiones y los criterios utilizados. Este registro tiene dos ventajas: ayuda a explicar el funcionamiento del sistema y permite la rendición de cuentas en caso de fallo o resultado incorrecto.
Gobernanza: innovación con valor competitivo
Un error común es creer que la gobernanza de la IA limita la innovación. Por el contrario, una buena estrategia de gobernanza permite una innovación segura, aprovechando al máximo el potencial de la IA de forma responsable. Las empresas que estructuran sus marcos de gobernanza con antelación pueden mitigar los riesgos antes de que se conviertan en problemas, evitando así repeticiones o escándalos que retrasarían los proyectos.
Como resultado, estas organizaciones obtienen mayor valor de sus iniciativas con mayor rapidez. La evidencia del mercado refuerza esta correlación: una encuesta global reveló que las empresas con una supervisión activa de la gobernanza de la IA por parte de sus líderes reportan un mayor impacto financiero gracias al uso de IA avanzada.
Además, estamos en un momento en el que los consumidores y los inversores son cada vez más conscientes del uso ético de la tecnología, y demostrar este compromiso con la gobernanza puede diferenciar a una empresa de la competencia.
En la práctica, las organizaciones con una gobernanza madura reportan mejoras no solo en seguridad, sino también en eficiencia de desarrollo: los ejecutivos señalan reducciones en la duración del ciclo de vida de los proyectos de IA gracias a estándares claros desde el principio. Es decir, cuando los requisitos de privacidad, explicabilidad y calidad se consideran desde el principio de la fase de diseño, se evitan costosas correcciones posteriores.
La gobernanza, por lo tanto, actúa como guía para la innovación sostenible, indicando dónde invertir y cómo escalar las soluciones de forma responsable. Al alinear las iniciativas de IA con la estrategia y los valores corporativos de la empresa, la gobernanza garantiza que la innovación siempre contribuya a los objetivos empresariales y de reputación más amplios, en lugar de seguir un camino aislado o potencialmente perjudicial.
Desarrollar una estrategia de gobernanza de la IA es, ante todo, una estrategia para posicionarse competitivamente. En el ecosistema actual, donde países y empresas se encuentran enfrascados en una carrera tecnológica, quienes innovan con confianza y credibilidad lideran el camino. Las grandes empresas que establecen sistemas de gobernanza eficientes logran equilibrar la mitigación de riesgos con la maximización de los beneficios de la IA, en lugar de sacrificar uno por el otro.
Finalmente, la gobernanza de la IA ya no es opcional, sino un imperativo estratégico. Para las grandes empresas, crear una estrategia de gobernanza ahora significa definir los estándares, controles y valores que guiarán el uso de la inteligencia artificial en los próximos años. Esto abarca desde el cumplimiento de las regulaciones emergentes hasta la creación de mecanismos internos de ética y transparencia, con el objetivo de minimizar el riesgo y maximizar el valor de forma equilibrada. Quienes actúen con prontitud cosecharán los frutos de una innovación constante y una sólida reputación, posicionándose a la vanguardia en un mercado cada vez más impulsado por la IA.