Aprueban marco legal de AI en Brazil
Una vista breve de la normativa para el desarrollo de sistemas con IA

El Senado brasileño aprobó el martes 10 de octubre el proyecto de ley que regula la inteligencia artificial (IA) en el país. Conocido como el Marco Legal de la IA, en Brazil el proceso legal hace que este norma ahora pase a la Cámara de Diputados para su análisis y luego en se implemente como norma de estado.
El texto establece normas para el desarrollo, implementación y uso responsable de sistemas de IA en Brasil, clasificando estos sistemas según su nivel de riesgo. Antes de llegar al Plenario del Senado, el Marco Legal de la IA fue analizado por una comisión temporal creada específicamente para este tema, siendo aprobado de forma consensuada tanto por la base del gobierno como por la oposición.
¿Cuándo entra en vigor?
La mayoría de las disposiciones del marco legal entrarán en vigor 730 días (dos años) después de la publicación de la ley. Pero, todo lo que se refiere a sistemas generativos y de uso general, aplicaciones prohibidas y derechos de autor entrarán en vigor 180 días después de la publicación de la ley.
¿Qué dice?
El Marco Legal de la IA en Brasil establece la creación del Sistema Nacional de Regulación y Gobernanza de Inteligencia Artificial (SIA), que incluirá a la Autoridad Nacional de Protección de Datos (ANPD) como órgano coordinador, junto con autoridades sectoriales y dos nuevas entidades: el Consejo de Cooperación Regulatoria de Inteligencia Artificial (CRIA) y el Comité de Especialistas y Científicos de Inteligencia Artificial (CECIA).
El marco legal garantiza a las personas y grupos afectados por sistemas de IA, independientemente de su nivel de riesgo, derechos como la privacidad y protección de datos personales, no discriminación ilícita o abusiva, corrección de sesgos discriminatorios, información previa sobre interacciones con sistemas de IA, y derecho a la determinación y participación humana. Además, en casos de efectos jurídicos derivados de un sistema de IA, se asegura el derecho a la explicación de decisiones, a contestar y solicitar revisión, y a la supervisión o revisión humana.
Las autoridades competentes deberán establecer criterios diferenciados para sistemas de IA ofrecidos por microempresas, pequeñas empresas y startups que promuevan el desarrollo de la industria tecnológica nacional. Los sistemas de IA se clasifican en dos categorías de riesgo: Alto Riesgo y Riesgo Excesivo, con aplicaciones específicas para cada categoría.
Diferencias con la Ley Europea
Mientras Brasil aún se encuentra en la fase de discusión y aprobación de su marco regulador de inteligencia artificial (IA), la Unión Europea (UE) ya está a la vanguardia con el AI Act, que entró en vigor a principios de agosto. Este acto establece una abordagem basada en el riesgo, clasificando las aplicaciones de IA en diferentes categorías, desde bajo hasta inaceptable, e imponiendo reglas más estrictas para los sistemas considerados más críticos.
Esta abordagem contrasta con la propuesta brasileña para el Marco Legal de la IA, que, aunque también establece principios de transparencia y responsabilidad, aún necesita definir con mayor claridad cómo se implementarán estas directrices en la práctica. La UE se destaca además al exigir que todas las aplicaciones de IA de alto riesgo pasen por un proceso de certificación antes de ser comercializadas, lo que puede representar una barrera adicional para las startups que deseen operar en el mercado europeo.