La inteligencia artificial (IA) dejó de ser una promesa lejana para convertirse en una realidad presente en la vida cotidiana. Desde asistentes virtuales hasta sistemas de recomendación, pasando por diagnósticos médicos y decisiones automatizadas en servicios públicos y privados, la IA está transformando la manera en que vivimos, trabajamos y nos relacionamos.
Sin embargo, esta revolución tecnológica trae consigo una serie de desafíos éticos, sociales y jurídicos que requieren atención inmediata. Así como internet provocó una profunda reconfiguración de las estructuras sociales y legales, la IA impone la necesidad de un nuevo marco regulatorio capaz de acompañar su velocidad y complejidad.
¿Por qué regular la IA?
La regulación de la IA es esencial para garantizar que su desarrollo y uso ocurran de forma ética, segura y transparente. Entre los principales motivos para regular se destacan:
- Protección de derechos fundamentales: Los sistemas de IA pueden afectar directamente la vida de las personas, influyendo en decisiones sobre crédito, salud, seguridad y trabajo. La regulación ayuda a evitar abusos y discriminaciones.
- Transparencia y rendición de cuentas: Es fundamental que los algoritmos sean comprensibles y auditables, permitiendo que usuarios y autoridades sepan cómo se toman las decisiones automatizadas.
- Fomento a la innovación responsable: Un entorno regulatorio claro ofrece seguridad jurídica a las empresas innovadoras, incentivando inversiones en soluciones confiables y sostenibles.
- Prevención de riesgos sistémicos: La regulación permite identificar y mitigar riesgos como sesgos algorítmicos, fallas de seguridad, uso indebido de datos y consecuencias no intencionales.
- Alineación con estándares internacionales: Establecer reglas locales compatibles con legislaciones como el EU AI Act posiciona a América Latina como protagonista en la gobernanza global de la IA.
Actores involucrados en la cadena de valor de la IA
Para regular la IA es necesario comprender su cadena de valor, que involucra diferentes actores con responsabilidades complementarias. Entre los principales están:
- Proveedores de datos: Responsables de suministrar los datos que alimentan los sistemas de IA. La calidad, diversidad y legalidad de esos datos impactan directamente en el desempeño y la imparcialidad de los algoritmos.
- Desarrolladores de algoritmos: Diseñan los modelos de IA y definen cómo se procesarán los datos. Deben adoptar prácticas de desarrollo ético, como pruebas de sesgo, validación continua y documentación técnica accesible.
- Fabricantes de hardware y software: Crean las infraestructuras que soportan la ejecución de los sistemas de IA. La eficiencia, interoperabilidad y seguridad cibernética son aspectos clave en este punto.
- Integradores de sistemas: Adaptan e implementan soluciones de IA en contextos específicos, como empresas, gobiernos o plataformas digitales. Garantizan que la IA funcione según los requisitos legales y operativos.
- Usuarios finales: Interactúan directamente con los sistemas de IA. Deben estar informados sobre los límites, objetivos y funcionamiento de la tecnología, especialmente en aplicaciones sensibles.
- Reguladores y formuladores de políticas públicas: Establecen normas, fiscalizan el cumplimiento y promueven la gobernanza de la IA. Necesitan actuar de forma coordinada con la sociedad civil, el sector privado y la academia.
Cada eslabón de esta cadena puede estar sujeto a diferentes exigencias legales y éticas. La gran pregunta es cómo regular de manera eficaz y proporcional.
Regulación en Europa: EU AI Act
La Unión Europea se ha consolidado como líder global en la regulación de la inteligencia artificial, con la creación del EU AI Act, aprobado en 2024. Se trata de la primera legislación integral del mundo dedicada exclusivamente a sistemas de IA, con foco en seguridad, derechos fundamentales e innovación responsable.
El EU AI Act utiliza un enfoque basado en riesgo, que clasifica los sistemas de IA según su impacto:
- Riesgo inaceptable: Sistemas que representan una amenaza clara a los derechos fundamentales, como manipulación subliminal o puntuación social, están prohibidos.
- Alto riesgo: Incluye aplicaciones en áreas sensibles como salud, transporte, educación y seguridad pública. Deben cumplir requisitos rigurosos de transparencia, gobernanza de datos, documentación técnica y supervisión humana.
- Riesgo limitado: Sistemas que interactúan con humanos, como chatbots, deben informar claramente que son operados por IA.
- Riesgo mínimo: Aplicaciones de bajo impacto, como filtros de spam o recomendaciones de contenido, no están sujetas a requisitos específicos.
Este modelo europeo ha servido de referencia para otros países, incluido Brasil, y refuerza la importancia de una regulación que promueva confianza, competitividad y protección de derechos a escala global.
Regulación en Brasil
Brasil ha avanzado de manera significativa en el debate sobre la regulación de la inteligencia artificial. El principal marco en este proceso es el Proyecto de Ley Nº 2.338/2023, actualmente en trámite en la Cámara de Diputados. Inspirado en modelos internacionales como el EU AI Act, propone un enfoque basado en riesgo con el objetivo de equilibrar innovación tecnológica y protección de derechos fundamentales.
La clasificación de riesgo prevista en el proyecto sigue una lógica escalonada:
- Riesgo excesivo: Sistemas incompatibles con los derechos fundamentales y la dignidad humana están prohibidos. Ejemplos: tecnologías de manipulación subliminal, identificación biométrica en tiempo real en espacios públicos sin autorización legal y sistemas de puntuación social.
- Alto riesgo: Aplicaciones que afectan áreas sensibles como salud, educación, seguridad pública, crédito y relaciones laborales son permitidas, pero bajo estrictas obligaciones. Entre ellas: transparencia, documentación técnica detallada, registros de operación, supervisión humana y mecanismos de impugnación.
- Riesgo moderado o bajo: Sistemas con menor impacto en derechos individuales están sujetos a requisitos más leves, como informar que se trata de una IA, o incluso exentos de reglas específicas.
Además, el PL 2.338/2023 complementa la LGPD, refuerza la protección de datos personales, establece principios de gobernanza algorítmica como explicabilidad y auditabilidad, y prevé la actuación de autoridades reguladoras con facultades para fiscalizar y sancionar.
El proyecto es hoy el marco federal más avanzado sobre IA en el país. Su desenlace será crucial para posicionar a Brasil entre los países con legislación moderna y robusta sobre IA, al lado de la Unión Europea, China y Reino Unido.
¿Qué esperar?
La regulación de la inteligencia artificial está dejando de ser una discusión teórica para convertirse en una realidad concreta en diversas jurisdicciones. El avance del EU AI Act y la tramitación del PL Nº 2.338/2023 en Brasil muestran que el mundo avanza hacia un nuevo estándar de gobernanza tecnológica, basado en riesgo, transparencia y responsabilidad.