
Creado usando Dall-E.
La finalización del Acta de Inteligencia Artificial (AIA) de la Unión Europea (“UE”) inaugura un nuevo paradigma en la regulación tecnológica. El 13 de marzo de 2024, el Parlamento Europeo adoptó la AIA, el primer marco legal horizontal y completo del mundo para la IA.1 Esta estrategia basada en riesgos tiene una directiva principal: asegurar que los sistemas de IA en el mercado de la UE sean inherentemente seguros y estén alineados con los principios fundamentales de derechos humanos de la Unión. El Acta propone un régimen de responsabilidad estricta que asigna responsabilidad por todas las infracciones, independientemente de la trivialidad percibida del error, especialmente dentro de los conjuntos de datos que alimentan los algoritmos de IA.2
¿Quién es afectado?3
El alcance del Acta de IA abarca una amplia gama de entidades, incluidas tanto organismos del sector público como empresas privadas que introducen sus sistemas de IA en el mercado de la UE, o cuyo uso de sistemas de IA impacta a individuos dentro de la UE. Esto se extiende a entidades fuera de la UE que participan en actividades comerciales dentro de sus fronteras. Por lo tanto, la responsabilidad de adherirse al Acta de IA recae tanto en los creadores de tecnologías de IA como en aquellos que integran estos sistemas de IA para su uso en la UE.
Existen excepciones para la prototipación inicial y la fase de desarrollo antes de que los sistemas de IA se lancen al mercado, así como para usos relacionados con funciones militares o intereses de seguridad nacional.
Categorización Basada en Riesgos: Un Análisis Más Detallado
Central en la AIA es la categorización de los sistemas de IA en cuatro categorías principales de riesgo:
- Riesgo Inaceptable (IA Prohibida): Los sistemas de IA bajo esta clasificación están prohibidos debido a su potencial para contravenir las libertades personales y los valores sociales. Ejemplos incluyen tecnologías de vigilancia indiscriminada y IA manipuladora que explotan vulnerabilidades de individuos.4 Hay cuatro clases de sistemas de IA de riesgo inaceptable. Incluyen un sistema de IA: (1) Capaz de usar técnicas subliminales que “distorsionan materialmente el comportamiento de una persona de manera que causa o es probable que cause daño físico o psicológico a esa persona u otra persona” (Artículo 5(1)(a));5 (2) que “explota alguna de las vulnerabilidades de un grupo específico de personas debido a su edad, discapacidad física o mental, para distorsionar materialmente el comportamiento de una persona perteneciente a ese grupo de manera que cause o es probable que cause daño físico o psicológico a esa persona u otra persona” (Artículo 5(1)(b));6 (3) que proporciona puntuación social evaluando o clasificando “la confiabilidad de personas naturales durante un cierto período basado en su comportamiento social o características personales o de personalidad conocidas o predichas, con la puntuación social” (Artículo 5(1)(c));7 (4) puede ejecutar “sistemas de identificación biométrica remota en tiempo real en espacios públicamente accesibles con el propósito de aplicación de la ley” (Artículo 5(2)).8
- Riesgo Alto (IA Estrictamente Regulada): Las aplicaciones de IA con impactos potenciales significativos requieren cumplimiento con requisitos estrictos antes de su despliegue. Esto incluye sistemas relacionados con infraestructura crítica, empleo, aplicación de la ley y otros que influyen directamente en los derechos individuales y las operaciones sociales.9 Ejemplos de usos de IA de alto riesgo incluyen infraestructura crítica, educación y formación profesional, empleo, servicios privados y públicos esenciales (por ejemplo, atención médica, banca), ciertos sistemas en aplicación de la ley, gestión de fronteras y migración, justicia y procesos democráticos (por ejemplo, influir en elecciones).10
- Riesgo Limitado (Obligaciones de Transparencia en IA): Los sistemas de IA que interactúan con los usuarios deben divulgar su naturaleza artificial, asegurando transparencia y permitiendo que los usuarios tomen decisiones informadas.11
- Riesgo Mínimo (IA sin Restricciones): Esta categoría permite el despliegue libre de sistemas de IA que se consideran que plantean un riesgo insignificante para los derechos o la seguridad, como videojuegos habilitados para IA o filtros de spam.12
Cada nivel estipula un nivel correspondiente de escrutinio regulatorio, escalando con el impacto potencial del sistema de IA en cuestión.

Creado usando Dall-E.
Excepciones para la Aplicación de la Ley en Sistemas Biométricos
En general, no se permite que las agencias de aplicación de la ley utilicen sistemas de identificación biométrica en tiempo real (RBI). Sin embargo, existen excepciones en circunstancias detalladas y precisas. La implementación de RBI “en tiempo real” está condicionalmente permitida cuando se cumplen condiciones estrictas, como la limitación en duración y ubicación, junto con la autorización previa obligatoria de cuerpos judiciales o administrativos. Las instancias que pueden justificar tal excepción incluyen la búsqueda enfocada de un individuo desaparecido o la prevención de una amenaza terrorista inminente. La aplicación retrospectiva de sistemas RBI (“RBI post-remoto”) se clasifica como de alto riesgo y requiere una orden judicial, que debe estar relacionada con un acto criminal específico.
El Área de Alto Riesgo: Navegando los Mares Regulatorios13
Los sistemas de IA de alto riesgo enfrentan un desafío de condiciones previas al mercado dirigidas a mitigar riesgos y asegurar el cumplimiento. Esto requiere una evaluación de riesgo exhaustiva y sistemas robustos de mitigación, que incluyen:
- Conjuntos de Datos de Alta Calidad: Para limitar riesgos y resultados discriminatorios, los conjuntos de datos de alta calidad son imperativos, asegurando que las decisiones de la IA sean lo más imparciales y precisas posible.
- Registro de Trazabilidad: Se mandan registros detallados de actividades para rastrear el proceso de toma de decisiones de la IA, una salvaguardia contra el funcionamiento opaco de los algoritmos.
- Documentación Exhaustiva: Las entidades deben proporcionar una documentación exhaustiva que detalle la funcionalidad del sistema de IA y las medidas de cumplimiento para la evaluación regulatoria.
- Transparencia en la Implementación: Se debe disponer de información clara y completa para los implementadores y usuarios finales, explicando los parámetros operativos y el propósito del sistema de IA.
- Supervisión Humana: Para asegurar que la IA no opere en un vacío, se manda la supervisión humana adecuada, integrando un marco de humano en el bucle para interceptar posibles riesgos.
Ejemplos de usos de IA de alto riesgo incluyen “infraestructura crítica, educación y formación profesional, empleo, servicios privados y públicos esenciales (por ejemplo, atención médica, banca), ciertos sistemas en la aplicación de la ley, gestión de migraciones y fronteras, justicia y procesos democráticos (por ejemplo, influir en elecciones).”
IA de Riesgo Bajo y Mínimo: Fomentando la Innovación Mientras Se Asegura la Transparencia14
Para los sistemas de IA clasificados bajo riesgo limitado, el Acta estipula obligaciones específicas de transparencia sin imponer requisitos de cumplimiento onerosos. Esto asegura la conciencia del usuario de interactuar con una IA, fomentando un entorno donde los usuarios retienen la agencia en las interacciones con la IA.15
Por otro lado, la IA de riesgo mínimo o nulo disfruta de una postura laissez-faire, facilitando la innovación y el compromiso del usuario sin la carga del cumplimiento regulatorio pesado, siempre que se mantenga la supervisión humana básica y el monitoreo.
IA de Propósito General
Los sistemas de IA de propósito general pueden operar como entidades de alto riesgo independientes o como partes integrales de otros sistemas de alto riesgo. Dadas sus características únicas, es esencial que estos proveedores de sistemas colaboren eficazmente a lo largo de la cadena de valor de la IA. Independientemente de si sus sistemas se utilizan de manera independiente como IA de alto riesgo o como elementos dentro de otros marcos de alto riesgo, estos proveedores deben trabajar en concierto con aquellos que implementan los sistemas de IA de alto riesgo. Esta cooperación es vital para cumplir con los estándares de cumplimiento establecidos por esta Regulación. Además, deben también interactuar con las autoridades reguladoras relevantes para asegurar el cumplimiento de las obligaciones mandadas por esta Regulación, excepto en los casos que la Regulación especifique lo contrario.
¿Cuáles son las sanciones?16
- Por violaciones que involucren el uso de IA prohibida: Las multas pueden alcanzar hasta €35 millones o el 7% del ingreso anual global, lo que sea mayor.
- Para la mayoría de otras infracciones: Las penalizaciones pueden subir hasta €15 millones o el 3% del ingreso anual global, lo que sea mayor.
- Por proporcionar información falsa: Las multas pueden ser de hasta €7.5 millones o el 1.5% del ingreso anual global, nuevamente, lo que sea mayor.
- Para las pequeñas empresas, las penalizaciones corresponderán a la cifra menor en cada rango, mientras que las grandes empresas enfrentarán la cifra mayor.
Además de estas multas, el Reglamento General de Protección de Datos (GDPR) de la UE exige notificaciones para la toma de decisiones automatizada. El Parlamento Europeo ha indicado que bajo el GDPR, las personas deben ser informadas cuando sus datos se utilizan en el entrenamiento de IA. Con el Acta de IA introduciendo sus propias obligaciones de notificación y transparencia, el incumplimiento podría llevar a penalizaciones acumuladas. Bajo el GDPR, el incumplimiento de las obligaciones de transparencia puede atraer multas de hasta €20 millones, o el 4% del ingreso anual global de la empresa para el último año fiscal, dependiendo de lo que sea mayor.

Creado usando Dall-E.
Prohibiciones y Protecciones: La Brújula Ética del AIA17
El AIA clasifica ciertos despliegues de IA, como la identificación biométrica en tiempo real, dentro del ámbito de riesgo inaceptable, prohibiéndolos efectivamente debido a sus profundas implicaciones para las libertades civiles. Esto incluye sistemas que categorizan a individuos por atributos sensibles usando biometría y la recolección indiscriminada de imágenes faciales de fuentes en línea o CCTV para bases de datos de reconocimiento facial. La aplicación de tecnología de detección de emociones en entornos profesionales y educativos, sistemas de puntuación social, policía predictiva que depende únicamente del perfilado personal o evaluación de rasgos, así como IA diseñada para influir en las acciones humanas o explotar vulnerabilidades, están estrictamente prohibidos para salvaguardar los derechos de los ciudadanos. El Acto también prohíbe la IA manipuladora que podría causar daño físico o psicológico, reflejando la priorización de la Unión de consideraciones éticas en el desarrollo de la IA.
Los proponentes de los derechos civiles han abogado por una prohibición total de la identificación biométrica dirigida por las autoridades policiales y de inmigración, citando riesgos de intrusiones injustificadas en la libertad personal. Además, el AIA aborda el potencial engañoso de la tecnología deepfake, exigiendo la divulgación cuando el contenido ha sido generado o manipulado sintéticamente, consolidando aún más el valor de la transparencia dentro del entorno digital.
Conclusión: Equilibrio entre Innovación y Regulación
El Acta de Inteligencia Artificial se presenta como un monolito legislativo, preparado para moldear el futuro de la IA en la Unión Europea y más allá.18 Al implementar un marco integral basado en riesgos, se esfuerza por proteger los derechos individuales mientras proporciona un paisaje estructurado para el desarrollo de la IA. Las estrictas regulaciones del Acto para la IA de alto riesgo, junto con enfoques más suaves para categorías de menor riesgo, buscan equilibrar la balanza entre la protección de derechos fundamentales y el fomento de la innovación tecnológica.
A medida que la IA continúa evolucionando, las limitaciones y fortalezas del AIA serán puestas a prueba. El éxito del acto dependerá de su capacidad para adaptarse a los rápidos avances en IA mientras mantiene su misión central de proteger a los ciudadanos y defender los valores de la Unión. Esta legislación no solo se erige como un marco regulatorio para el presente, sino también como un plan profético para la custodia ética de la IA a nivel global.

Creado usando Dall-E.
- Artificial Intelligence Act: MEPs adopt landmark law, European Parliament (Mar. 13, 2024), https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law. ↩︎
- The AI Act Explorer, EU Artificial Intelligence Act https://artificialintelligenceact.eu/ai-act-explorer/. ↩︎
- Art. 2 Scope, EU AI Act https://www.euaiact.com/article/2. ↩︎
- Article 5, Artificial Intelligence Act https://artificialintelligenceact.com/title-ii/article-5/. ↩︎
- Id. ↩︎
- Id. ↩︎
- Id. ↩︎
- Id. ↩︎
- Article 6, Artificial Intelligence Act https://artificialintelligenceact.com/title-iii/chapter-1/article-6/. ↩︎
- Artificial Intelligence Act: MEPs adopt landmark law, European Parliament (Mar. 13, 2024), https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law. ↩︎
- Regulatory framework proposal on artificial intelligence, Configurar el futuro digital de Europa (Mar. 24, 2023), https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai. ↩︎
- EU AI Act: first regulation on artificial intelligence, European Parliament (June 8, 2023), https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence. ↩︎
- High-level summary of the AI Act, EU Artificial Intelligence Act https://artificialintelligenceact.eu/high-level-summary/. ↩︎
- Ai Act (no date) Shaping Europe’s digital future. Available at: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (Accessed: 25 April 2024). ↩︎
- Id. ↩︎
- Art. 71 Penalties, EU AI Act https://www.euaiact.com/article/71. ↩︎
- Artificial Intelligence Act: MEPs adopt landmark law, European Parliament (Mar. 13, 2024), https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law ↩︎
- The European Union and the United States strengthen their cooperation in the area of Future Network Systems, Shaping Europes digital future (Apr. 16, 2024), https://digital-strategy.ec.europa.eu/en/news/european-union-and-united-states-strengthen-their-cooperation-area-future-network-systems. ↩︎


Leave a comment