La inteligencia artificial (IA) es una de las tecnologías más innovadoras y disruptivas de la actualidad, con un gran potencial para mejorar la vida de las personas, pero también con riesgos para la seguridad, la privacidad, la ética y los derechos humanos. Por eso, la Unión Europea (UE) ha propuesto la primera normativa global sobre IA, la Ley de Inteligencia Artificial, que busca regular el desarrollo, la comercialización y el uso de la IA en función del nivel de riesgo que suponga para los usuarios y la sociedad.

¿Qué objetivos tiene la Ley de Inteligencia Artificial de la UE?

El objetivo principal de la Ley de Inteligencia Artificial de la UE es promover una IA fiable y centrada en el ser humano, que respete los valores y principios de la Unión, y que garantice un alto nivel de protección de la salud, la seguridad, los derechos fundamentales, la democracia, el Estado de derecho y el medio ambiente. Al mismo tiempo, la Ley busca apoyar la innovación y la competitividad de la industria europea de la IA, y mejorar el funcionamiento del mercado interior, evitando la fragmentación normativa entre los Estados miembros.

 

¿Qué tipos de IA regula la Ley de Inteligencia Artificial de la UE?

La Ley de Inteligencia Artificial de la UE establece un marco jurídico uniforme y tecnológicamente neutro, que se aplica a todos los sectores (excepto el militar) y a todos los tipos de IA, entendida como “software que se basa en técnicas matemáticas y estadísticas para generar resultados, como la clasificación, la predicción, la recomendación o la síntesis, con un grado de autonomía que varía según el contexto y el propósito”.

La Ley clasifica los sistemas de IA en cuatro categorías, según el nivel de riesgo que implican:

 

Riesgo inaceptable:

Son los sistemas de IA que se consideran una amenaza para las personas y que se prohíben. Incluyen la manipulación cognitiva del comportamiento de personas o grupos vulnerables, la puntuación social, los sistemas de identificación biométrica en tiempo real y a distancia (como el reconocimiento facial), y el uso de la IA para fines contrarios a los valores de la UE, como el terrorismo o la tortura.

Alto riesgo:

Son los sistemas de IA que pueden afectar negativamente a la seguridad o a los derechos fundamentales de las personas, y que se someten a requisitos estrictos de calidad, transparencia, supervisión humana y responsabilidad. Incluyen la IA utilizada en ámbitos como la salud, el transporte, la educación, el empleo, la justicia, la seguridad pública o los servicios esenciales.

Riesgo limitado:

Son los sistemas de IA que implican una cierta intervención o interacción con las personas, y que deben cumplir con obligaciones de transparencia e información. Incluyen la IA utilizada para generar o manipular contenidos, como los deepfakes, los chatbots o los asistentes virtuales.

Riesgo mínimo:

Son los sistemas de IA que tienen un impacto insignificante o nulo en las personas o la sociedad, y que no están sujetos a ninguna obligación específica. Incluyen la IA utilizada para fines lúdicos, artísticos o de entretenimiento.

 

¿Qué beneficios y desafíos plantea la Ley de Inteligencia Artificial de la UE?

La Ley de Inteligencia Artificial de la UE pretende ser un modelo de referencia para el resto del mundo, que armonice los distintos enfoques regulatorios existentes, y que contribuya a crear un espacio global de confianza y cooperación en torno a la IA. La Ley también busca impulsar el liderazgo y la competitividad de la UE en el ámbito de la IA, fomentando la inversión, la investigación, la innovación y el desarrollo de talento en este sector estratégico.

Sin embargo, la Ley también plantea algunos desafíos y críticas, tanto desde el punto de vista técnico como político. Algunos de los aspectos más controvertidos son:

La definición y clasificación de la IA, que puede resultar ambigua, imprecisa o desactualizada, y que puede dificultar la aplicación y el cumplimiento de la Ley.
El equilibrio entre la protección y la innovación, que puede generar tensiones entre los intereses de los usuarios, los desarrolladores, los proveedores y los reguladores de la IA, y que puede afectar a la competitividad de la UE frente a otros actores globales, como China o Estados Unidos, que tienen enfoques más permisivos o laxos sobre la IA.

La supervisión y el control de la IA, que requiere una coordinación y una cooperación efectivas entre las autoridades nacionales y europeas, así como entre los sectores público y privado, y que implica una dotación adecuada de recursos humanos, técnicos y financieros para garantizar el cumplimiento y la aplicación de la Ley.

 

¿Qué pasos quedan para la aprobación de la Ley de Inteligencia Artificial de la UE?

La Ley de Inteligencia Artificial de la UE es una propuesta legislativa de la Comisión Europea, que se presentó en abril de 2021, y que debe ser debatida y aprobada por el Parlamento Europeo y el Consejo de la UE, en el marco del procedimiento legislativo ordinario. Se espera que el proceso de negociación y adopción de la Ley dure al menos dos años, y que entre en vigor a partir de 2024. Una vez aprobada, la Ley será de aplicación directa en todos los Estados miembros, sin necesidad de transposición nacional.

 

Website | + posts

Interviews with talents and professionals from around the world. The best profiles, experiences, tips and competitive opportunities. The secrets of beauty and personal image. Leading women in different sectors, industries and fields. Successful women.

By Perumira

Interviews with talents and professionals from around the world. The best profiles, experiences, tips and competitive opportunities. The secrets of beauty and personal image. Leading women in different sectors, industries and fields. Successful women.