Inicio » Política & Regulación » La UE prohíbe sistemas de IA con riesgos inaceptables: nuevo capítulo en regulación

La UE prohíbe sistemas de IA con riesgos inaceptables: nuevo capítulo en regulación


La Unión Europea establece una prohibición sobre ciertos sistemas de inteligencia artificial, marcando un hito en la regulación de tecnologías emergentes.

Los tiempos que vienen serán muy intensos, cuesta no relacionar las medidas del nuevo gobierno de Donald Trump con las decisiones de los estados o de las asociaciones políticas y económicas.

En ese sentido, un movimiento significativo hacia la regulación de la inteligencia artificial (IA), la Unión Europea ha decidido prohibir los sistemas de IA que presenten riesgos inaceptables.

Esta decisión, que refleja una creciente preocupación por el impacto de la IA en la sociedad, busca establecer un marco normativo que garantice la seguridad y protección de los ciudadanos europeos.

El Parlamento Europeo llegó a las negociaciones con una clara intención de prohibir estas cámaras de inteligencia artificial, aunque el ponente de la ley, el socialdemócrata Brando Benifei, abrió la puerta el pasado miércoles a permitir algunas excepciones si van acompañadas de fuertes salvaguardas para los derechos humanos.

El otro gran asunto que ha centrado las negociaciones es la regulación de los modelos fundacionales de inteligencia artificial, los sistemas en los que se basan programas con ChatGPT, de la empresa OpeanAI, o Bard, de Google.

Contexto de la prohibición

El 2 de febrero es la primera fecha límite de cumplimiento de la Ley de Inteligencia Artificial de la UE , el marco regulatorio integral de la IA que el Parlamento Europeo finalmente aprobó el pasado mes de marzo después de años de desarrollo. La ley entró oficialmente en vigor el 1 de agosto ; lo que sigue ahora es el primero de los plazos de cumplimiento.

La medida se enmarca dentro del esfuerzo más amplio de la UE por regular el uso de tecnologías emergentes. La presidenta de la Comisión Europea, Ursula von der Leyen, ha destacado que “es fundamental que la IA sea utilizada de manera responsable y ética”.

Esta prohibición se centra en aquellos sistemas que pueden poner en peligro la vida o los derechos fundamentales de las personas, tales como los sistemas de reconocimiento facial en espacios públicos y las aplicaciones que puedan ser utilizadas para vigilancia masiva.

Los detalles se establecen en el Artículo 5 , pero en términos generales, la Ley está diseñada para cubrir una gran variedad de casos de uso en los que la IA podría aparecer e interactuar con personas, desde aplicaciones de consumo hasta entornos físicos.

La legislación también incluye regulaciones estrictas para otros tipos de IA, como aquellas utilizadas en el ámbito de la justicia penal y la contratación laboral.

La UE ha establecido que cualquier sistema que pueda discriminar o perjudicar a grupos vulnerables será objeto de revisión y posible prohibición.

Implicaciones para las empresas tecnológicas

La prohibición plantea desafíos significativos para las empresas tecnológicas que operan dentro y fuera de Europa. Según un informe reciente, se estima que el mercado europeo de IA podría alcanzar los 50 mil millones de euros para 2025, lo que pone de relieve el potencial económico de esta tecnología.

Sin embargo, con regulaciones más estrictas, las empresas deberán invertir recursos significativos para cumplir con los nuevos estándares.

“Las empresas deben adaptarse rápidamente a estas nuevas regulaciones si quieren seguir siendo competitivas”, afirmó un portavoz del sector tecnológico. Esto podría implicar cambios en sus modelos operativos y un enfoque renovado hacia la transparencia y la ética en el desarrollo de sus productos.

Reacciones y futuro del desarrollo tecnológico

La decisión ha generado reacciones mixtas entre los expertos y las empresas del sector. Algunos celebran la iniciativa como un paso necesario hacia una mayor responsabilidad en el uso de tecnologías avanzadas.

“La regulación es crucial para asegurar que la innovación no ocurra a expensas de los derechos humanos”, comentó un analista del sector.

Sin embargo, otros advierten que una regulación excesiva podría sofocar la innovación y hacer que Europa pierda su competitividad frente a otras regiones como Estados Unidos y Asia, donde las regulaciones son menos estrictas.

“Es esencial encontrar un equilibrio entre seguridad y progreso”, añadió el analista.

A medida que se implementan estas regulaciones, será fundamental observar cómo las empresas tecnológicas se adaptan a este nuevo entorno normativo. La capacidad para innovar dentro del marco legal establecido podría determinar el futuro del desarrollo tecnológico en Europa.

Algunas de las actividades inaceptables incluyen:

  • Inteligencia artificial utilizada para la puntuación social (por ejemplo, creación de perfiles de riesgo basados ​​en el comportamiento de una persona).
  • IA que manipula las decisiones de una persona de forma subliminal o engañosa.
  • IA que explota vulnerabilidades como la edad, la discapacidad o el estatus socioeconómico.
  • IA que intenta predecir que las personas cometerán delitos basándose en su apariencia.
  • IA que utiliza biometría para inferir las características de una persona, como su orientación sexual.
  • IA que recopila datos biométricos “en tiempo real” en lugares públicos con fines de aplicación de la ley.
  • IA que intenta inferir las emociones de las personas en el trabajo o la escuela.
  • IA que crea (o amplía) bases de datos de reconocimiento facial extrayendo imágenes de Internet o de cámaras de seguridad.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com