UE alcanza primera ley sobre inteligencia artificial del mundo
Carmen Elena Ascanio
13 de diciembre de 2023
UE alcanza primera ley sobre inteligencia artificial del mundo

La Unión Europea alcanzó un hito histórico al consensuar la primera normativa global sobre inteligencia artificial (IA), un proceso legislativo que aún no ha concluido pero que ya dibuja un antes y un después en el manejo de esta tecnología.

El acuerdo, alcanzado antes de las elecciones europeas de 2024, revela la importancia y la urgencia de regular un campo tan expansivo y potencialmente disruptivo como la IA.

 

Largas negociaciones para lograr el pacto 

 

El camino hacia este acuerdo no fue fácil, ya que estuvo marcado por negociaciones extensas y debates intensos, culminando en dos sesiones maratonianas de 22 y 14 horas respectivamente.

Este esfuerzo mancomunado entre el Parlamento Europeo y el Consejo de la Unión Europea (UE), aunque aún provisional, subraya un avance crucial en la legislación sobre IA, aunque su implementación plena no se espera hasta finales de 2026.

 

MRI del cerebro 

 

La Ley de Inteligencia Artificial, conocida como IA Act, se presentó por primera vez en abril de 2021. La presidenta de la Comisión Europea, Ursula von der Leyen, enfatizó su valor y las posibilidades que abre esta nueva ley.

Centrándose en los “riesgos identificables”, la normativa busca equilibrar la seguridad y los derechos humanos con el impulso a la innovación.

La clasificación de la IA según el riesgo que representa es una de sus claves, con categorías que van desde “riesgo mínimo” hasta “riesgo inaceptable”.

Esta normativa también aborda usos específicos y potencialmente peligrosos de la IA, estableciendo prohibiciones en ciertas aplicaciones y requisitos estrictos para otras, como las que implican infraestructuras críticas.

En particular, el Parlamento Europeo detalla aplicaciones prohibidas que representan una amenaza tanto para los derechos de los ciudadanos como para la democracia, incluyendo ciertos sistemas de reconocimiento biométrico y de categorización.

 

Su uso en contextos de vigilancia

 

Uno de los aspectos más controvertidos ha sido el uso de sistemas de identificación biométrica, dadas sus implicaciones en el control gubernamental y los derechos ciudadanos.

Tras intensas negociaciones, se han establecido límites y condiciones estrictas para su uso, especialmente en contextos de vigilancia policial.

La ley también incide en los modelos generativos de IA, como ChatGPT, introduciendo reglas específicas para garantizar la transparencia y la gestión de riesgos.

El Parlamento Europeo ha logrado imponer obligaciones más estrictas para los modelos de “alto impacto”, que incluyen evaluaciones de riesgos, informes de incidentes y garantías de ciberseguridad.

Un aspecto crucial y delicado que aborda la legislación es la relación entre la IA y los derechos de autor. La ley exige que los sistemas y modelos de IA respeten los requisitos de transparencia y cumplan con la normativa de la UE sobre derechos de autor.

 

Iniciativas en Europa y EEUU

 

Antes del establecimiento de la ley de inteligencia artificial por parte de la Unión Europea, tanto Europa como Estados Unidos habían tomado varias iniciativas para abordar los desafíos éticos, legales y técnicos que plantea la IA.

 

En Europa:

Directrices Éticas para la IA Confiable: la Comisión Europea presentó en abril de 2019 unas directrices éticas para el desarrollo y uso de la IA.

Estas directrices se centraban en la confiabilidad, asegurando que la IA sea legal, ética y robusta desde un punto de vista técnico.

 

Iniciativas Nacionales: varios países de la UE, como Francia y Alemania, habían desarrollado sus propias estrategias nacionales de IA, centradas en la ética, la innovación y el apoyo a la investigación y el desarrollo en el campo de la IA.

 

En Estados Unidos:

Guía de la Casa Blanca para la Regulación de la IA: en enero de 2020, la Casa Blanca publicó un conjunto de principios para el desarrollo y la regulación de la IA.

Estos principios se enfocaban en la promoción de la innovación y el crecimiento económico, mientras se protegía la seguridad pública y se fomentaban los valores estadounidenses.

National Artificial Intelligence Initiative Act: aprobada a finales de 2020, esta ley tenía como objetivo coordinar y unificar los esfuerzos de IA en todo el gobierno federal de los Estados Unidos, promoviendo la investigación, la educación y la formación en IA.

Directrices y Estándares Técnicos: organizaciones como el Instituto Nacional de Estándares y Tecnología (NIST) han estado trabajando en el desarrollo de estándares y marcos para la IA, incluyendo aspectos de fiabilidad y seguridad.

Iniciativas del Sector Privado: el sector privado también ha jugado un papel importante en la configuración de las prácticas éticas en IA. Empresas como Google, Microsoft y IBM han desarrollado sus propios principios éticos para la IA y han participado en varias iniciativas para promover el uso responsable de esta.

 

Lea también

Murió a los 116 años de edad la persona más longeva de Japón

 

 

Este acuerdo, pues, marca un precedente significativo en la regulación de la IA a nivel global. Con su enfoque en la seguridad, la transparencia y el respeto a los derechos humanos y la democracia, la UE se posiciona como líder en el establecimiento de un marco ético y legal para el desarrollo y uso de la inteligencia artificial.

Aunque todavía falta para su implementación completa, la normativa de la UE sobre IA sienta las bases para una era de innovación tecnológica guiada por principios éticos y legales sólidos.

 

 

 

Información National Geographic 

Carmen Elena Ascanio

Carmen Elena Ascanio: Periodista egresada de la UCAB. Exitosa experiencia en medios televisivos, radiales, impresos, digitales y periodismo institucional.