18 C
Tegucigalpa
viernes, noviembre 7, 2025
spot_img
spot_img
spot_img

Bruselas estudia la posibilidad de retrasar algunas partes de su ley de IA

La Comisión Europea está considerando la posibilidad de posponer algunas partes de la ley de inteligencia artificial que los países de la Unión Europea aprobaron en 2023 y que empezó a desplegarse a principios de este año, según confirmó este viernes a EFE.

El Ejecutivo comunitario presentará el próximo 19 de noviembre una revisión de algunas de las leyes del ámbito digital que podría incluir una prórroga a las tecnológicas para tener que cumplir con algunos de los requisitos de la ley de inteligencia artificial.

«Por lo que respecta al potencial retraso de la implementación de partes específicas de la ley de IA, la Comisión aún lo está reflexionando», dijo a EFE el portavoz de política digital de la Comisión Europea, Thomas Regnier.

En este sentido, el portavoz señaló que en el Ejecutivo comunitario «se están considerando varias opciones pero que por ahora no se ha adoptado ninguna decisión» definitiva, a la espera de que el colegio de comisarios apruebe la revisión de las normas en dos semanas.

Reducir la carga burocrática

Bruselas está revisando en los últimos meses varias de las normas de la Unión Europea, no sólo en el ámbito digital, sino también en el medioambiental o el agrícola, con el argumento de que quiere reducir la carga burocrática a las empresas.

La vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, Henna Virkkunen, dijo el pasado mes de junio que los objetivos de las leyes digitales del bloque comunitario «son muy válidos, quizás ahora más que nunca».

Pero añadió que «si hay algo, por ejemplo, con los estándares y directrices para las que (las empresas) no están preparadas, tenemos que mirarlas o posponer algunas partes de las reglas».

Tras su entrada en vigor hace dos años, la ley de inteligencia artificial se irá desplegando de forma progresiva: desde febrero están prohibidas las cámaras de identificación biométrica y desde agosto, los grandes modelos de IA generativa como ChatGPT (de OpenAI) o Gemini (de Google) deben respetar los derechos de autor y combatir la información discriminatoria.

Modelos de IA de alto riesgo

Bruselas debería haber publicado en agosto los estándares técnicos para determinar si un modelo de inteligencia artificial es de alto riesgo y si, por tanto, debería prohibirse en la UE por su posibilidad de causar daño a las personas o poner en peligro los derechos fundamentales.

Estándares que deberán aplicarse para toda una serie de sectores, como el de las infraestructuras críticas, el sanitario, o el financiero, ante el desarrollo de modelos de IA que ayuden a las entidades bancarias a calcular las probabilidades de morosidad en la concesión de préstamos.

Sin embargo, la Oficina de Inteligencia Artificial de la Comisión incumplió ese plazo y Bruselas no ha fijado por ahora una nueva fecha.

Ante esta situación, personalidades como el expresidente del Banco Central Europeo y ex primer ministro italiano Mario Draghi, a quien la presidenta de la Comisión, Ursula von der Leyen, encargó un informe sobre la competitividad económica de la UE, han abogado por aplicar la ley de inteligencia artificial «de forma proporcionada» para fomentar la innovación.

Y en concreto, considera que Bruselas no debería prohibir ningún modelo de alto riesgo, hasta que se haya puesto en el mercado y se haya podido comprobar si, efectivamente, es peligroso para las personas.

Desde la vuelta de Donald Trump a la presidencia de Estados Unidos, Washington está presionando a Bruselas para retirar las nuevas leyes digitales que tratan de regular el poder de las grandes tecnológicas.

La Comisión «siempre respaldará la ley de inteligencia artificial y sus objetivos», dijo Regnier.

Con información de EFE

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img