8.4 C
Bruselas
Domingo, octubre 13, 2024
Selección del editorEntra en vigor la Ley Europea de Inteligencia Artificial

Entra en vigor la Ley Europea de Inteligencia Artificial

EXENCIÓN DE RESPONSABILIDAD: Las informaciones y opiniones reproducidas en los artículos son propias de quienes las expresan y es de su exclusiva responsabilidad. Publicación en The European Times no significa automáticamente la aprobación de la opinión, sino el derecho a expresarla.

DESCARGO DE RESPONSABILIDAD TRADUCCIONES: Todos los artículos de este sitio se publican en inglés. Las versiones traducidas se realizan a través de un proceso automatizado conocido como traducción neuronal. En caso de duda, consulte siempre el artículo original. Gracias por entender.

Redacción
Redacciónhttps://europeantimes.news
The European Times Noticias tiene como objetivo cubrir las noticias que importan para aumentar la conciencia de los ciudadanos de toda Europa geográfica.

Hoy el Ley Europea de Inteligencia Artificial (Ley AI)Entra en vigor el primer reglamento integral del mundo sobre inteligencia artificial. La Ley de IA está diseñada para garantizar que la IA desarrollada y utilizada en la UE sea confiable, con salvaguardias para proteger los derechos fundamentales de las personas. El reglamento tiene como objetivo establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y creando un ambiente de apoyo para la innovación y la inversión.

La Ley de IA introduce una definición prospectiva de IA, basada en un enfoque basado en la seguridad del producto y el riesgo en la UE:

  • Riesgo mínimo: La mayoría de los sistemas de IA, como los sistemas de recomendación habilitados para IA y los filtros de spam, entran en esta categoría. Estos sistemas no enfrentan obligaciones según la Ley de IA debido a su riesgo mínimo para los ciudadanos. derechos y seguridad. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
  • Riesgo específico de transparencia: Sistemas de inteligencia artificial como chatbots debe revelar claramente a los usuarios que están interactuando con una máquina. Ciertos contenidos generados por IA, incluidos los deep fakes, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilizan sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto e imágenes esté marcado en un formato legible por máquina y detectable como generado o manipulado artificialmente.
  • Alto riesgo: Los sistemas de IA identificados como de alto riesgo deberán cumplir con requisitos estrictos, incluidos sistemas de mitigación de riesgos, alta calidad de conjuntos de datos, registro de actividad, documentación detallada, información clara del usuario, supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Los entornos de pruebas regulatorios facilitarán la innovación responsable y el desarrollo de sistemas de IA compatibles. Estos sistemas de IA de alto riesgo incluyen, por ejemplo, sistemas de IA utilizados para la contratación, para evaluar si alguien tiene derecho a obtener un préstamo o para ejecutar robots autónomos.
  • Riesgo inaceptable: Los sistemas de IA considerados una clara amenaza a los derechos fundamentales de las personas serán prohibido. Esto incluye sistemas o aplicaciones de inteligencia artificial que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores, sistemas que permiten la "puntuación social" por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva. Además, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas).

Para complementar este sistema, la Ley de IA también introduce normas para los llamados modelos de IA de propósito general, que son modelos de IA de alta capacidad que están diseñados para realizar una amplia variedad de tareas, como generar texto similar a un humano. Los modelos de IA de uso general se utilizan cada vez más como componentes de aplicaciones de IA. La Ley de IA garantizará la transparencia a lo largo de la cadena de valor y abordará los posibles riesgos sistémicos de los modelos más capaces.

Aplicación y cumplimiento de las normas de IA

Los Estados miembros tienen hasta el 2 de agosto de 2025 para designar autoridades nacionales competentes, que supervisarán la aplicación de las normas para los sistemas de IA y llevarán a cabo actividades de vigilancia del mercado. de la Comisión Oficina de IA será el organismo clave de implementación de la Ley de IA a nivel de la UE, así como el encargado de hacer cumplir las normas para fines generales. Modelos AI.

Tres órganos consultivos apoyarán la aplicación de las normas. El Junta Europea de Inteligencia Artificial garantizará una aplicación uniforme de la Ley de IA en todo EU Estados miembros y actuará como principal organismo de cooperación entre la Comisión y los Estados miembros. Un panel científico de expertos independientes ofrecerá asesoramiento técnico y aportaciones sobre la aplicación de la ley. En particular, este panel puede emitir alertas a la Oficina de IA sobre los riesgos asociados a los modelos de IA de propósito general. La Oficina de AI también puede recibir orientación de un foro consultivo, compuesto por un conjunto diverso de partes interesadas.

Las empresas que no cumplan las normas serán multadas. Las multas podrían ascender hasta el 7% de la facturación anual mundial por violaciones de aplicaciones de IA prohibidas, hasta el 3% por violaciones de otras obligaciones y hasta el 1.5% por proporcionar información incorrecta.

Siguientes Pasos

La mayoría de las normas de la Ley de IA empezarán a aplicarse el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se consideren un riesgo inaceptable ya se aplicarán después de seis meses, mientras que las normas para los llamados modelos de IA de uso general se aplicarán después 12 meses.

Para salvar el período transitorio antes de la plena aplicación, la Comisión ha puesto en marcha el Pacto de IA. Esta iniciativa invita a los desarrolladores de IA a adoptar voluntariamente obligaciones clave de la Ley de IA antes de los plazos legales. 

La Comisión también está desarrollando directrices para definir y detallar cómo se debe implementar la Ley de IA y facilitar instrumentos de corregulación como normas y códigos de práctica. La Comisión abrió una convocatoria de manifestación de interés participar en la elaboración del primer Código de prácticas de IA de uso general, así como un consulta de múltiples partes interesadas dando la oportunidad a todas las partes interesadas de expresar su opinión sobre el primer Código de prácticas de la Ley de IA.

Antecedentes

En 9 diciembre 2023, el La Comisión acogió con satisfacción el acuerdo político sobre la Ley de IA. El 24 de enero de 2024. La Comisión ha lanzado un paquete de medidas. Apoyar a las empresas emergentes y a las pymes europeas en el desarrollo de una IA fiable. El 29 de mayo de 2024, la Comisión dio a conocer la Oficina de IAEn 9 July 2024 el El Reglamento modificado de la Empresa Común EuroHPC entró en vigor, permitiendo así la instalación de fábricas de IA. Esto permite utilizar supercomputadoras de IA dedicadas para el entrenamiento de modelos de IA de uso general (GPAI).

Investigación continua independiente y basada en evidencia producida por el Centro Común de Investigación (CCI) ha sido fundamental para dar forma a las políticas de IA de la UE y garantizar su implementación efectiva.

- Publicidad -

Más del autor

- CONTENIDO EXCLUSIVO -punto_img
- Publicidad -
- Publicidad -
- Publicidad -punto_img
- Publicidad -

Debe leer

Últimos artículos

- Publicidad -