Actualizado

a partir de hoy, Europa Tiene una ley válida para eso. regula el uso de la inteligencia artificial, Un conjunto de normas que la Comisión Europea considera “las más completas y detalladas” del mundo. Aunque ya existen leyes para regular el despliegue de herramientas de IA en otros países, la nueva legislación europea, debido a su alcance y limitaciones, es la más ambiciosa y podría tener los mayores impactos en el mercado.

Este conjunto de reglas se ha negociado durante los últimos años. Fue ratificado el pasado mes de marzo.. Establece varios estándares para los diferentes tipos de herramientas de IA que existen en función de los riesgos que puedan suponer para la sociedad y por los que podrían ser multados. Hasta el 7% de los ingresos mundiales Para empresas que no cumplan.

Se implementará de forma paulatina y, aunque entrará en vigor el 1 de agosto, Tardarán más de dos años Hasta que se hagan efectivas la mayoría de sus obligaciones.

Las empresas y organizaciones lo tienen ahora Hasta febrero de 2025 para detener Prácticas consideradas “inaceptables” Como el uso de inteligencia artificial en sistemas de vigilancia y vigilancia social por parte de los gobiernos (no se permite el reconocimiento facial en tiempo real) o el uso de asistentes de voz en juegos que pueden incitar comportamientos peligrosos. «Todos los sistemas de inteligencia artificial que se consideren una clara amenaza para la seguridad, los medios de vida y los derechos de las personas están prohibidos», explica el comité.

La ley también incluye varias restricciones a los instrumentos considerados de “alto riesgo”. Esto incluye sistemas que controlan infraestructuras críticas o sistemas que crean perfiles de riesgo de los ciudadanos, entre otros.

Estas herramientas deben aceptar una serie de normativas para poder hacer esto Obtener un certificado que les permita trabajar en la Unión Europea El plazo necesario para ello es de un año. Europa todavía está negociando este código de conducta con las empresas involucradas, cuyos fundamentos se incluyen en lo que Europa llama el “Código de Conducta”. Carta de Amnistía Internacional. Estos sistemas, por ejemplo, tendrán que identificar claramente qué contenidos se generan mediante IA y no podrán simular que se trata de una persona real.

En abril de 2025 tendrá el código que regula el uso de inteligencia artificial para fines generales, por ejemplo robots de chat A partir del verano de 2025, la Unión tendrá… Registrar herramientas activas Las empresas serán las responsables del mantenimiento y seguridad de estas inteligencias artificiales. Será para algunos de los sistemas de IA más avanzados y complejos. el largo plazo Para adaptación, máximo 36 meses.

La legislación de la UE también aborda ciertas obligaciones relacionadas con los sistemas considerados. riesgo bajo, Como la inteligencia artificial en los videojuegos o las técnicas de aprendizaje automático utilizadas en los filtros de spam. En la mayoría de los casos, estas herramientas no tienen regulaciones específicas pero sus creadores pueden beneficiarse de un código de conducta.

Las regulaciones han podido detener el despliegue de algunas de las últimas generaciones de herramientas de inteligencia artificial o los modelos de lenguaje que dependen de ellas. manzana, por ejemplo, La suite Apple Intelligence no se lanzará en la UE este año y Meta También fue bloqueado Publicado el último modelo de lenguaje de código abierto, Llama 3.1en la región debido a la “incertidumbre derivada del nuevo marco regulatorio”.