Ley de IA: normas diferentes para niveles de riesgo diferentes Sponsored Tendencias y Estudios 12 julio, 2023 La nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la inteligencia artificial. Aunque muchos sistemas de IA plantean un riesgo mínimo, es necesario evaluarlos. Riesgo inaceptable Los sistemas de IA de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos. Incluyen: Manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños. Scoring social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales. Sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial. Pueden permitirse algunas excepciones: Por ejemplo, los sistemas de identificación biométrica a distancia «a posteriori», en los que la identificación se produce tras un retraso significativo, se permitirán para perseguir delitos graves, pero sólo previa aprobación judicial. Alto riesgo Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías: 1) Sistemas de IA que se utilicen en productos incluidos en la legislación de la UE sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores. 2) Los sistemas de IA incluidos en ocho ámbitos específicos que deberán registrarse en una base de datos de la UE: Identificación biométrica y categorización de personas físicas Gestión y explotación de infraestructuras críticas Educación y formación profesional Empleo, gestión de trabajadores y acceso al autoempleo Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas Cumplimiento de la ley Gestión de la migración, el asilo y el control de fronteras Asistencia en la interpretación jurídica y la aplicación de la ley. Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y también a lo largo de su ciclo de vida. IA generativa La IA generativa, como ChatGPT, tendría que cumplir requisitos de transparencia: revelar que el contenido ha sido generado por IA diseñar el modelo para evitar que genere contenidos ilegales Publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento Riesgo limitado Los sistemas de IA de riesgo limitado deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas. Los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo, por ejemplo los deepfakes. La entrada Ley de IA: normas diferentes para niveles de riesgo diferentes apareció primero en Synergo!. Compartir en Facebook Compartir Compartir en TwitterTweet Compartir en Pinterest Compartir Compartir en Linkedin Compartir Compartir en Digg Compartir