La Comisión Europea ha presentado nuevas medidas destinadas a convertir a la UE en el centro mundial de una inteligencia artificial (IA).
Según explica el organismo, la combinación del primer marco jurídico sobre la IA de la historia y de un nuevo plan coordinado con los Estados miembro garantizará la seguridad y los derechos fundamentales de las personas y las empresas, al tiempo que reforzará la adopción, la inversión y la innovación en materia de IA en toda la UE.
El nuevo reglamento sobre la inteligencia artificial garantizará que los ciudadanos europeos puedan confiar en lo que la IA puede ofrecer. Según explica la nota remitida por el organismo, se busca que existan "unas normas proporcionadas y flexibles, que abordarán los riesgos específicos que plantean los sistemas de IA y fijarán los estándares más altos del mundo. El plan coordinado expone los cambios de política y las inversiones necesarios en los Estados miembros para reforzar el liderazgo de Europa en el fomento de una IA centrada en el ser humano, sostenible, segura, inclusiva y fiable".
Las nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros sobre la base de una definición de IA a prueba de futuro. Siguen un planteamiento basado en el riesgo, como se explica a continuación.
Riesgo inadmisible. Se prohibirán los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Esto abarca los sistemas o las aplicaciones de inteligencia artificial que manipulan el comportamiento humano para eludir la voluntad de los usuarios (por ejemplo, juguetes que utilicen asistencia vocal para incitar a comportamientos peligrosos a los menores) y sistemas que permitan la "puntuación social" por parte de los gobiernos.
Alto riesgo. Los sistemas de IA considerados de alto riesgo abarcan las tecnologías de IA empleadas en infraestructuras críticas; formación educativa o profesional; componentes de seguridad de los productos; empleo, gestión de trabajadores y acceso al trabajo por cuenta propia; servicios públicos y privados esenciales; aplicación de las leyes; gestión de la migración, el asilo y el control de las fronteras; administración de justicia y procesos democráticos.
Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan comercializarse:
- sistemas adecuados de evaluación y mitigación de riesgos;
- alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios;
- registro de la actividad para garantizar la trazabilidad de los resultados;
- documentación detallada que aporte toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su conformidad;
- información clara y adecuada al usuario;
- medidas apropiadas de supervisión humana para minimizar el riesgo;
- alto nivel de solidez, seguridad y precisión.
En especial, se considerarán de alto riesgo y estarán sujetos a requisitos estrictos todos los sistemas de identificación biométrica remota. Su uso en espacios de acceso público con fines policiales estará prohibido en principio. Se han definido y regulado excepciones estrictas. Su uso estará sujeto a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas.
Riesgo limitado. Sistemas de IA con obligaciones específicas de transparencia: al utilizar sistemas de IA como robots conversacionales, los usuarios deberán ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no.
Riesgo mínimo o nulo. La propuesta permite el uso gratuito de aplicaciones tales como videojuegos basados en la IA o filtros de correo basura. La inmensa mayoría de los sistemas de IA entra en esta categoría. El proyecto de reglamento no interviene aquí, ya que estos sistemas de IA solo representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos.
Para terminar, en términos de gobernanza, la Comisión propone que las autoridades nacionales de vigilancia del mercado controlen las nuevas normas, mientras que la creación de un Comité Europeo de Inteligencia Artificial facilitará su aplicación e impulsará la creación de normas en materia de IA. Además, se proponen códigos de conducta voluntarios para la IA que no entrañe un alto riesgo, así como espacios controlados de pruebas para facilitar la innovación responsable.
Publicado en el Periódico Digital Expansión
21 de Abril de 2021