La Comisión Europea ha presentado una completa propuesta legislativa que establece límites estrictos al uso de la inteligencia artificial en Europa para los programas y aplicaciones que entrañan mayor riesgo, con el fin de proteger los derechos fundamentales de los ciudadanos europeos. Al mismo tiempo, se quiere dar el máximo de libertad a las empresas para promover la innovación y la confianza en la tecnología, en un delicado equilibrio que, a buen seguro, creará polémica, sobre todo entre los defensores de las grandes compañías tecnológicas estadounidenses con despacho en Bruselas.
La Comisión Europea quiere que la inteligencia artificial sea una “fuerza de progreso”, que necesariamente requiere que goce de la confianza de todos y, a la vez, que se mitiguen los riesgos asociados a su uso para lograr esta confianza, aseguró Margrethe Vestager, su vicepresidenta ejecutiva, al presentar la semana pasada una amplia propuesta legislativa sobre el uso de la inteligencia artificial en la Unión Europea, en primicia mundial, y que quiere que sea aprobada y puesta en marcha lo más pronto posible.
El objetivo de la propuesta legislativa comunitaria es lograr un equilibrio entre la protección de los derechos fundamentales y la innovación tecnológica, con el fin de crear un cuadro propicio en la Unión Europea para el desarrollo de las tecnologías del futuro. Y es que, como resumió Thierry Breton, comisario del Mercado Interior, “la inteligencia artificial ofrece un inmenso potencial pero presenta igualmente un cierto número de riesgos”, en su descripción de la propuesta legislativa junto a la vicepresidenta comunitaria Vestager, como han hecho en anteriores ocasiones para dar a conocer importantes iniciativas legislativas comunitarias en materia de tecnología digital y sus repercusiones sociales y económicas.
El objetivo de la propuesta es lograr el equilibrio entre la protección de los derechos fundamentales y la innovación tecnológica, para crear un cuadro propicio en la UE para el desarrollo de las tecnologías del futuro
La Comisión quiere dejar que el sector privado y público desarrolle la inteligencia artificial en Europa de forma serena, a base de instaurar un clima de confianza, pero con determinados límites. “Nuestra propuesta no se fija en la tecnología de inteligencia artificial en sí misma sino en cómo se usa y para qué”, aseguró Vestager, “y se basa en correr un riesgo proporcional a los beneficios que se quieren conseguir”. La lógica en que se fundamenta la propuesta es simple: “Cuanto mayor es el riesgo que una inteligencia artificial específica puede causar a nuestras vidas, más estrictas serán las reglas”, sentenció.
Pirámide con cuatro niveles de riesgo
En consonancia con esta lógica, la legislación propuesta clasifica el uso de la inteligencia artificial en cuatro diferentes categorías. Como si se tratara de una pirámide, en la base se encontrarán la mayor parte de las aplicaciones, las que no representan ningún riesgo o un riesgo mínimo. Por ejemplo, dijo Vestager, los filtros que reconocen los mensajes que son spam y los bloquean o, en una empresa, los que minimizan los datos que van a la papelera para optimizar los recursos. En este tipo de aplicaciones no habrá ninguna restricción.
Por encima de este nivel básico estarán los usos y aplicaciones de inteligencia artificial con riesgo limitado, como las que nos ayudan a encontrar un libro o buscar la tienda más cercana que queremos. En este caso, indicó la vicepresidenta, se permitirá su uso, pero sometido a obligaciones de transparencia. El objetivo es que los usuarios puedan interactuar con las máquinas sin peligro alguno.
En el tercer nivel superior de la pirámide se encontrarán los usos de inteligencia artificial de “alto riesgo”, que es el principal foco de la normativa. Son usos, dijo Vestager, que interfieren con importantes aspectos de nuestras vidas y de ahí la consideración de alto riesgo. Ejemplos típicos son las aplicaciones que filtran a un candidato en base a sus currículums educativos a la hora de encontrar un trabajo. O los sistemas que puntúan a alguien para lograr un crédito de un banco. El software que se utilice en los coches autónomos o en los dispositivos médicos también será considerado de alto riesgo, porque pueden afectar a nuestra seguridad o nuestra salud, añadió la vicepresidenta.
Los sistemas considerados de “alto riesgo” estarán sujetos a una serie de cinco obligaciones estrictas porque pueden, potencialmente, tener un fuerte impacto en nuestras vidas, recalcó Vestager al presentar la propuesta de normativa de inteligencia artificial el pasado 21 de abril en Bruselas, unos días antes de lo previsto porque se había filtrado la información. Se requerirá a los proveedores de sistemas de inteligencia artificial que cuenten con datos de alta calidad para estar seguros de que no hay discriminación o estén sesgados. También, que se suministre información detallada de cómo funciona el sistema, para que las autoridades puedan comprobar su correcto funcionamiento. En tercer lugar, que se proporcione a los usuarios información sustancial para que puedan utilizar el sistema correctamente. Cuarto, que haya un nivel apropiado de vigilancia humana, tanto en el diseño como en su funcionamiento y, por último, que se respeten los estándares más elevados de ciberseguridad y fiabilidad.
En la cúspide de la pirámide se encontrarán aquellos usos que estarán totalmente prohibidos, simplemente porque se consideran inaceptables. Serán aquellos sistemas que utilizan técnicas subliminales para herir o hacer daño a alguien, como un juguete que manipula a los niños con asistente de voz para que hagan cosas peligrosas. También se prohibirán las aplicaciones que puntúen a la gente según su conducta social, porque podría influenciar a las autoridades en su interacción o cómo un banco trata una solicitud de crédito. Sólo tienen sentido las propuestas que pueden ser mejoradas.
Claridad y multa al incumplimiento
Según Thierry Breton, la normativa que salga finalmente aprobada del Parlamento europeo y de los Estados miembros debería aportar la suficiente claridad para que las empresas sepan a qué atenerse y atraer al mismo tiempo hacia el continente europeo a las compañías que tengan la mayor cantidad de datos industriales del mundo. Un doble propósito difícil de conseguir, porque la propia existencia de la normativa ya supone un freno al desarrollo de aplicaciones, más que un efecto llamada.
Las primeras reacciones ya se han hecho notar. Para los promotores de la innovación tecnológica, el empeño de la Comisión Europea en hacer de la Unión Europea un líder mundial de la inteligencia artificial es inconsistente con la creación de una normativa que la quiera regular en exceso. Del otro lado, los firmes defensores de los derechos fundamentales temen que al final se vulneren libertades individuales y colectivas en aras de la innovación tecnológica.
Las autoridades nacionales, según el texto propuesto, serán las responsables de asegurar que los sistemas de inteligencia artificial cumplen con las obligaciones especificadas en el reglamento, cada una dentro de su marco competencial, que también será obligación de cada Estado miembro de identificar la más idónea para cada caso. Por ejemplo, señaló Vestager, si se trata de asuntos de privacidad serán las agencias de protección de datos de cada país miembro las encargadas mientras que los órganos de vigilancia de los mercados deberán determinar qué productos son seguros o no. En caso de incumplimiento recurrente, se podrá aplicar una multa de hasta el seis por ciento de la cifra de negocios anual y de hasta 20 millones de euros.
“Para que Europa sea líder global en una inteligencia artificial de confianza, necesitamos que las empresas puedan construir sistemas avanzados en las mejores condiciones”, asegura la vicepresidenta ejecutiva de la Comisión
Hay temas, reconoció Vestager, que pueden ser problemáticos, como la identificación biométrica remota. En la propuesta realizada, el foco se ha puesto en la identificación biométrica remota hecha a varios individuos simultáneamente, donde no se acepta o se limita severamente, aunque lo hagan las autoridades competentes. En una frontera, por ejemplo, no hay problema, porque se entiende que las autoridades fronterizas tienen derecho a hacerlas sin problemas, como pasa como cuando se piden las huellas dactilares o el reconocimiento facial.
La propuesta de normativa requiere que se prohíba la identificación biométrica remota en lugares públicos en tiempo real, porque considera que no hay espacio para la vigilancia masiva en nuestra sociedad. Existen una serie de excepciones a esta norma, definidas de una forma muy estricta, que será en todo caso limitada y regulada. Un ejemplo de permiso aceptado es cuando se trate de buscar a un menor desaparecido.
La confianza en el sistema es fundamental
Para que la normativa funcione y se desarrollen las aplicaciones convenientes de inteligencia artificial, es preciso que se genere la suficiente confianza en el sistema legal a adoptar y que las empresas y los ciudadanos tengan confianza también en que las aplicaciones de inteligencia artificial les serán beneficiosas.
Además, del modo en que se ha definido el futuro digital de Europa, un ecosistema de confianza debe ir en paralelo con un ecosistema de excelencia. “Para que Europa sea un líder global en una inteligencia artificial de confianza, necesitamos dar a las empresas el acceso a las mejores condiciones para construir sistemas avanzados de inteligencia artificial”, señaló Vestager.
Esta es la idea que está detrás de nuestro plan revisado y coordinado sobre inteligencia artificial, añadió. Es preciso coordinar las inversiones dentro de los Estados miembros para estar seguros que el dinero de programas como Digital Europe y Horizon Europe se invierten donde más se necesitan. Por ejemplo, dijo Vestager, en el programa de informática de alto rendimiento o en la creación de centros de prueba y mejora de sistemas de inteligencia artificial.
También es importante identificar sectores de alto impacto dentro de la Unión Europea para acelerar el desarrollo de programas críticos de inteligencia artificial, como en el campo de la agricultura inteligente, donde gracias a sensores se consiguen mejores y más sostenibles cosechas o se cosecha en el momento más apropiado.
Varios años para elaborar la propuesta
Este proyecto de normativa sobre inteligencia artificial se inició hace varios años y es el fruto de numerosos especialistas en el tema. En 2018 se publicó la Estrategia europea sobre inteligencia artificial, después de extensas consultas, y en 2019 se desarrollaron unas Guías de actuación para una inteligencia artificial de confianza, por parte de un grupo de expertos, mientras que en diciembre de 2018 se publicaba un Plan coordinado sobre inteligencia artificial.
En 2020 se publicó un Libro Blanco, con la idea central de tener un ecosistema de excelencia y confianza, que está en el núcleo de la propuesta actual. La consulta pública de este Libro Blanco fue acompañada por un informe sobre la seguridad e implicaciones de la inteligencia artificial, IoT y robótica, que ahora se han tenido en cuenta en la propuesta al Parlamento y al Consejo sobre productos de maquinaria
La propuesta de la Comisión sobre la Normativa de inteligencia artificial es muy extensa, de 108 páginas, más un anexo. Después está la revisión del Plan coordinado de inteligencia artificial de 2021. El comunicado de la Comisión sintetiza las propuestas elevadas al Parlamento, con enlaces a los documentos relevantes.
El tema de la inteligencia artificial, y especialmente las potentes herramientas de reconocimiento facial, están siendo últimamente muy debatidas en Estados Unidos. La semana pasada se presentó al Congreso, con el soporte tanto de los Republicamos como de los Demócratas, una propuesta de ley para limitar la vigilancia electrónica utilizada por los investigadores federales y las policías locales, apodada “la Cuarta Enmienda no es una ley a la venta”. En cambio, el Gobierno chino está haciendo un uso extensivo de las técnicas de reconocimiento facial e incluso hace amplia propaganda de los progresos realizados, al parecer con reconocimiento en tiempo real incluso en grandes aglomeraciones de personas, como estaciones de tren abarrotadas o manifestaciones.
En la normativa propuesta por la Comisión Europea, se prohíbe expresamente el reconocimiento facial y la identificación biométrica masiva, sobre todo en tiempo real y con la excepción de casos muy justificados, incluso por las autoridades. Falta por ver cómo quedará redactado el texto legislativo final una vez aprobado en este caso y también en los múltiples aspectos menos llamativos pero igualmente conflictivos que aborda el anteproyecto de ley. Se acumulan en el Parlamento varios anteproyectos de ley relacionados con la tecnología digital que deben dar carta de naturaleza a la Unión Europea y a la defensa de los derechos fundamentales de sus ciudadanos.