La Unión Europea legisla la IA (Inteligencia Artificial) ante las distintas posibilidades que ofrece y sus riesgos. Esta ley, vigente en todo el territorio comunitario y vinculante, es la pauta que empresas y organizaciones tendrán que cumplir.
Aquí describimos con detalle las principales novedades de la ley y, también, indicamos los principales riesgos.
La Unión Europea legisla la IA: conoce los detalles
El Parlamento Europeo aprobó el 14 de marzo el Reglamento de Inteligencia Artificial.
A partir de ahora, habrá un proceso de ratificación e implementación progresiva que empezará ahora y finalizará dentro de 2 años, en 2026. Esta nueva legislación es obligatoria para todas las empresas y organizaciones públicas.
Esta ley intenta establecer los límites para la inteligencia artificial (IA) e, igual que en España con la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial), crea a nivel europeo una Agencia de Inteligencia Artificial, con un objetivo de supervisión. Eso sí, aunque es vinculante, no tocará las competencias de Seguridad Nacional de cada Estado miembro.
¿Cómo se gestionarán los nuevos límites? Podemos indicarte, sobre todo, dos vertientes de impulso:
- Estableciendo un marco regulatorio propio de obligado cumplimiento.
La idea de la nueva legislación es no dar espacio a fraudes con el robo de datos ni con la privacidad de las personas. Para eso, se establecen unas obligaciones para quien gestione software de IA y unos límites: se prohíbe el rastreo indiscriminado de personas y los sistemas de manipulación cognitivo-conductual, pues se consideran riesgos inaceptables. - Estableciendo bases que ayuden a fomentar la inversión e innovación en IA.
Por esa razón, el periodo de implementación de la nueva normativa es de 2 años desde la aprobación. La idea es fomentar esta tecnología, no ponerle cortapisas innecesarias.
La idea es que todos tengamos unos límites claros sobre lo que podemos y no podemos hacer. Si bien la IA ofrece multitud de opciones para trabajar mejor, el riesgo real de desinformar o manipular a la población, o de potenciar algunos sesgos discriminatorios, está ahí. Por eso, otros países desarrollados como Reino Unido o Estados Unidos también están regulando la IA.
Riesgos de trabajar con la IA
Ahora que la Unión Europea legisla la IA, hay un marco de seguridad.
Pero sí hay algunos riesgos que se deben evitar. Para ello, utilizar como pauta la Ley de Protección de Datos de España complementa la legislación europea de IA.
Veamos…
- Uso indebido de la IA. Y esto es central, porque una utilización indebida, muchas veces, tiene que ver con no conocer bien su potencial. Esto, en las empresas, es especialmente grave por la exposición a sanciones civiles y penales.
- Gestión de datos indebida. Para contrarrestar eso, la organización debe limitar el uso de información a la finalidad corporativa.
- Uso de datos personales sin consentimiento. Salvo para finalidades estadísticas, toda la información se debe usar con consentimiento por escrito de los usuarios. Con la IA, esto se hace más complejo, de ahí que se deba garantizar la trazabilidad.
- Utilización discriminatoria de los algoritmos. Los algoritmos pueden servir para procesar preferencias, pero estas pueden generar sesgos discriminatorios. Esto es crucial en cuestiones como el reconocimiento facial biométrico.
- Falta de garantías de seguridad. Los servidores, si no están alojados en un espacio que garantice privacidad y el cumplimiento de la ley, tienen un potencial peligro.
Refuerza la seguridad de tu empresa desde la prevención
Ante los cambios en la legislación de IA, es imprescindible dar una solución preventiva. Y esto pasa, inevitablemente, por la formación y aprendizaje de los empleados de una empresa.
Cyber Gurú está especializada en una solución de formación y aprendizaje, teniendo en cuenta tres áreas: la cognición para formarse adecuadamente, la inducción para percibir claramente los peligros y la experiencia para reaccionar rápidamente.
De esta forma, se minimizan los riesgos, también en la gestión de la IA.