¿Usa su empresa IA de alto riesgo?
Patrick Gordinne Perez2024-12-17T22:07:32+00:00Usted tiene automatizada una parte del sistema de selección de personal. ¿Sabía que puede tratarse de IA de alto riesgo, y según los datos que maneje y cómo los trate, podría estar obligado a adoptar determinadas medidas?
Vea cómo identificar si es su caso y qué debe hacer.
Reglamento Europeo sobre Inteligencia Artificial (IA)
Antes de nada recordemos que el Reglamento Europeo sobre Inteligencia Artificial (RIA) establece normas para garantizar el uso seguro y ético de la IA en las empresas (evitando sesgos, discriminación, etc.) y señala quién responde en caso de hacer un mal uso de esta herramienta.
Uno de los puntos clave que debe tener en cuenta es si usted utiliza sistemas de IA considerados de “alto riesgo”, pues en tal caso debe atenerse a la normativa.
¿Que es una IA de alto riesgo?
Derechos.
Dado que el objetivo es salvaguardar los derechos fundamentales de las personas y su seguridad, el RIA categoriza ciertos sistemas de IA de “alto riesgo” por su posible impacto en esos derechos.
Se catalogan como de alto riesgo, entre otros:
- Los sistemas de IA utilizados en la contratación laboral (para seleccionar candidatos).
- Los usados para determinar el acceso a servicios públicos (préstamos o subvenciones).
- La IA empleada en la evaluación de riesgos de crédito o en decisiones médicas.
IA y Personal
En el ámbito de las empresas, el RIA hace hincapié en el uso de la IA de alto riesgo cuando ésta afecta a la toma de decisiones (contratación y selección de personal –anuncios de empleo, filtrado y evaluación de candidatos…–, condiciones de trabajo e incluso despidos).
Si su empresa utiliza IA de alto riesgo cuyas decisiones guardan relación con estas áreas (criba currículums, selecciona empleados para una posible promoción…), está utilizando un sistema de alto riesgo y debe adoptar medidas al respecto .
ChatGPT: La revolución de la inteligencia artificial en la comunicación
ChatGPT es un modelo de lenguaje desarrollado por OpenAI que utiliza inteligencia artificial para generar texto coherente. Seamos sinceros, las...
Leer más¿Como cumplir con la normativa si usa IA de alto riesgo?
Paso 1
Identificación del riesgo
Cuando el sistema actúe en áreas sensibles (salud, seguridad, intimidad de las personas…), verifique si se encuentra afectado.
El Anexo III del RIA ofrece una lista detallada de estos sistemas.
Paso 2
Evaluación de conformidad
Deberá someter el sistema a una evaluación de conformidad antes de ponerlo en marcha para verificar que cumple con los requisitos del RIA en cuanto a seguridad y protección de derechos.
Esta valoración puede llevarla a cabo el mismo proveedor, o bien un organismo externo.
Paso 3
Ejecución
Con el sistema ya en marcha, deberá cumplir los siguientes requisitos:
- Transparencia :
Entre otras obligaciones en esta materia, debe informar a los usuarios de que están interactuando con una IA. Incluya una advertencia en la pantalla que lo indique.
Asimismo, debe explicar en qué criterios generales se basa el sistema para decidir, además de detallar cómo y por qué se toma cada decisión.
- Registros :
También debe llevar un registro detallado de las operaciones del sistema, incluyendo documentación técnica sobre cómo se diseñó, cómo fue probado y cómo se monitorea su funcionamiento.
Mantener una documentación clara le protegerá ante posibles auditorías o inspecciones.
- Supervisión continua :
Los sistemas de IA de lato riesgo deben ser inspeccionados constantemente para asegurar que cumplen en todo momento con los estándares de seguridad y ética .
Realice auditorías periódicas para asegurarse de que no se desvían de los parámetros iniciales.
Incumplimiento
Sepa que infringir el RIA puede comportar multas millonarias, además del menoscabo de la reputación de su empresa.
Consulte el Anexo III del Reglamento para identificar si su empresa usa IA de alto riesgo y cumplir con las obligaciones que éste le impone.
Así evitará sanciones y se asegurará de hacer un uso ético de esta tecnología.