El Gobierno de España, a través de su agencia especializada AESIA, ha publicado un paquete de guías prácticas dirigido a las pequeñas y medianas empresas (pymes) y a los trabajadores autónomos. El objetivo de estos documentos es ayudar a las organizaciones a adaptar sus procesos de trabajo al nuevo Reglamento Europeo de Inteligencia Artificial (RIA), que introduce normas estrictas en materia de transparencia y seguridad.
Uno de los puntos clave del nuevo marco es la clasificación de los sistemas de IA según su nivel de riesgo. En la categoría de “alto riesgo” se incluyen los algoritmos que influyen en decisiones determinantes, como la contratación de personal, la concesión de créditos, el diagnóstico médico o el uso de datos biométricos. Para estos sistemas se establecen exigencias estrictas en materia de registro, gestión de riesgos y supervisión humana.
Las guías insisten en que la adaptación comienza con una fase de inventario. Los empresarios deben documentar todas las soluciones de IA que utilizan, identificar a sus proveedores, definir su finalidad y detallar los tipos de datos que procesan. Estas herramientas dejan de ser simples “utilidades” para convertirse en instrumentos sujetos a control.
Cuando la IA se utiliza para tareas rutinarias (por ejemplo, la generación de textos o correos electrónicos), los requisitos son más flexibles, aunque el control básico de calidad sigue siendo obligatorio. No obstante, si un algoritmo se emplea para evaluar la solvencia de los clientes, será necesario implantar mecanismos de “intervención humana” para verificar las decisiones y revisar los contratos con los proveedores de software.
Las autoridades recomiendan no retrasar la auditoría: más del 20% de las empresas españolas ya han incorporado IA, y el incumplimiento del reglamento puede acarrear problemas legales. El primer paso consiste en designar a un responsable de ética digital y comenzar a mantener un registro de las tecnologías utilizadas.
Uno de los puntos clave del nuevo marco es la clasificación de los sistemas de IA según su nivel de riesgo. En la categoría de “alto riesgo” se incluyen los algoritmos que influyen en decisiones determinantes, como la contratación de personal, la concesión de créditos, el diagnóstico médico o el uso de datos biométricos. Para estos sistemas se establecen exigencias estrictas en materia de registro, gestión de riesgos y supervisión humana.
Las guías insisten en que la adaptación comienza con una fase de inventario. Los empresarios deben documentar todas las soluciones de IA que utilizan, identificar a sus proveedores, definir su finalidad y detallar los tipos de datos que procesan. Estas herramientas dejan de ser simples “utilidades” para convertirse en instrumentos sujetos a control.
Cuando la IA se utiliza para tareas rutinarias (por ejemplo, la generación de textos o correos electrónicos), los requisitos son más flexibles, aunque el control básico de calidad sigue siendo obligatorio. No obstante, si un algoritmo se emplea para evaluar la solvencia de los clientes, será necesario implantar mecanismos de “intervención humana” para verificar las decisiones y revisar los contratos con los proveedores de software.
Las autoridades recomiendan no retrasar la auditoría: más del 20% de las empresas españolas ya han incorporado IA, y el incumplimiento del reglamento puede acarrear problemas legales. El primer paso consiste en designar a un responsable de ética digital y comenzar a mantener un registro de las tecnologías utilizadas.