La inteligencia artificial (IA) ya no es solo una tecnología del futuro sino una realidad que está impactando en muchas empresas, y cada día en más pymes. En la Unión Europea, la nueva Ley de Inteligencia Artificial, aprobada en 2024, establece un marco regulador que afecta a todas aquellas entidades que desarrollan o utilizan esta tecnología en su actividad. Además, en España, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), creada mediante el Real Decreto 729/2023, se encarga de garantizar el cumplimiento de esta normativa y promover un uso responsable de la IA en el tejido empresarial.

Para los empresarios, que están pensando en usar IA en sus procesos – o que pueden tener empleados que estén usando ya herramientas con IA sin que lo sepa el empresario – es fundamental comprender cómo esta legislación les afecta y qué medidas deben adoptar para cumplir con la ley, para minimizar riesgos y para aprovechar al máximo las ventajas que la IA puede ofrecer en términos de eficiencia y competitividad. Entre los aspectos claves a considerar está la formación de los empleados, la implementación de políticas internas y el uso seguro y ético de los sistemas de IA.

Formación de los empleados

En primer lugar, aunque la normativa europea no impone (aún) una obligación expresa de formar a los trabajadores en IA, sí establece requisitos de transparencia y supervisión, especialmente para aquellas empresas que utilicen sistemas clasificados como «de alto riesgo». Esto significa que, si un negocio emplea IA para la selección de personal, la toma de decisiones financieras o el tratamiento de datos sensibles, sus empleados deben estar capacitados para comprender cómo funciona el sistema, detectar posibles sesgos y actuar en consecuencia. La AESIA, junto con otras instituciones, tiene como fin la promoción de la formación en IA como un elemento clave para garantizar su uso ético y conforme a la legislación vigente. Aunque la AESIA (aún) no impone una obligación directa a las empresas, sí indica una dirección hacia la importancia de anticipar la formación en este ámbito.

Implementación de políticas internas

Otra medida importante es la implementación de políticas internas que regulen el uso de la IA dentro de la empresa. Esto implica definir claramente cómo y para qué se quiere utilizar esta tecnología dentro de la empresa, establecer mecanismos de supervisión humana y garantizar la transparencia ante empleados y clientes. Según la normativa europea, los usuarios deben ser informados cuando interactúan con sistemas de IA, lo que obliga a las empresas a establecer protocolos de comunicación claros y accesibles.

La ley establece que los sistemas de IA de alto riesgo deben contar con un grado de supervisión humana. Esto implica que haya personal capacitado para interpretar los resultados de la IA, detectar fallos y tomar decisiones correctivas. En una empresa que usa IA para aprobar, por ejemplo, créditos bancarios, los empleados deben saber cómo supervisar las decisiones de la IA y detectar posibles discriminaciones en función de género, edad o nacionalidad, o de cualquier otro sesgo. Es aplicable también al departamento de RRHH si se usa para seleccionar personal, como por ejemplo hacer «leer a una IA» el CV de los candidatos para que haga informes de idoneidad.

Otro caso, cada día más frecuente, es el caso de empresas que utilizan chatbots con IA para la atención al cliente: los empleados encargados de su supervisión deben conocer qué puede y qué no puede hacer el sistema, cómo intervenir en caso de errores y cómo responder a preguntas sobre el funcionamiento del chatbot.

Uso seguro y ético de los sistemas de IA

Por último, es importante garantizar un uso seguro y respetuoso con los derechos fundamentales. La IA debe emplearse de manera que respete la privacidad y la protección de datos, en cumplimiento con el Reglamento General de Protección de Datos (RGPD). Además, los sistemas de IA no pueden discriminar ni perjudicar injustamente a determinados grupos de personas. En España, la AESIA es la encargada de velar por que estos principios se cumplan, con potestad de imponer sanciones en caso de infracción.

La IA está estrechamente relacionada con la gestión de datos personales. Los empleados que usen herramientas de IA deben recibir formación para evitar el uso indebido de información sensible y cumplir con el RGPD. Un trabajador que usa un sistema de IA para analizar datos de clientes debe saber qué datos puede almacenar y compartir, y cuáles requieren consentimiento explícito.

Para los empresarios, adaptarse a este nuevo marco regulador no solo es una obligación legal, sino también una oportunidad para mejorar sus procesos y fortalecer la confianza de sus clientes y empleados. La capacitación continua, la adopción de buenas prácticas y el compromiso con la ética empresarial serán elementos clave para navegar con éxito en la era de la inteligencia artificial.


En España, la legislación específica sobre inteligencia artificial está en desarrollo. Actualmente, no existe una ley dedicada exclusivamente a la IA. Sin embargo, se han establecido organismos y marcos regulatorios para supervisar su uso. Un ejemplo es el Real Decreto 729/2023, de 22 de agosto, que aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). Este decreto define la estructura y funciones de la AESIA, encargada de supervisar y asesorar sobre la implementación de la normativa de IA en España. Puede consultar el texto completo del Real Decreto en el Boletín Oficial del Estado: Real Decreto 729/2023, de 22 de agosto


Texto completo del Reglamento (UE) 2024/1689 en español
https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=es

Es necesario conocer a qué se refiere la legislación europea acerca de sistemas de IA de alto riego:

El Anexo III del Reglamento (UE) 2024/1689 establece qué sistemas de inteligencia artificial (IA) son considerados de alto riesgo y, por tanto, están sujetos a normas más estrictas. Esto significa que su uso debe ser transparente, supervisado y respetuoso con los derechos fundamentales.

En términos simples, la ley clasifica como alto riesgo aquellos sistemas de IA que pueden tener un impacto significativo en la seguridad, los derechos y las oportunidades de las personas. Los principales ámbitos afectados son:

  1. Biometría y reconocimiento facial
    • Se consideran de alto riesgo los sistemas de IA que identifican personas a distancia mediante características biométricas (como reconocimiento facial en espacios públicos), así como aquellos que analizan emociones o características sensibles de una persona.
    • Excepción: No se incluyen los sistemas usados solo para verificar la identidad de una persona con su consentimiento, como desbloquear un móvil con la huella dactilar.
  2. Infraestructuras críticas
    • Los sistemas de IA que gestionan infraestructuras clave, como el tráfico, la electricidad, el agua o el gas, deben cumplir estándares estrictos para evitar riesgos de seguridad.
  3. Educación y formación profesional
    • Las IA que determinan el acceso a centros educativos, evalúan estudiantes o detectan fraudes en exámenes pueden influir en el futuro de las personas, por lo que son reguladas como de alto riesgo.
  4. Empleo y gestión de trabajadores
    • Cualquier IA utilizada para contratar, evaluar el rendimiento laboral o asignar tareas a los trabajadores se considera de alto riesgo, ya que podría afectar las oportunidades profesionales y la equidad en el trabajo.
  5. Acceso a servicios esenciales (banca, seguros, ayudas públicas, emergencias)
    • Se incluyen los sistemas de IA que evalúan quién puede recibir ayudas sociales, créditos bancarios, seguros de salud o vida, así como los que gestionan las llamadas de emergencia y los servicios de respuesta rápida (ambulancias, bomberos, policía).
  6. Aplicación de la ley y justicia penal
    • La IA utilizada por la policía para analizar el riesgo de delitos, detectar mentiras o evaluar pruebas en investigaciones se considera de alto riesgo, ya que puede influir en la libertad de las personas.
  7. Migración y control fronterizo
    • Los sistemas de IA usados para evaluar riesgos en fronteras, analizar solicitudes de asilo o identificar personas en el contexto de la inmigración deben cumplir normativas estrictas para evitar discriminaciones o errores.
  8. Justicia y democracia
    • Se incluyen las IA que asisten a jueces en la interpretación de leyes y aquellas que pueden influir en elecciones o referéndums mediante la manipulación del comportamiento electoral.

ANEXO III

Sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2

Los sistemas de IA de alto riesgo con arreglo al artículo 6, apartado 2, son los sistemas de IA que formen parte de cualquiera de los ámbitos siguientes:

  1. Biometría, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable:

a) Sistemas de identificación biométrica remota

Quedan excluidos los sistemas de IA destinados a ser utilizados con fines de verificación biométrica cuya única finalidad sea confirmar que una persona física concreta es la persona que afirma ser

b) Sistemas de IA destinados a ser utilizados para la categorización biométrica en función de atributos o características sensibles o protegidos basada en la inferencia de dichos atributos o características

c) Sistemas de IA destinados a ser utilizados para el reconocimiento de emociones

2. Infraestructuras críticas: Sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y el funcionamiento de las infraestructuras digitales críticas, del tráfico rodado o del suministro de agua, gas, calefacción o electricidad

3. Educación y formación profesional:

a) Sistemas de IA destinados a ser utilizados para determinar el acceso o la admisión de personas físicas a centros educativos y de formación profesional a todos los niveles o para distribuir a las personas físicas entre dichos centros

b) Sistemas de IA destinados a ser utilizados para evaluar los resultados del aprendizaje, también cuando dichos resultados se utilicen para orientar el proceso de aprendizaje de las personas físicas en centros educativos y de formación profesional a todos los niveles

c) Sistemas de IA destinados a ser utilizados para evaluar el nivel de educación adecuado que recibirá una persona o al que podrá acceder, en el contexto de los centros educativos y de formación profesional o dentro de estos a todos los niveles

d) Sistemas de IA destinados a ser utilizados para el seguimiento y la detección de comportamientos prohibidos por parte de los estudiantes durante los exámenes en el contexto de los centros educativos y de formación profesional o dentro de estos a todos los niveles

4. Empleo, gestión de los trabajadores y acceso al autoempleo:

a) Sistemas de IA destinados a ser utilizados para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos

b) Sistemas de IA destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones de índole laboral o a la promoción o rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones

5. Acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales y disfrute de estos servicios y prestaciones:

a) Sistemas de IA destinados a ser utilizados por las autoridades públicas o en su nombre para evaluar la admisibilidad de las personas físicas para beneficiarse de servicios y prestaciones esenciales de asistencia pública, incluidos los servicios de asistencia sanitaria, así como para conceder, reducir o retirar dichos servicios y prestaciones o reclamar su devolución

b) Sistemas de IA destinados a ser utilizados para evaluar la solvencia de personas físicas o establecer su calificación crediticia, salvo los sistemas de IA utilizados al objeto de detectar fraudes financieros

c) Sistemas de IA destinados a ser utilizados para la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de vida y de salud

d) Sistemas de IA destinados a ser utilizados para la evaluación y la clasificación de las llamadas de emergencia realizadas por personas físicas o para el envío o el establecimiento de prioridades en el envío de servicios de primera intervención en situaciones de emergencia, por ejemplo, policía, bomberos y servicios de asistencia médica, y en sistemas de triaje de pacientes en el contexto de la asistencia sanitaria de urgencia

6. Garantía del cumplimiento del Derecho, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable:

a) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho, o en su nombre, para evaluar el riesgo de que una persona física sea víctima de delitos

b) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho como polígrafos o herramientas similares

c) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho para evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de delitos

d) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho para evaluar el riesgo de que una persona física cometa un delito o reincida en la comisión de un delito atendiendo no solo a la elaboración de perfiles de personas físicas mencionada en el artículo 3, punto 4, de la Directiva (UE) 2016/680 o para evaluar rasgos y características de la personalidad o comportamientos delictivos pasados de personas físicas o colectivos

e) Sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en su nombre, o por las instituciones, órganos y organismos de la Unión en apoyo de las autoridades garantes del cumplimiento del Derecho para elaborar perfiles de personas físicas, como se menciona en el artículo 3, punto 4, de la Directiva (UE) 2016/680, durante la detección, la investigación o el enjuiciamiento de delitos

7. Migración, asilo y gestión del control fronterizo, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable:

a) Sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos y organismos de la Unión, como polígrafos o herramientas similares

b) Sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos y organismos de la Unión para evaluar un riesgo, por ejemplo, un riesgo para la seguridad, la salud o de migración irregular, que plantee una persona física que tenga la intención de entrar en el territorio de un Estado miembro o haya entrado en él

c) Sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos y organismos de la Unión para ayudar a las autoridades públicas competentes a examinar las solicitudes de asilo, visado o permiso de residencia y las reclamaciones conexas con el fin de determinar si las personas físicas solicitantes reúnen los requisitos necesarios para que se conceda su solicitud, con inclusión de la evaluación conexa de la fiabilidad de las pruebas

d) Sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos y organismos de la Unión, en el contexto de la migración, el asilo o la gestión del control fronterizo, con el fin de detectar, reconocer o identificar a personas físicas, con excepción de la verificación de documentos de viaje

8. Administración de justicia y procesos democráticos:

a) Sistemas de IA destinados a ser utilizados por una autoridad judicial, o en su nombre, para ayudar a una autoridad judicial en la investigación e interpretación de hechos y de la ley, así como en la garantía del cumplimiento del Derecho a un conjunto concreto de hechos, o a ser utilizados de forma similar en una resolución alternativa de litigios;

b) Sistemas de IA destinados a ser utilizados para influir en el resultado de una elección o referéndum o en el comportamiento electoral de personas físicas que ejerzan su derecho de voto en elecciones o referendos. Quedan excluidos los sistemas de IA a cuyos resultados de salida no estén directamente expuestos las personas físicas, como las herramientas utilizadas para organizar, optimizar o estructurar campañas políticas desde un punto de vista administrativo o logístico.

Categories:

Tags:

Comments are closed