2 ¿Qué es el Comité de Evaluación y Gobernanza de la IA?

Es un órgano interno, formalizado mediante políticas y procedimientos, que vela por que los sistemas de IA desplegados o en desarrollo en la organización cumplan con criterios de:

  • Legalidad.
  • Ética.
  • Seguridad.
  • Calidad técnica.
  • Impacto social positivo.
  • Conforme al Reglamento de IA de la UE (RIA 2024/1689) y otras normativas internacionales.

El Comité no sustituye a las áreas técnicas o de negocio, sino que las complementa, actuando como un "órgano de control cruzado" que aporta supervisión independiente y perspectiva holística en el uso de la IA.

2.1 Objetivos del Comité de IA

Los principales objetivos del Comité son:

  • Evaluar riesgos, sostenibilidad y oportunidades de los proyectos de IA.
  • Validar la adecuación ética, técnica, legal y social de cada sistema.
  • Recomendar acciones de mitigación, refuerzo o desestimación de proyectos.
  • Alinear el uso de IA con la estrategia de negocio, la normativa aplicable y las expectativas de los stakeholders.
  • Generar confianza interna y externa en el uso responsable de la IA.

Indicadores y métricas asociadas:

Objetivo

Indicador propuesto

Objetivo

Evaluación de riesgos y beneficios

% de casos de uso de IA evaluados antes del despliegue

Evaluación de riesgos y beneficios

Mitigación de riesgos

% de riesgos detectados y mitigados antes de ir a producción

Mitigación de riesgos

Cumplimiento normativo y ético

Nº de no conformidades o incumplimientos detectados

Cumplimiento normativo y ético

Transparencia y explicabilidad

Nº de sistemas con informes de explicabilidad completos

Transparencia y explicabilidad

Confianza y percepción de stakeholders

Índice de satisfacción en encuestas internas y externas sobre IA

Confianza y percepción de stakeholders

2.2 Composición recomendada del Comité de IA

Rol

Perfil

Presidencia

Alta Dirección, CTO, CIO o Responsable de Innovación

Coordinación

Departamento de Cumplimiento / Legal

Miembro experto en ética digital

Representante de RSC, Ética Corporativa o externo

Representante técnico IA

Responsable técnico IA, Científico de Datos, MLOps

Representante seguridad TI

CISO o Responsable de Ciberseguridad

Representante negocio

Responsable de unidad de negocio / propietario del proceso impactado

Usuarios / sociedad civil (opcional)

Representantes de clientes, asociaciones de consumidores, etc. según sector

Expertos externos (ad hoc)

Académicos, auditores, consultores en IA ética, expertos legales en protección de datos

2.3 Roles, responsabilidades y toma de decisiones

Función

Descripción

Nivel de decisión

Evaluación de riesgos de IA

Identificar, clasificar y valorar riesgos técnicos, legales, éticos, sociales y de sostenibilidad

Propuesta / Informe

Propuesta de mitigación

Sugerir medidas correctivas, preventivas o de refuerzo

Propuesta / Informe

Validación de proyectos IA

Aprobación o recomendación de paralización / ajustes de proyectos según criterios establecidos

Recomendación / Decisión (según riesgo)

Supervisión ciclo de vida IA

Revisar periódicamente los sistemas desplegados, sus resultados y desviaciones

Supervisión continua

Comunicación y reporte

Informar a Dirección, Consejo o stakeholders relevantes sobre el estado del gobierno de la IA

Reporte

Cuando un proyecto presenta riesgos muy altos, el Comité debe remitir su informe a la Dirección General o Consejo de Administración para la decisión definitiva.

2.4 Ciclo de trabajo del Comité

  1. Recepción de propuestas de casos de uso de IA.
  2. Evaluación inicial de riesgos, impactos y beneficios (modelo ‘AI Risk by Design’).
  3. Clasificación según niveles de riesgo del RIA.
  4. Emisión de recomendaciones o bloqueos.
  5. Seguimiento post-despliegue y revisión continua.
  6. Reporte a dirección y consejo de administración.

2.5 Recomendaciones prácticas para su implementación efectiva

  • Establecer una visión y estrategia de IA clara y compartida en toda la organización.

  • Definir principios éticos rectores (justicia, explicabilidad, equidad, sostenibilidad).

  • Realizar un inventario y clasificación de sistemas IA existentes y futuros (riesgo, criticidad, impacto).

  • Crear políticas internas, cláusulas contractuales y normativas de uso responsable de IA.

  • Incorporar métricas de rendimiento, cumplimiento y madurez en IA (alineado con ESG).

  • Fortalecer la gobernanza del dato y la trazabilidad algorítmica (data fabric, data lakehouse)

  • Gestionar el riesgo de terceros proveedores que suministren IA (due diligence reforzado).

  • Establecer centros de excelencia en IA o designar un Chief AI Officer para liderar la disciplina.