4.2 Aterrizar el caso de uso

La fase de aterrizaje constituye el momento en el que una idea preliminar se transforma en una iniciativa estructurada y susceptible de evaluación. Su objetivo no es únicamente dotar de concreción al caso de uso, sino garantizar que esta concreción se realiza bajo principios de gestión sólidos, con criterios estratégicos, tecnológicos, operativos y medioambientales claramente definidos.

En esta etapa se abordan cinco dimensiones esenciales, descritas a continuación

4.2.1 Elementos esenciales al aterrizar el caso de uso

  1. Definición del alcance

Aterrizar un caso de uso comienza con la delimitación precisa de su alcance. Esta delimitación debe responder a tres preguntas fundamentales:

  • ¿Qué problema u oportunidad pretende resolver?

  • ¿En qué procesos, áreas o unidades se aplicará?

  • ¿Qué limitaciones y exclusiones se establecen desde el inicio?

Un alcance claro y consensuado evita la dispersión de esfuerzos y facilita la alineación de expectativas. La perspectiva medioambiental debe formar parte de esta definición, asegurando que desde el inicio se establecen límites en términos de impacto energético, eficiencia de infraestructura tecnológica y coherencia con los compromisos de sostenibilidad de la organización.

  1. Diseño de un roadmap de desarrollo

El aterrizaje no supone el despliegue inmediato de una solución final, sino la construcción de un itinerario progresivo que facilite el aprendizaje, la adaptación y la validación temprana. El roadmap debe estructurarse en fases claras, con hitos intermedios que permitan evaluar la evolución del proyecto y decidir sobre su continuidad. En cada fase, los criterios de sostenibilidad deben actuar como checkpoints obligatorios que condicionen el avance hacia etapas posteriores.

  1. Definición de entregables tangibles

Para dotar de seriedad al proceso, cada caso de uso debe expresarse en entregables concretos y verificables. Entre ellos se incluyen:

  • Documento de caso de uso inicial (objetivo, alcance, criterios transversales).

  • Diseño funcional preliminar.

  • Evaluación de requisitos de datos, tecnología y capacidades organizativas.

  • Informe preliminar de impactos, con un apartado específico sobre implicaciones medioambientales.

Estos entregables constituyen la base documental que garantiza trazabilidad y accountability en la toma de decisiones.

  1. Definición de criterios de decisión (“go/no-go”)

Finalmente, el proceso de aterrizaje debe culminar en la definición de criterios claros para decidir sobre la continuidad o el escalado del caso de uso. Dichos criterios deben considerar:

  • Su valor estratégico y grado de alineación con los objetivos de la organización.

  • La viabilidad técnica, operativa y organizativa.

  • La relación coste–beneficio preliminar.

  • El cumplimiento de criterios mínimos en materia de sostenibilidad ambiental, cuya superación debe considerarse condición indispensable para el avance.

4.2.2 Definir el objetivo y el ámbito de aplicación

  1. Definición del alcance

Aterrizar un caso de uso comienza con la delimitación precisa de su alcance. Esta delimitación debe responder a tres preguntas fundamentales:

  • ¿Qué problema u oportunidad pretende resolver?

  • ¿En qué procesos, áreas o unidades se aplicará?

  • ¿Qué limitaciones y exclusiones se establecen desde el inicio?

Un alcance claro y consensuado evita la dispersión de esfuerzos y facilita la alineación de expectativas. La perspectiva medioambiental debe formar parte de esta definición, asegurando que desde el inicio se establecen límites en términos de impacto energético, eficiencia de infraestructura tecnológica y coherencia con los compromisos de sostenibilidad de la organización.

  1. Diseño de un roadmap de desarrollo

El aterrizaje no supone el despliegue inmediato de una solución final, sino la construcción de un itinerario progresivo que facilite el aprendizaje, la adaptación y la validación temprana. El roadmap debe estructurarse en fases claras, con hitos intermedios que permitan evaluar la evolución del proyecto y decidir sobre su continuidad. En cada fase, los criterios de sostenibilidad deben actuar como checkpoints obligatorios que condicionen el avance hacia etapas posteriores.

  1. Definición de entregables tangibles

Para dotar de seriedad al proceso, cada caso de uso debe expresarse en entregables concretos y verificables. Entre ellos se incluyen:

  • Documento de caso de uso inicial (objetivo, alcance, criterios transversales).

  • Diseño funcional preliminar.

  • Evaluación de requisitos de datos, tecnología y capacidades organizativas.

  • Informe preliminar de impactos, con un apartado específico sobre implicaciones medioambientales.

Estos entregables constituyen la base documental que garantiza trazabilidad y accountability en la toma de decisiones.

  1. Definición de criterios de decisión (“go/no-go”)

Finalmente, el proceso de aterrizaje debe culminar en la definición de criterios claros para decidir sobre la continuidad o el escalado del caso de uso. Dichos criterios deben considerar:

  • Su valor estratégico y grado de alineación con los objetivos de la organización.

  • La viabilidad técnica, operativa y organizativa.

  • La relación coste–beneficio preliminar.

  • El cumplimiento de criterios mínimos en materia de sostenibilidad ambiental, cuya superación debe considerarse condición indispensable para el avance.

4.2.3 Amenazas y vulnerabilidades

La identificación de amenazas y vulnerabilidades en sistemas de inteligencia artificial (IA) constituye un paso crítico en el proceso de definición de casos de uso. No se trata únicamente de evaluar riesgos técnicos, sino de comprender su impacto en la confianza, la sostenibilidad y la adopción responsable de estas tecnologías. Las principales áreas de riesgo se pueden estructurar en torno a los siguientes ejes:

  1.  Riesgos para la privacidad y la protección de datos

La IA opera sobre grandes volúmenes de datos, muchos de ellos sensibles. Amenazas como la re-identificación de individuos en datasets anonimizados, el uso indebido de información personal o la falta de cumplimiento de marcos regulatorios (como el RGPD en Europa) constituyen vulnerabilidades críticas. Además, la expansión de técnicas de machine learning incrementa la superficie de exposición de datos, lo que obliga a incorporar desde el diseño (privacy by design) medidas como la privacidad diferencial, los datos sintéticos o el cifrado homomórfico.

  1. Sesgos y equidad en los modelos

La dependencia de datos históricos introduce el riesgo de reproducir y amplificar sesgos sociales, culturales o económicos. Estos sesgos no solo afectan la equidad en la toma de decisiones, sino que deterioran la legitimidad del sistema de IA frente a la sociedad. La falta de representatividad de los datos o de mecanismos de validación adecuados puede generar resultados discriminatorios, especialmente en ámbitos como la contratación, la concesión de crédito o la gestión de recursos públicos.

  1. Robustez, resiliencia y ataques adversariales

Los modelos de IA pueden ser objeto de ataques que manipulen sus entradas para alterar los resultados (adversarial examples), o que extraigan información sensible de los datos de entrenamiento (data poisoning y model inversion). Estas vulnerabilidades cuestionan la robustez del sistema y su capacidad para operar de manera confiable en entornos complejos o hostiles. La ausencia de mecanismos de defensa adecuados compromete no solo la seguridad técnica, sino también la continuidad de negocio y la confianza en el sistema.

  1. Explicabilidad y trazabilidad

La falta de transparencia en algoritmos complejos, como los modelos de deep learning, genera una vulnerabilidad de tipo organizativo: la incapacidad de explicar las decisiones de la IA frente a auditores, reguladores o clientes. La opacidad del modelo dificulta la detección de errores, el análisis de sesgos y la implementación de medidas correctoras, creando un riesgo de cumplimiento normativo y reputacional.

  1. Ciberseguridad aplicada a la IA

Los sistemas de IA, al integrarse en infraestructuras digitales críticas, se convierten en objetivos de ciberataques. Estos pueden dirigirse tanto a los datos como a los modelos o a las plataformas de despliegue. Entre los riesgos se encuentran la manipulación maliciosa de modelos, la denegación de servicio y la explotación de vulnerabilidades en entornos de aprendizaje federado. La protección de la IA requiere una aproximación en capas, que combine ciberseguridad tradicional con medidas específicas de protección de modelos.

  1. Riesgos medioambientales y de sostenibilidad

Más allá de las amenazas técnicas, la IA plantea vulnerabilidades relacionadas con el impacto medioambiental. El entrenamiento de modelos de gran escala implica consumos energéticos y emisiones de carbono significativas. Esta dimensión, a menudo ignorada en la evaluación de riesgos, debe ser considerada como un elemento de vulnerabilidad organizativa y social, que exige la adopción de métricas y políticas de eficiencia energética, así como la selección de soluciones que minimicen la huella ambiental.

  1. Riesgos regulatorios y de cumplimiento

La evolución del marco normativo, tanto a nivel europeo (AI Act) como internacional, introduce un riesgo de incumplimiento para organizaciones que desarrollan o despliegan IA sin un marco de gobernanza adecuado. La falta de alineamiento con estos requisitos puede derivar en sanciones económicas, restricciones operativas y pérdida de legitimidad institucional.

4.2.4 Retos y problemas del caso de uso

La identificación de amenazas y vulnerabilidades en sistemas de inteligencia artificial (IA) constituye un paso crítico en el proceso de definición de casos de uso. No se trata únicamente de evaluar riesgos técnicos, sino de comprender su impacto en la confianza, la sostenibilidad y la adopción responsable de estas tecnologías. Las principales áreas de riesgo se pueden estructurar en torno a los siguientes ejes:

  1.  Riesgos para la privacidad y la protección de datos

La IA opera sobre grandes volúmenes de datos, muchos de ellos sensibles. Amenazas como la re-identificación de individuos en datasets anonimizados, el uso indebido de información personal o la falta de cumplimiento de marcos regulatorios (como el RGPD en Europa) constituyen vulnerabilidades críticas. Además, la expansión de técnicas de machine learning incrementa la superficie de exposición de datos, lo que obliga a incorporar desde el diseño (privacy by design) medidas como la privacidad diferencial, los datos sintéticos o el cifrado homomórfico.

  1. Sesgos y equidad en los modelos

La dependencia de datos históricos introduce el riesgo de reproducir y amplificar sesgos sociales, culturales o económicos. Estos sesgos no solo afectan la equidad en la toma de decisiones, sino que deterioran la legitimidad del sistema de IA frente a la sociedad. La falta de representatividad de los datos o de mecanismos de validación adecuados puede generar resultados discriminatorios, especialmente en ámbitos como la contratación, la concesión de crédito o la gestión de recursos públicos.

  1. Robustez, resiliencia y ataques adversariales

Los modelos de IA pueden ser objeto de ataques que manipulen sus entradas para alterar los resultados (adversarial examples), o que extraigan información sensible de los datos de entrenamiento (data poisoning y model inversion). Estas vulnerabilidades cuestionan la robustez del sistema y su capacidad para operar de manera confiable en entornos complejos o hostiles. La ausencia de mecanismos de defensa adecuados compromete no solo la seguridad técnica, sino también la continuidad de negocio y la confianza en el sistema.

  1. Explicabilidad y trazabilidad

La falta de transparencia en algoritmos complejos, como los modelos de deep learning, genera una vulnerabilidad de tipo organizativo: la incapacidad de explicar las decisiones de la IA frente a auditores, reguladores o clientes. La opacidad del modelo dificulta la detección de errores, el análisis de sesgos y la implementación de medidas correctoras, creando un riesgo de cumplimiento normativo y reputacional.

  1. Ciberseguridad aplicada a la IA

Los sistemas de IA, al integrarse en infraestructuras digitales críticas, se convierten en objetivos de ciberataques. Estos pueden dirigirse tanto a los datos como a los modelos o a las plataformas de despliegue. Entre los riesgos se encuentran la manipulación maliciosa de modelos, la denegación de servicio y la explotación de vulnerabilidades en entornos de aprendizaje federado. La protección de la IA requiere una aproximación en capas, que combine ciberseguridad tradicional con medidas específicas de protección de modelos.

  1. Riesgos medioambientales y de sostenibilidad

Más allá de las amenazas técnicas, la IA plantea vulnerabilidades relacionadas con el impacto medioambiental. El entrenamiento de modelos de gran escala implica consumos energéticos y emisiones de carbono significativas. Esta dimensión, a menudo ignorada en la evaluación de riesgos, debe ser considerada como un elemento de vulnerabilidad organizativa y social, que exige la adopción de métricas y políticas de eficiencia energética, así como la selección de soluciones que minimicen la huella ambiental.

  1. Riesgos regulatorios y de cumplimiento

La evolución del marco normativo, tanto a nivel europeo (AI Act) como internacional, introduce un riesgo de incumplimiento para organizaciones que desarrollan o despliegan IA sin un marco de gobernanza adecuado. La falta de alineamiento con estos requisitos puede derivar en sanciones económicas, restricciones operativas y pérdida de legitimidad institucional.

4.2.5 Consideraciones de fiabilidad

La fiabilidad en los sistemas de inteligencia artificial (IA) no es un concepto aislado. Es la condición que asegura que la tecnología pueda ser adoptada, supervisada y utilizada con confianza tanto dentro de la organización como por parte de clientes, socios o reguladores. Un sistema fiable es aquel que:

  1. Funciona de forma consistente en el tiempo.
  2. Puede ser verificado y auditado.
  3. Responde a las expectativas de todas las partes interesadas.
  4. Genera confianza en el conjunto de la organización.

    1. Consistencia técnica

El primer paso para garantizar fiabilidad es demostrar que la IA produce resultados coherentes y reproducibles. Para ello, las organizaciones deben aplicar un conjunto de prácticas técnicas que reduzcan la variabilidad:

  • Pruebas de estrés y escenarios adversos: comprobar cómo responde el sistema ante cambios bruscos de datos o situaciones no previstas.
  • Monitorización en producción: detectar desviaciones del modelo (model drift o data drift) que puedan alterar la calidad de los resultados.
  • Mantenimiento de modelos: ajustar los algoritmos cuando cambian los patrones de los datos o el contexto operativo.
  • Redundancia y resiliencia: contar con mecanismos alternativos que garanticen la continuidad si el sistema falla.

Un sistema consistente transmite seguridad: ofrece siempre resultados similares cuando se enfrenta a problemas similares.

  2. Verificabilidad y auditabilidad

No basta con que el sistema “funcione”; hay que poder demostrarlo. La verificabilidad implica que el desempeño del sistema puede ser comprobado con métricas claras y, sobre todo, auditado de manera independiente.

  • Trazabilidad: cada resultado del sistema debe estar vinculado a las fuentes de datos y a las decisiones intermedias que lo generaron.
  • Explicabilidad (XAI): permitir que los usuarios y auditores entiendan por qué un algoritmo ha tomado una decisión concreta.
  • Auditorías periódicas: tanto internas como externas, siguiendo marcos reconocidos (ej. NIST AI RMF en EE. UU. o las recomendaciones de la UE).
  • Registros documentales: reportes de entrenamiento, validación y uso que sirvan como “caja negra” para supervisar la evolución del sistema.

Esta dimensión es especialmente relevante frente a reguladores y autoridades, ya que la fiabilidad no puede ser solo una percepción, sino un hecho probado.

  3. Expectativas de los stakeholders

La fiabilidad no tiene el mismo significado para todos. Cada grupo de interés espera algo diferente del sistema:

  • Equipos internos: buscan que la IA reduzca errores y mejore la eficiencia operativa. Un modelo que falla en tareas básicas pierde rápidamente credibilidad dentro de la organización.
  • Clientes y usuarios finales: esperan resultados justos, transparentes y libres de sesgos. En este sentido, la fiabilidad también se vincula a la percepción de equidad.
  • Reguladores y supervisores: exigen cumplimiento legal, seguridad, protección de datos y respeto a principios éticos. La fiabilidad, para ellos, es sinónimo de cumplimiento verificable.

Un buen sistema de gestión traduce estas expectativas en indicadores medibles, como tasas de error aceptables, acuerdos de nivel de servicio (SLAs), o métricas específicas de privacidad y seguridad.

  4. Confianza organizacional y gobernanza

Asegurar la fiabilidad también implica dotarse de estructuras de gobernanza que velen por ella de forma continua. Las organizaciones más avanzadas han creado:

  • Comités de IA responsables de supervisión y priorización.
  • Foros de validación de modelos y gestión de riesgos.
  • Órganos de auditoría internos y externos especializados en IA.

Estos espacios no solo revisan los aspectos técnicos, sino que alinean la fiabilidad con la estrategia de negocio y con los compromisos sociales y medioambientales de la organización. La gobernanza convierte la fiabilidad en un atributo institucionalizado, y no en un rasgo puntual de un proyecto concreto.

  5.Fiabilidad como ventaja competitiva

Más allá de la obligación técnica o regulatoria, la fiabilidad se convierte en un diferenciador estratégico. Una IA percibida como fiable genera confianza en clientes, atrae colaboraciones con otras organizaciones y reduce riesgos reputacionales. De hecho, en un contexto donde la IA es cada vez más cuestionada por sesgos, falta de transparencia o impactos sociales, la fiabilidad puede marcar la diferencia entre una innovación aceptada o rechazada.

4.2.6 KPIs para medir el éxito

La medición del éxito en los casos de uso de inteligencia artificial exige un enfoque estructurado que combine objetividad, alineación estratégica y equilibrio entre métricas cuantitativas y cualitativas. Para evitar arbitrariedad en el proceso, resulta imprescindible definir un marco metodológico claro que guíe tanto la creación como la validación de los indicadores clave de desempeño (KPIs).

  1. Proceso de creación de KPIs

El punto de partida es la definición compartida de qué significa “éxito” para cada parte interesada. Esto implica articular expectativas desde tres niveles:

  • Negocio, donde los KPIs deben reflejar creación de valor, eficiencia y diferenciación en el mercado.
  • Tecnología, donde se evalúa la robustez, escalabilidad y resiliencia del sistema de IA.
  • Sociedad y regulador, donde la atención se centra en la sostenibilidad, el cumplimiento normativo y la confianza generada.

Una vez definido este marco, se recomienda establecer mecanismos de gobernanza que incluyan la participación de perfiles técnicos, de gestión y de validación ética, de manera que los KPIs no se reduzcan a métricas operativas desconectadas del impacto global.

  1. Categorías de KPIs

Para que la medición sea integral, los KPIs se agrupan en cuatro grandes categorías:

  • KPIs técnicos: reflejan la capacidad del sistema para operar de manera fiable y eficiente. Ejemplos: precisión en predicciones, disponibilidad del sistema, tiempos de respuesta, escalabilidad en producción.
  • KPIs de negocio: cuantifican el impacto económico y la adopción organizativa. Ejemplos: ahorro en costes operativos, incremento de ingresos derivados de IA, porcentaje de procesos automatizados, tasa de adopción por parte de empleados o clientes.
  • KPIs de sostenibilidad: miden el aporte al cumplimiento de objetivos medioambientales y sociales. Ejemplos: reducción de huella de carbono en procesos automatizados, eficiencia energética de los modelos, número de proyectos alineados con los ODS.
  • KPIs de confianza y gobernanza: garantizan que el sistema se perciba como seguro, ético y regulatoriamente conforme. Ejemplos: frecuencia de auditorías realizadas, número de incidentes de sesgo detectados y corregidos, nivel de explicabilidad alcanzado en modelos críticos.

    3. Ejemplos representativos

A nivel ilustrativo, se pueden plantear ejemplos de cada categoría:

Categoría

Ejemplo de KPI

Descripción de indicador

Técnicos

Precisión del modelo (%)

Porcentaje de aciertos en predicciones frente a datos reales

Tiempo medio de respuesta [ms]

Velocidad con la que el sistema devuelve resultados en producción

Disponibilidad del sistema [%]

Porcentaje de tiempo en que el sistema está plenamente operativo

Incidentes críticos reportados [#]

Número de fallos técnicos en producción con impacto relevante.

Consumo energético por inferencia [kWh]

Eficiencia energética de los modelos en producción.

De negocio

ROI del caso de uso [%]

Relación entre beneficios obtenidos y costes asociados a la implantación.

Incremento de ingresos atribuibles a IA [%]

Mejora en ventas u otros ingresos generados por IA.

Reducción de costes operativos [%]

Porcentaje de ahorro frente al proceso previo.

Tasa de adopción interna [%]

Proporción de empleados que utilizan activamente la solución.

Tiempo de puesta en producción [meses]

Velocidad con la que se despliega un MVP o caso completo.

De sostenibilidad

Reducción de emisiones de CO₂ [t/año]

Disminución de gases de efecto invernadero atribuibles al uso de IA.

Casos alineados con los ODS [%]

Nivel de contribución de los proyectos a los Objetivos de Desarrollo Sostenible.

Consumo energético por entrenamiento [kWh]

Impacto ambiental del entrenamiento de modelos.

Reducción de recursos físicos [%]

Eficiencia en el uso de materiales gracias a digitalización con IA.

De confianza y gobernanza

Auditorías de IA completadas [#]

Verificaciones internas o externas de seguridad, ética y cumplimiento.

Sesgos detectados y corregidos [#]

Casos identificados de discriminación y medidas correctivas aplicadas.

Explicabilidad del modelo [escala 1–5]

Grado en que los outputs pueden ser interpretados por humanos.

Índice de satisfacción de usuarios [NPS, etc.]

Percepción de confianza y valor aportado por la solución de IA.

Grado de cumplimiento regulatorio [%]

Grado de conformidad frente a estándares o normativas (ej. GDPR, AI Act).

 

  4. Evaluación y criterios de aceptación

Definir los KPIs es solo el primer paso: su utilidad depende de establecer criterios claros de aceptación. Esto supone:

  • Fijar umbrales de desempeño (ej. “precisión mínima del 90%” o “reducción de al menos un 15% en costes”).
  • Garantizar la revisión periódica para ajustar los KPIs a medida que evolucionan el caso de uso, el mercado o las exigencias regulatorias.
  • Incorporar criterios cualitativos como la percepción de confianza de clientes o la reputación organizativa, que aportan una dimensión que los datos duros no capturan.

    5. Equilibrio entre cuantitativo y cualitativo

Un riesgo habitual en los proyectos de IA es sobreponderar los indicadores cuantitativos (precisión, ROI, ahorros), dejando en un segundo plano los cualitativos (confianza, satisfacción, reputación). El equilibrio entre ambos permite capturar no solo la eficiencia operativa, sino también la aceptación social y organizativa, elementos críticos para la sostenibilidad del caso de uso a largo plazo.