4 Modelos preentrenados y fundacionales

El uso de modelos preentrenados y fundacionales es una de las estrategias más efectivas para optimizar la eficiencia energética en los casos de uso en los que es necesario usar IA Generativa. En lugar de entrenar modelos desde cero, reutilizar modelos existentes permite reducir el consumo computacional sin sacrificar el rendimiento.

4.1 Beneficios del uso de modelos preentrenados y fundacionales

El uso de modelos preentrenados aporta múltiples ventajas en términos de sostenibilidad y eficiencia:

  • Reducción del consumo energético: El entrenamiento de modelos grandes desde cero consume grandes cantidades de energía. Usar modelos preentrenados evita este proceso y disminuye el impacto ambiental.
  • Menor tiempo de desarrollo: Los modelos preentrenados permiten implementar soluciones más rápido, ya que requieren menos entrenamiento específico.
  • Optimización del uso de datos: Estos modelos han sido entrenados con grandes volúmenes de datos y pueden generalizar mejor, reduciendo la necesidad de recopilar y procesar nuevos datos masivos.
  • Mejor rendimiento con menor cómputo: Modelos preentrenados bien optimizados pueden alcanzar una precisión competitiva con menos recursos computacionales.
  • Accesibilidad y democratización de la IA: Facilitan el acceso a modelos avanzados sin la necesidad de grandes infraestructuras de cómputo.

4.2 Métodos para la reutilización y adaptación de modelos preentrenados

Transfer Learning (aprendizaje por transferencia)

El aprendizaje por transferencia permite ajustar modelos preentrenados para nuevas tareas con un costo computacional significativamente menor. Existen tres enfoques principales:

  • Feature extraction (extracción de características): Se usan las capas intermedias del modelo preentrenado para extraer características útiles sin necesidad de modificar los pesos del modelo original.
  • Fine-tuning parcial o total: Se ajustan algunas o todas las capas del modelo con datos específicos para una tarea concreta, permitiendo que el modelo se adapte mejor a un nuevo dominio.
  • Few-shot Learning: Se adapta el modelo con una cantidad mínima de ejemplos, reduciendo la necesidad de grandes conjuntos de datos y entrenamiento intensivo.


    Knowledge Distillation (destilación de conocimiento)

Esta técnica permite entrenar modelos más pequeños y eficientes a partir de modelos más grandes sin perder precisión. Se basa en un esquema teacher-student, en el que un modelo grande (teacher) transfiere su conocimiento a un modelo más liviano (student), el cual logra eficiencia computacional con un rendimiento similar.
 

  Modelos modulares y reutilizables

Los modelos modulares y reutilizables permiten descomponer una arquitectura de inteligencia artificial en componentes independientes que pueden adaptarse y reutilizarse en múltiples tareas sin necesidad de entrenar un modelo completo desde cero. Este enfoque mejora la eficiencia energética y reduce el costo computacional, ya que se pueden modificar solo ciertas partes del modelo en lugar de ajustar toda la red neuronal. Algunos de sus beneficios son:

  • Mayor flexibilidad: Permiten adaptar modelos para distintas aplicaciones sin modificar su estructura central.
  • Eficiencia en memoria: Se pueden cargar solo los módulos relevantes para una tarea específica, optimizando el uso de hardware.

Algunos ejemplos de su implantación en modelos son los siguientes:

  • BERT modular: En lugar de ajustar todo el modelo BERT para cada nueva tarea, es posible reutilizar solo la capa de embeddings o la última capa de atención para tareas específicas como clasificación de texto o reconocimiento de entidades.
  • GPT-3 con adaptadores: Se pueden integrar capas adicionales (adapters) en modelos como GPT-3, permitiendo su especialización sin modificar los pesos originales del modelo completo.

El uso de modelos modulares facilita la creación de pipelines de IA sostenibles, donde distintos módulos pueden ejecutarse en hardware optimizado según la carga de trabajo, reduciendo el desperdicio de recursos.

 Modelos basados en grafos (Graph Neural Networks, GNNs)

Las Graph Neural Networks (GNNs) han surgido como una alternativa más eficiente en ciertas tareas donde los datos tienen una estructura relacional. A diferencia de redes neuronales tradicionales, los GNNs pueden representar relaciones complejas entre entidades de manera más compacta y eficiente, reduciendo el número de cálculos redundantes y el consumo energético. Algunos de sus beneficios son:

  • Menor carga computacional: En comparación con redes densas o convolucionales, los GNNs procesan solo las conexiones relevantes, reduciendo la cantidad de operaciones necesarias.
  • Optimización en tareas estructuradas: Para problemas donde la información se representa como grafos (redes sociales, sistemas de recomendación, moléculas en química computacional), los GNNs aprovechan mejor la estructura de los datos y minimizan el desperdicio computacional.
  • Mejor escalabilidad: Los GNNs pueden operar en entornos distribuidos con menor costo computacional en comparación con modelos basados en transformers o redes densas profundas.

Algunos ejemplos de su uso son los siguientes:

  • Análisis de redes sociales: Empresas como Twitter y Facebook utilizan GNNs para detectar comunidades, recomendar contenido y analizar patrones de interacción entre usuarios.
  • Sistemas de recomendación: Plataformas como Amazon y Netflix emplean GNNs para modelar relaciones entre productos y usuarios, mejorando la eficiencia de las recomendaciones sin necesidad de procesar grandes volúmenes de datos de forma tradicional.
  • Predicción de estructuras moleculares: En biotecnología y química computacional, los GNNs se utilizan para modelar interacciones entre átomos y predecir propiedades de moléculas con menor consumo computacional que simulaciones tradicionales.

A diferencia de los modelos basados en transformers, que procesan datos en secuencias o en matrices densas, los GNNs optimizan el procesamiento al trabajar directamente con estructuras relacionales, lo que los convierte en una opción sostenible para tareas específicas con datos interconectados.

4.3 Estrategias de despliegue sostenible de modelos

Una vez que se selecciona un modelo preentrenado o fundacional, es fundamental garantizar que su despliegue sea lo más eficiente posible. Algunas estrategias clave incluyen:

Inferencia optimizada
  • Uso de hardware especializado: Implementar modelos en TPUs, GPUs de baja potencia o chips dedicados a IA para reducir el consumo energético.
  • Compresión y optimización del modelo: Aplicar técnicas como podado y cuantización para reducir el tamaño del modelo sin afectar el rendimiento.
  • Ajustar el tamaño del lote/batch: Agrupar solicitudes de inferencia para mejorar la eficiencia del hardware y reducir el uso innecesario de recursos.
  • Early exiting: detener el proceso de inferencia en capas intermedias cuando la predicción alcanza un nivel de confianza suficiente.
Early Exiting

El Early Exit (salida temprana) es una técnica de optimización para modelos de lenguaje grandes (LLMs) que permite detener el proceso de inferencia en capas intermedias cuando la predicción alcanza un nivel de confianza suficiente. Esto evita ejecutar todas las capas del modelo, reduciendo significativamente el consumo de energía y la latencia, especialmente útil en aplicaciones en tiempo real como generación de código.

¿Cómo funciona?

  1. Capas de Salida Intermedias:
    • Se identifican capas en el modelo donde la salida puede ser suficientemente precisa.
    • Ejemplo: En un modelo de 32 capas, la predicción podría ser válida en la capa 10, evitando procesar las 22 restantes.
  2. Mecanismo de Decisión:
    • Basado en Confianza: Si la salida de una capa supera un umbral de confianza, se devuelve como resultado final.
    • Aprendizaje por Refuerzo (RL): Un agente entrenado decide dinámicamente cuándo salir, optimizando el equilibrio entre precisión y eficiencia (como en GREEN-CODE).
  3. Single LM Head:
    • Alternativa a múltiples cabezales de salida, usando fine-tuning con pérdida agregada para habilitar salidas tempranas sin añadir parámetros extra.

Ventajas

  • Ahorro Energético: Reduce el consumo entre 23–50% (ejemplo: GREEN-CODE en Llama 3.2).
  • Baja Pérdida de Precisión: Mantiene métricas como CodeBLEU cerca del modelo completo.
  • Adaptabilidad: Útil en entornos con restricciones de hardware (ej.: dispositivos locales).

Casos de Uso

  • Generación de Código: Herramientas como GitHub Copilot, donde la velocidad y eficiencia son críticas.
  • Inferencia en Edge Computing: Modelos desplegados en dispositivos con recursos limitados.
  • Aplicaciones en Tiempo Real: Asistentes de programación que requieren baja latencia.

Implementación Práctica

  1. Fine-tuning del Modelo:
    • Aplicar una función de pérdida agregada (ej.: Loss = Σ(w_i · loss_i)) para entrenar capas intermedias.
    • Asignar pesos decrecientes a capas profundas (mayor peso a primeras capas).
  2. Agente de RL para Salidas Dinámicas:
    • Entrenar con recompensas basadas en precisión, energía y latencia.
    • Ejemplo de recompensa:
  3. Integración en Pipelines:
    • Usar frameworks como Gymnasium para RL o Hugging Face para despliegue.

recompensa = 1 si predicción es correcta y capa óptima 

recompensa = -α si es correcta pero en capa no óptima 

recompensa = -β si es incorrecta y temprana 

Desafíos y Consideraciones

  • Balance Precisión-Eficiencia: Configurar correctamente umbrales de confianza o políticas de RL.
  • Compatibilidad con KV Caching: Optimizar la gestión de caché en salidas tempranas.
  • Overhead del RL: El agente añade un pequeño costo computacional (~5–10% en GREEN-CODE).

Ejemplo en Código (Pseudocódigo)

# Early Exit con umbral de confianza 

for capa in modelo.capas: 

    salida = capa(entrada) 

    confianza = softmax(salida).max() 

    if confianza > umbral: 

        return salida  # Early Exit 

return salida  # Salida estándar (todas las capas) 

Optimización de tamaño por lote

El procesamiento por lotes (batching) es una técnica clave para mejorar la eficiencia energética y el rendimiento en la inferencia de modelos de lenguaje grandes (LLMs). Consiste en agrupar múltiples solicitudes de inferencia en un único lote para procesarlas simultáneamente, en lugar de manejar cada entrada de forma individual.

1. Beneficios del Procesamiento por Lotes

  • Eficiencia energética:
    • Las GPU funcionan de manera óptima cuando procesan datos en paralelo. Agrupar solicitudes reduce el consumo de energía por inferencia (hasta un 30–40% según el artículo analizado).
    • Ejemplo: Procesar un lote de 8 muestras consume menos energía total que procesar 8 muestras de una en una.
  • Maximización de recursos:
    • Evita el subutilización de hardware (ej.: GPU con capacidad ociosa).
    • Ideal para entornos de servidor con alta demanda de solicitudes simultáneas.
  • Balanceo de carga:
    • Optimiza la asignación de recursos, especialmente en despliegues en la nube.
  • Rendimiento acelerado:
    • Aprovecha el paralelismo masivo de GPUs/TPUs, aumentando el throughput (tokens/segundo).

2. Cuándo Usar Batching

  • Escenarios ideales:
    • Aplicaciones no en tiempo real (ej.: generación de informes, preprocesamiento de datos).
    • Entornos con múltiples solicitudes concurrentes (ej.: APIs de inferencia con colas de peticiones).
  • Limitaciones:
    • Latencia: En aplicaciones que requieren respuestas inmediatas (ej.: chatbots), el batching puede aumentar el tiempo de respuesta individual.
    • Memoria: Lotes muy grandes pueden saturar la VRAM de la GPU.

3. Recomendaciones Prácticas

Para máxima eficiencia energética:

  • Usa batches grandes (8-32) en tareas no críticas de latencia
  • Reduce el batch size (1-4) para aplicaciones en tiempo real
  • Ajusta según tu hardware:
    • GPUs pequeñas (24GB): 1-8
    • GPUs grandes (40GB+): 8-16

Para optimizar rendimiento:

  • Comienza con batch_size=8 y ajusta gradualmente
  • Monitorea el uso de VRAM (mantén <90%)
  • Usa herramientas como vLLM para gestión automática

Ejemplo práctico:

  • Mistral-7B con batch_size=8:
    • 25% menos consumo energético
    • 3.6x más throughput (5→18 tokens/seg)

4. Ejemplo de Implementación

from transformers import pipeline 

# Configurar pipeline con batch_size óptimo 

pipe = pipeline( 

   task="text-generation", 

   model="mistralai/Mistral-7B", 

    device="cuda", 

    batch_size=8  # Ajustar según memoria y latencia permitida ) 

# Procesar múltiples entradas en un lote 

inputs = ["Resumen del artículo:...", "Traduce a inglés:...", ...] 

outputs = pipe(inputs)  # Procesamiento paralelo 

Monitorización:

bash

Copy

nvidia-smi -l 1  # Verificar uso de VRAM y potencia en tiempo real 

5. Equilibrio Energía-Latencia

  • Estrategia híbrida:
    • Usar batching dinámico: Agrupar solicitudes recibidas en una ventana de tiempo (ej.: 50 ms) antes de procesar.
    • Librerías como NVIDIA Triton Inference Server permiten esta configuración.
  • Caso de éxito del artículo:
    • En SQuADv2, aumentar el batch size de 1 a 8 redujo el consumo energético un 24% manteniendo la precisión.

6. A tener en cuenta

  • Evitar desbordamiento de memoria:
    • Calcular el batch_size máximo con: batch_size_max = VRAM_disponible / VRAM_por_muestra 
  • Aplicaciones en tiempo real:
    • Si la latencia es crítica, limitar el batch size a 1–2 o usar inferencia asíncrona.

      Sistemas Duales Dinámicos 

Los sistemas duales dinámicos representan un enfoque innovador para optimizar el consumo energético en procesos de inferencia, particularmente relevante en escenarios donde se requiere mantener alta precisión mientras se maximiza la eficiencia. Esta técnica se basa en la implementación coordinada de dos modelos complementarios: un modelo completo que garantiza máxima precisión para casos complejos, y un modelo optimizado de menor tamaño para procesar entradas más simples con mayor eficiencia.

Fundamento Técnico:
El sistema opera mediante un mecanismo de clasificación inicial que analiza características clave de cada input (como complejidad de imagen, nivel de ruido o claridad de patrones) para determinar qué modelo debe procesarlo. Este clasificador de decisión está diseñado para ser extremadamente ligero, típicamente añadiendo menos del 1% de sobrecarga computacional al proceso general. Estudios recientes demuestran que en muchos conjuntos de datos reales, entre el 60-80% de las entradas pueden ser procesadas adecuadamente por el modelo eficiente sin pérdida significativa de calidad en los resultados.

Ventajas Clave:

  • Eficiencia energética: Reducciones de hasta el 40% en consumo energético durante inferencia
  • Preservación de precisión: Mantenimiento de más del 98% de la precisión original del modelo completo
  • Flexibilidad: Adaptabilidad a diferentes arquitecturas de modelo y dominios de aplicación
  • Escalabilidad: Capacidad para ajustar los umbrales de decisión según requisitos específicos

Consideraciones de Implementación:
La implementación efectiva requiere cuidadosa consideración de varios factores. Primero, la selección o desarrollo del modelo ligero debe equilibrar adecuadamente reducción de parámetros con capacidad predictiva. Segundo, el clasificador de decisión necesita entrenamiento con datos representativos para evitar errores de enrutamiento. Tercero, es esencial establecer protocolos de monitorización continua que verifiquen el balance entre eficiencia y precisión en producción.

Casos de Uso Ideales:
Esta técnica muestra particular efectividad en:

  1. Dispositivos IoT con limitaciones energéticas
  2. Aplicaciones de edge computing con recursos restringidos
  3. Escenarios donde la distribución de entradas muestra variabilidad significativa en complejidad
  4. Sistemas que requieren alta disponibilidad con consumo energético mínimo

Integración con Otras Técnicas:
Los sistemas duales pueden potenciarse mediante su combinación con:

  • Cuantización (para optimizar el modelo eficiente)
  • Pruning (para reducir ambos modelos)
  • Compresión de modelos (para minimizar huella de memoria)
  • Técnicas de caching para inputs recurrentes

Recomendaciones Operativas:
Para implementación exitosa:
Realizar análisis exhaustivo de distribución de complejidad de inputs
Diseñar pipeline de evaluación continua de desempeño
Establecer mecanismos de fallover al modelo completo cuando haya incertidumbre
Documentar claramente los criterios de enrutamiento para auditoría

Impacto Esperado:
Adopción adecuada de esta técnica puede generar:
→ Reducción sustancial de costos operativos en despliegues a escala
→ Extensión de vida útil en dispositivos con batería limitada
→ Mantenimiento de altos estándares de calidad en resultados
→ Mayor sostenibilidad en operaciones de IA intensivas

Este enfoque representa un equilibrio práctico entre eficiencia y precisión, particularmente valioso en contextos donde la optimización de recursos es crítica sin comprometer capacidades esenciales del sistema.

Estrategias de optimización de inferencia a gran escala

La inferencia a gran escala introduce desafíos adicionales respecto al consumo energético y la latencia debido al alto volumen de solicitudes y la diversidad de inputs. Para maximizar eficiencia sin comprometer la precisión, se combinan las técnicas descritas en secciones previas (Early Exiting, compresión de modelos, hardware especializado, batching individual) con estrategias específicas de gran escala:

Batching Dinámico

  • Agrupar solicitudes en lotes permite aprovechar el paralelismo de GPU/TPU, reduciendo el consumo energético por inferencia y aumentando el throughput.
  • A gran escala, el tamaño del lote se ajusta dinámicamente según la carga del sistema y la latencia requerida, manteniendo eficiencia sin degradar la experiencia del usuario.

Caching de Inferencias

  • Almacenar resultados de inferencias recurrentes (embeddings, predicciones frecuentes) evita recomputaciones innecesarias.
  • Reduce significativamente la carga computacional y el consumo energético, especialmente útil cuando se procesan inputs repetitivos o patrones de consulta comunes.

Control Dinámico de Inferencias

  • Aplicar mecanismos que ajusten en tiempo real qué modelo, capas o recursos se usan según la complejidad del input y la demanda del sistema.
  • Incluye estrategias como Early Exiting y sistemas duales dinámicos, garantizando precisión mientras se optimiza el uso de hardware y energía.

Integración con Técnicas Previas

  • Las técnicas de compresión de modelos, pruning, cuantización y despliegue en hardware especializado siguen siendo aplicables, potenciando los efectos de batching, caching y control dinámico.
  • La combinación de todas estas estrategias permite mantener un equilibrio óptimo entre eficiencia energética, latencia y precisión en entornos de gran volumen de inferencia.

    Aprovisionamiento dinámico de recursos
  • Escalado automático: Implementar estrategias de escalado horizontal y vertical para ajustar la cantidad de recursos según la demanda en tiempo real.
  • Uso de contenedores ligeros: Implementar modelos en entornos como Docker o Kubernetes para gestionar los recursos de manera eficiente.

    Despliegue en la nube con optimización energética
  • Selección de proveedores de nube sostenibles: Optar por servicios de computación en la nube que utilicen energía renovable y estrategias de eficiencia energética.
  • Uso de regiones con baja huella de carbono: Elegir centros de datos en regiones donde el mix energético favorezca fuentes renovables.

    Evaluación y monitoreo del impacto energético
  • Uso de herramientas de medición: Implementar métricas que evalúen el impacto energético del modelo en producción, comparándolo con otras alternativas. Las métricas estarán alineadas con la Especificación UNE para evaluar el impacto energético del modelo en producción y compararlo con alternativas equivalentes. Entre las métricas recomendadas se incluyen el consumo energético total por ejecución o periodo de operación (kWh), el consumo energético por inferencia o por lote de inferencias, la intensidad energética por unidad de rendimiento (por ejemplo, energía por predicción correcta) y las emisiones de CO₂ asociadas, calculadas a partir del mix energético empleado. Estas métricas permiten comparar distintos modelos, configuraciones o arquitecturas en términos de eficiencia energética real y apoyar la selección de la alternativa más sostenible para un mismo caso de uso.

Comparación con benchmarks: Realizar la comparación de la eficiencia energética del modelo frente a alternativas equivalentes mediante benchmarks definidos específicamente para el caso de uso, utilizando métricas homogéneas y condiciones de ejecución comparables. Las herramientas disponibles en la plataforma del PNAV pueden emplearse como apoyo para la medición del consumo energético del modelo, pero la definición de benchmarks y la comparación entre modelos debe realizarse a partir de ejecuciones controladas y criterios previamente establecidos, permitiendo evaluar qué configuraciones, arquitecturas o estrategias de despliegue ofrecen un menor impacto energético para un mismo nivel de rendimiento.

4.4 IA para optimizar IA

La optimización de modelos de inteligencia artificial (IA) mediante el uso de técnicas automatizadas y arquitecturas eficientes es fundamental para mejorar el rendimiento y reducir el consumo energético en aplicaciones a gran escala. Este enfoque se centra en dos áreas principales: la automatización del diseño de modelos (AutoML) y la implementación de arquitecturas de red neuronal eficientes.

AutoML: Automatización del diseño de modelos

AutoML busca automatizar el proceso de diseño de modelos de IA, permitiendo a usuarios con distintos niveles de experiencia desarrollar modelos de alto rendimiento. Este enfoque se centra en la automatización de tareas que tradicionalmente requieren intervención manual, como la selección de arquitecturas, la optimización de hiperparámetros o la ingeniería de características.

Las técnicas clave en AutoML incluyen:

  • Búsqueda de arquitectura neuronal (NAS): Esta técnica automatiza el diseño de arquitecturas de redes neuronales mediante la exploración sistemática de distintas configuraciones. Enfoques como ENAS (Efficient Neural Architecture Search) utilizan estrategias de reutilización de parámetros para reducir el tiempo de búsqueda en comparación con métodos de búsqueda exhaustiva. No obstante, el proceso de búsqueda sigue implicando un coste computacional elevado, por lo que su impacto energético puede ser comparable o incluso superior al del entrenamiento tradicional de modelos cuando no se aplican restricciones explícitas.
  • Optimización de hiperparámetros: AutoML automatiza la selección de hiperparámetros como la tasa de aprendizaje, el número de capas o el tamaño del batch. Aunque esta automatización mejora la reproducibilidad y reduce la intervención manual, no implica necesariamente una reducción del consumo energético, ya que suele requerir la evaluación de múltiples configuraciones durante el proceso de optimización.
  • Ingeniería de características automatizada: La automatización de la selección y transformación de características puede mejorar la calidad de los datos de entrada y el rendimiento del modelo final. Sin embargo, desde el punto de vista energético, estos enfoques deben considerarse equivalentes a los procesos tradicionales de preprocesamiento, ya que su impacto ambiental depende del número de transformaciones evaluadas y del coste computacional asociado.

En conjunto, AutoML debe entenderse como una herramienta de automatización y estandarización del diseño de modelos, pero no como un enfoque que aporte beneficios medioambientales intrínsecos. Su impacto energético es, en general, comparable al de los enfoques tradicionales de entrenamiento y puede resultar incluso superior si no se aplican mecanismos de control, como la limitación del espacio de búsqueda o la reutilización de resultados previos.

Arquitecturas eficientes para IA

El diseño de arquitecturas eficientes para IA no debe limitarse a la aplicación de técnicas de optimización puntuales, sino que debe abordarse como una decisión estructural alineada con el caso de uso, el contexto de despliegue y los requisitos operativos del sistema. La elección de la arquitectura tiene un impacto directo en el consumo energético, especialmente durante la inferencia, que suele concentrar la mayor parte del uso real del modelo en producción.

En este sentido, resulta clave priorizar arquitecturas cuya complejidad esté ajustada a la tarea a resolver, evitando el sobredimensionamiento del modelo cuando no aporta mejoras significativas de rendimiento. El uso de modelos excesivamente complejos en escenarios donde los requisitos funcionales son moderados genera un consumo energético innecesario tanto en entrenamiento como en inferencia.

Asimismo, el diseño arquitectónico debe considerar el entorno de ejecución previsto. Modelos destinados a ejecutarse en dispositivos edge, sistemas embebidos o entornos con restricciones energéticas requieren arquitecturas específicamente adaptadas a estos contextos, mientras que en infraestructuras centralizadas puede priorizarse la eficiencia a escala o la reutilización de modelos preexistentes.

Otro aspecto relevante es la modularidad de las arquitecturas. El diseño de modelos compuestos por bloques reutilizables o desacoplados facilita la actualización parcial, la sustitución de componentes y la adaptación progresiva del sistema sin necesidad de reentrenar o desplegar modelos completos, reduciendo el consumo energético asociado al mantenimiento y evolución del sistema.

Finalmente, la selección de arquitecturas eficientes debe apoyarse en evaluaciones comparativas tempranas, considerando no solo métricas de precisión, sino también indicadores de coste computacional, latencia y consumo energético en condiciones representativas de uso. Este enfoque permite identificar arquitecturas que ofrecen el mejor equilibrio entre rendimiento y sostenibilidad para cada caso de uso concreto.

Integración de AutoML y arquitecturas eficientes

La combinación de AutoML y arquitecturas eficientes puede abordarse incorporando criterios de eficiencia (como tamaño del modelo, latencia o consumo de recursos) dentro del proceso de búsqueda automatizada. De este modo, AutoML puede identificar configuraciones que equilibran rendimiento y eficiencia para un caso de uso concreto. Técnicas como el pruning o la cuantización pueden aplicarse posteriormente como fase de ajuste, aunque el beneficio energético final no es automático y debe evaluarse comparando el coste del proceso de automatización con la eficiencia obtenida en el modelo resultante.