Selección de instancias en la nube vs. on-premise
- Factores clave: coste energético local, mix de generación eléctrica de la zona, eficiencia del centro de datos, latencia, coste de mantenimiento.
- La elección entre infraestructuras en la nube y sistemas on-premise debe basarse en el patrón de uso y en los requisitos del caso de uso. La nube resulta más adecuada cuando la carga de trabajo es variable o escalable, ya que permite ajustar dinámicamente los recursos y evitar el sobredimensionamiento, lo que reduce el consumo energético asociado a infraestructuras infrautilizadas. Además, es especialmente ventajosa para proyectos en fases tempranas, pilotos o casos de uso con picos de demanda intermitentes.
- Por el contrario, un sistema on-premise puede ser más eficiente cuando las cargas de trabajo son estables, intensivas y predecibles en el tiempo, y cuando la organización dispone de un centro de datos propio optimizado energéticamente. En estos escenarios, la amortización del hardware y el control directo sobre la infraestructura pueden traducirse en un consumo energético más constante y, potencialmente, más eficiente por unidad de cómputo.
Ajustes de GPU/TPU y CPU para consumo eficiente
- Usar modos de bajo consumo cuando no sea necesario todo el rendimiento; ajustar frecuencia de reloj, uso de memoria.
- Evitar sobreespecificar hardware: mejor usar hardware con las características suficientes para cumplir los requisitos en vez de hardware sobredimensionado que esté subutilizado.
- Actualizar drivers / firmware que permiten optimizaciones energéticas.
Técnicas de dynamic voltage and frequency scaling (DVFS)
- DVFS permite bajar o subir la frecuencia de CPU/GPU y su voltaje asociado según carga de trabajo, reduciendo consumo energético cuando la carga es baja o moderada.
- En hardware moderno se puede configurar para que la frecuencia se ajuste automáticamente / manualmente. Se debe medir impacto en latencia o throughput.