
Los data centers (o centros de datos) son las fábricas invisibles de la era digital.
En esencia, son instalaciones físicas gigantescas que albergan miles de servidores informáticos, equipos de almacenamiento de datos y sistemas de red. Su función principal es alojar, procesar y distribuir la información que impulsa casi todo lo que hacemos online, desde enviar un correo electrónico y ver un video hasta usar aplicaciones de inteligencia artificial (IA) y realizar transacciones bancarias.
Son la infraestructura crítica que garantiza el funcionamiento continuo y seguro de la economía digital global, actuando como el cerebro y el sistema nervioso de Internet y de los servicios en la nube.
El núcleo de un data center es el equipo informático que procesa la información:
-Servidores (Compute): Son computadoras de alto rendimiento apiladas en racks (estantes). Estos servidores ejecutan las aplicaciones, los sitios web y los servicios en la nube. Un solo data center puede albergar decenas de miles de servidores.
-Almacenamiento (Storage): Son grandes sistemas de discos duros o unidades de estado sólido (SSD) donde se guarda toda la información. Esto incluye bases de datos, copias de seguridad, archivos de video, fotos y documentos.
-Networking (Redes): Switches y routers de alta velocidad que actúan como la autopista dentro del data center, dirigiendo el tráfico de datos entre los servidores y hacia el exterior (Internet). Son los que permiten que la información viaje rápidamente.
Una infrastructura gigantesca
Dentro de esta infraestructura se encuentran servidores y dispositivos de alto rendimiento que almacenan, protegen y procesan datos.
Para un funcionamiento óptimo, se utilizan routers de nivel empresarial, sistemas de enfriamiento, fuentes de energía ininterrumpida, entre otros elementos esenciales.
Este proceso suele requerir un suministro eléctrico constante las 24 horas, lo que dificulta la gestión de la carga por parte de las compañías eléctricas.
Además, implica que estas instalaciones necesitan equipos eléctricos de alta capacidad, como transformadores, interruptores automáticos y, a menudo, nuevas subestaciones para conectarse a las líneas de transmisión. Toda esta energía genera mucho calor, por lo que, a lo largo de los pasillos del centro, se encuentran diversos intercambiadores de calor y sistemas de refrigeración complejos.
Demanda energética
A medida que la Inteligencia Artificial se expande, la demanda de capacidad de cómputo y, por ende, de data centers, se dispara. Esto tiene una implicación directa y preocupante en el consumo de energía.
Según análisis, el auge de la IA está planteando un reto energético significativo. Los modelos de lenguaje grande (LLMs) como los que impulsan sistemas como ChatGPT requieren una cantidad colosal de procesamiento y entrenamiento, que se traduce en una demanda eléctrica masiva para los data centers que los sustentan.
El proceso de entrenamiento de un único modelo de IA de última generación puede consumir una cantidad de energía equivalente a la utilizada por miles de hogares en un año. Además, cada interacción o “consulta” a estos modelos sigue requiriendo una cantidad de electricidad considerable.
Gran parte de este consumo no es solo por la computación en sí, sino por la necesidad de refrigerar los servidores. Los equipos de alto rendimiento generan un calor extremo, y los data centers deben operar sistemas de enfriamiento 24/7 para evitar el sobrecalentamiento y las fallas.
Por eso, hay serias dudas sobre la sostenibilidad ambiental de la actual carrera por la supremacía en IA, exigiendo una reevaluación de las prácticas de eficiencia energética y un mayor enfoque en el uso de energías renovables para alimentar estas infraestructuras vitales.
La propuesta del sur global
En un movimiento que busca capitalizar las condiciones geográficas y energéticas, se ha propuesto la instalación de un mega data center de IA en la Patagonia argentina, conocido como proyecto “Stargate Argentina”.
La iniciativa, impulsada por la alianza entre la empresa argentina Sur Energy y el gigante tecnológico OpenAI (creador de ChatGPT), prevé una inversión multimillonaria (se habla de hasta US$25.000 millones) y tiene como objetivo crear un polo tecnológico en el sur del país.
Las bajas temperaturas de la región patagónica ofrecen una ventaja clave para la refrigeración de los servidores. El uso de aire frío exterior reduciría drásticamente el consumo energético asociado al enfriamiento artificial, uno de los principales gastos operativos de un data center. Aunque con certeza, no es la única zona fría del mundo. Por eso, hay cuestionamientos sobre la elección de la locación por parte de activistas que señalan que el atractivo principal es la lejanía de países del sur global de los ánimos regulatorios de los países del norte del mundo, de donde provienen los capitales.
El proyecto tiene promotores y detractores. Para los primeros, es visto como una oportunidad histórica para posicionar a la Argentina como un centro de cómputo de IA a nivel global, generando empleo calificado y atrayendo inversión.
Para los otros, despierta preocupaciones sobre el extractivismo digital, la dependencia tecnológica y el potencial impacto en los recursos locales, especialmente el agua, en una zona que, si bien es fría, puede experimentar estrés hídrico.
El debate se centra en cómo maximizar los beneficios para el desarrollo nacional mientras se minimizan los riesgos.