INFRAESTRUCTURA TECNOLÓGICA

Data Centers: ¿Qué son y para qué sirven?



Dirección copiada

Esta infraestructura tecnológica garantiza la disponibilidad, seguridad y rendimiento de sistemas informáticos vitales para operaciones empresariales y servicios en línea.

Actualizado el 6 de feb de 2024



Datacenter

Los Data Centers o Centro de Datos son el lugar físico o virtual en donde se realizan de manera centralizada todas las grandes operaciones de TI, es decir donde se almacenan todas las plataformas tecnológicas que permiten la comunicación con usuarios, servicios, dispositivos y aplicaciones para el intercambio de información.

¿Qué es y para qué sirve un centro de datos?

Según Gartner, la prestigiosa consultora en temas tecnológicos, “un Data Center es el departamento de una empresa que alberga y mantiene los sistemas de TI de back-end y los almacenes de datos: sus mainframes, servidores y bases de datos”.

Muchos de estos datos son generados desde teléfonos, tabletas, computadores, electrodomésticos, relojes inteligentes y otros dispositivos conectados a Internet y tienen su almacenamiento en un Data Center.

Según Statista, se prevé que a nivel global la cantidad de datos creados, capturados, copiados y consumidos se incrementa de 59 zettabytes (ZB) en 2020 a 175 ZB en 2025, dato que refleja la necesidad de avanzar en nuevas y más eficientes formas de almacenamiento.

Es importante destacar que las nuevas tecnologías informáticas han llevado a que los Data Centers ubicados en un único lugar físico cada vez sean menos comunes. Sin embargo, el término se sigue utilizando para referirse al departamento que tiene la responsabilidad de estos sistemas, aunque se encuentren dispersos en lugares físicos o virtuales.

Además, las empresas también están cambiando sus estrategias para la implementación de los Data Centers. Factores como el envejecimiento de las infraestructuras físicas y la necesidad de ser cada vez más eficiente en aspectos como la seguridad, costos y eficiencia energética, han hecho que las organizaciones estén buscando más allá de los silos de infraestructura de tecnología tradicional.

El Data Center, entonces, es actualmente un elemento esencial para la actividad diaria de las empresas, desempeñando funciones como:

  • Hospedar software y aplicaciones, como CRM y ERP.
  • Impulsar el Big Data, el Machine Learning y la Inteligencia Artificial.
  • Asegurar transacciones de alto volumen en el comercio electrónico.
  • Garantizar el almacenamiento seguro y eficiente de datos.
  • Ejecutar las rutinas de respaldo.
  • Garantizar la facilidad de conectividad con las principales operadoras e Internet exchanges del mercado.

Como se puede apreciar, el funcionamiento de prácticamente todas las áreas de una empresa depende de los recursos provistos por el Data Center.

Clasificación de los Data Center

Según la American National Standars Institute, los Data Centers se rigen por la norma de infraestructura de telecomunicaciones y mejores prácticas, la ANSI/TIA 942, cuyo objetivo es certificar la disponibilidad (acceso de personas u organismos a los datos) de los componentes que tienen estos inmuebles. El tamaño, el tiempo de respuesta y los niveles de redundancia, son algunos de los aspectos que se consideran en dicha certificación.

Además de esta certificación, existen varios niveles denominados ‘Tiers’. El concepto de Tier indica el nivel de fiabilidad de un Data Center asociado a 4 niveles de disponibilidad definidos. Mientras más elevado el Tier, mayor disponibilidad del servicio y por lo tanto, mayores costos asociados en su construcción.

Tier I Data Center básico

Usado habitualmente por pequeñas y medianas empresas. El servicio puede sufrir interrupciones planificadas o no planificadas. Una desventaja de este nivel es que en caso de que se requiera un mantenimiento, será necesario detener su actividad por completo.

Tier II Data Center Redundante

Es menos susceptible a interrupciones y tiene conexión a una línea única de distribución eléctrica y de refrigeración. En caso de mantenimiento, es necesario interrumpir el servicio.

Tier III Data Center Concurrentemente Mantenible

Desarrollado para compañías que prestan servicio 24 horas al día y los 7 días de la semana. Para mantener la continuidad de las operaciones está conectado a múltiples líneas de distribución eléctrica y refrigeración, aunque con solo una activa. Para su mantenimiento no es necesario paralizar el sistema.

Tier IV Data Center Tolerante a Fallos

Para empresas con presencia global, como bancos o multinacionales. Tolera fallas, debido a que está conectado a varias líneas de distribución eléctrica y refrigeración. Este nivel permite seguir las funciones de un negocio durante un mantenimiento sin afectar al servicio. Tiene la disponibilidad más alta con un 99.99%.

Tipos de Data Center

Hay varios tipos de Data Center de acuerdo con la demanda de las organizaciones. Pueden ser virtuales o físicos. Los virtuales (Virtual Data Center, VDC) proporcionan los mismos servicios que un físico tradicional, pero se encuentran en la nube. Estos son los 4 tipos:

  • Empresarial: Construidos para cubrir específicamente las necesidades de la empresa y son comúnmente situados en el edificio corporativo. Es propiedad de la empresa y operado por ella.
  • Servicios administrados: Son administrados por un tercero. La empresa renta el equipo y la infraestructura, mientras que el proveedor opera el Data Center.
  • Colocación: La empresa proporciona y administra los diferentes componentes del Data Center, y el proveedor solo se encarga de la infraestructura.
  • Nube: Los datos y aplicaciones están alojados en la nube de un proveedor. Entre los proveedores se encuentran Amazon Web Services, Microsoft Azure e IBM Cloud.

¿Cómo funciona un Data Center?

Según TKmE Enviromental and Power Monitoring, sitio especializado en soluciones TI, estos son elementos esenciales en el funcionamiento de un Data Center:

Servidores y Hardware: Los servidores, computadoras que almacenan y procesan datos, son el corazón de un Data Center. Cada servidor puede realizar múltiples tareas simultáneamente y se configuran para optimizar diferentes tipos de aplicaciones.

Redes y Conectividad: Los servidores están conectados a través de redes internas y externas. Las internas permiten la comunicación entre servidores dentro del mismo Centro de Datos, mientras que las redes externas lo conectan con Internet y otros Data Centers.

Enfriamiento y Energía: Los servidores generan elevados niveles de calor, por lo que los Data Centers están equipados con sistemas de enfriamiento para evitar el sobrecalentamiento. Además, se asegura un suministro constante de energía eléctrica para mantener en funcionamiento todos los equipos.

Virtualización: La virtualización permite que múltiples sistemas operativos y aplicaciones se ejecuten en un solo servidor físico, lo que mejora la eficiencia y la utilización de recursos.

Almacenamiento de Datos: Los Data Centers almacenan datos en unidades de disco duro de alta capacidad que pueden ser archivos de usuarios, bases de datos empresariales, contenido multimedia y más.

Seguridad: Dado que los Data Centers almacenan información crítica, la seguridad es una preocupación principal. Se implementan medidas físicas y cibernéticas para prevenir el acceso no autorizado y proteger los datos de amenazas externas e internas.

Gestión y Monitoreo: Son gestionados y supervisados por equipos de profesionales de TI. Utilizan herramientas de monitoreo para supervisar el rendimiento de los servidores, la utilización de recursos, la disponibilidad y la detección de problemas.

Los Data Centers están sometidos a un constante control del espacio y temperatura para que todo esté siempre en óptimas condiciones.

Los Data Center deben ser monitoreados permanentemente para garantizar su óptima operación. FOTO: Flickr

¿Cómo se planifica un Data Center?

Un Data Center debe diseñarse con un objetivo concreto, en función de las necesidades de la organización y considerando todos los factores, ya sea físicos o virtuales. Es importante que el Centro de Datos sea escalable para satisfacer las necesidades a corto, mediano y largo plazo.

La planificación, diseño y construcción de un Data Center deben tener en cuenta aspectos como la arquitectura, la ubicación, la flexibilidad, el enfriamiento, la energía, el ahorro de energía, la seguridad, la redundancia y la escalabilidad.

De acuerdo con TKmE Environmental and Power Monitoring, los siguientes son los pasos para el desarrollo de un Data Center

Tipo de Data Center: Es aconsejable guiarse por la norma ANSI/TIA-942. Cada Tier tiene un plazo de implementación distinto, un tiempo de inactividad anual estándar, un porcentaje de disponibilidad. El Tier 1, que es básico, requiere al menos 3 meses para su implementación.

Equipo: Es fundamental determinar los servidores, storages, switches de core, librerías de backup y todo el equipamiento necesario. Además, es importante medir el consumo eléctrico de cada componente.

Enfriamiento: Es uno de los aspectos fundamentales para el diseño de un Data Center. Hay diferentes modelos de refrigeración que varían según las necesidades y características específicas. Estos sistemas requieren salas con especificaciones en su construcción.

El sistema de refrigeración es fundamental para el correcto funcionamiento de un Data Center.

Potencia: Después de determinar el equipamiento y los sistemas de refrigeración se debe hacer el cálculo del consumo de potencia necesario para la operación del Data Center.

Conectividad: Todos los componentes de un Data Center tendrán que seguir una estructura de conectividad. Hay que planificar la red y el conjunto de dispositivos a instalar en cada rack.

Layout: Es la representación de un plano sobre el cual se va a dibujar la distribución de un espacio específico. Luego de planificar los puntos anteriores se puede determinar que espacios se necesitan para el Data Center: espacio para los racks de los servidores, una sala UPS, un espacio para las comunicaciones, otra sala para la preparación de equipos etc.

Seguridad y control: En un Data Center la protección de los datos almacenados en los servidores es vital. Por tanto, es necesario implementar un sistema de seguridad integral que proteja tanto el hardware como el software.

Presupuesto: En este punto del proyecto de diseño de un Data Center hay que tener una relación de todos los costos, incluyendo los gastos de personal externo y especializado, así como remodelaciones de las salas o edificios, etc.

Proyecto de construcción: Con todo lo anterior planificado, el proyecto debe incluir la descripción técnica de todo el equipo que se va a necesitar, pero también por planos de construcción, sistema eléctrico, cañerías, ventilación, etc.

Escalabilidad: Para asegurarse que es la mejor inversión, es importante asegurarse que el Data Center podrá escalar su capacidad para responder a futuras necesidades de la organización.

¿Qué es un Data Center virtual?

Un Data Center Virtual (VDC) es una solución de Infraestructura virtualizada (IaaS) que permite desplegar infraestructuras de software y hardware sobre una plataforma de nube elástica y flexible, garantizando la máxima seguridad, éxito y aprovechamiento de los sistemas.

Según Gartner, un Data Center virtual ofrece las capacidades de un centro de datos tradicional, pero utilizando recursos basados en la nube en lugar de recursos físicos. “Proporciona a una organización la capacidad de implementar recursos de infraestructura adicionales según sea necesario sin adquirir, implementar, configurar ni mantener dispositivos físicos”.

Los proveedores de centros de datos en la nube brindan soluciones de hardware y/o software que garantizan una mejor conectividad, principalmente dentro de los centros de datos empresariales.

Algunos de los beneficios de un Data Center Virtual son:

  • Reducción de costos: El hardware es el recurso más costoso dentro de un Data Center. Un VDC (Virtual Data Center) requiere menos hardware. También se reducen los costos de mantenimiento, energía consumida, administración, etc.
  • Servicios eficientes en la nube: La virtualización permite crear una infraestructura dinámica y activa para ir conformando una forma de trabajar pensada en la nube.
  • Menos acumulación de calor: Virtualizar los servidores implica usar menos hardware, y esto a su vez reduce la generación de calor. Generar menos calor implica menores gastos en refrigeración y menos problemas de sobrecalentamiento en los servidores.
  • Recuperación ante desastres: Con snapshots actualizados se puede volver rápidamente a poner en marcha cualquier servidor o máquina. En un Data Center físico, la recuperación es demorada y costosa.
  • Servidores uniservicio: Con la virtualización está la opción rentable de separar servicios en diferentes servidores. Así, no se afectan mutuamente en competencia por recursos ni en posibles fallos. Con este sistema se obtiene un Data Center robusto y confiable.

¿Qué es el Software Defined Data Center? (SDDC)

Gracias a la virtualización y a la nube, los centros de datos han seguido evolucionando a través de nuevas lógicas de gestión en nombre de la optimización según los nuevos enfoques as service y pay per use.

La adopción cada vez más generalizada de servidores y escritorios x86 está impulsando la virtualización de los centros de datos, lo que ha amplificado los problemas de subutilización del hardware en los centros de datos.

El hardware se utiliza en promedio entre el 10 y el 15 % de su capacidad real en las mejores situaciones y hasta el 40-50 % en las peores. No es sólo una cuestión de mala gestión de los recursos.

Los servidores y dispositivos de hardware, incluso cuando no ejecutan aplicaciones ni funcionan, siguen costando dinero porque consumen energía y la necesitan para su refrigeración.

El camino hacia el SDDC pasa por la virtualización

La proliferación de islas de TI y sistemas heterogéneos vinculados al aumento de los procedimientos TIC también aumenta la complejidad y los costos de mantenimiento y de personal con habilidades especializadas. La gestión y protección de las estaciones de trabajo de escritorio es cada vez más compleja, debido a la constante necesidad de aplicar actualizaciones y parches para reparar vulnerabilidades.

La consolidación de estos servidores mediante virtualización permite recuperar la eficiencia, optimizando el uso del hardware, reduciendo el consumo y simplificando la gestión. De hecho, gracias a la virtualización, la consolidación dentro de los servidores físicos de numerosos servidores virtuales, configurables mediante software, permite reducir la infraestructura hardware.

La siguiente etapa y mejora de la virtualización de recursos de hardware es la transición a una arquitectura de TI basada en la nube. Una nueva plataforma capaz de proporcionar todos los recursos (CPU, memoria, almacenamiento, etc.) en modo servicio vía software.

Se trata del Centro de datos definido por software (SDDC), en el que toda la infraestructura de TI está completamente virtualizada: desde servidores físicos hasta equipos de red, desde dispositivos de almacenamiento hasta aplicaciones.

Cómo funciona un Software Defined Data Center

El Centro de datos definido por software (SDCC) la programabilidad de la red y la gestión ágil y elástica de grupos de recursos de TI y cargas de trabajo a través de software reemplazan la lógica de administración engorrosa que consume mucho tiempo de los silos de información estratificados y separados. Esto permite introducir capacidades de automatización y control de los propios recursos, incluidos los independientes del proveedor. Es decir, una gestión independiente del tipo y origen de los dispositivos hardware existentes.

El modelo SDDC para obtener los máximos beneficios en administración, la virtualización de recursos se lleva al extremo, abarca todos los componentes de la infraestructura de TI: servidores y computadoras, equipos de red, equipos de almacenamiento, aplicaciones y servicios., lo que conduce a la TI como servicio (ITaaS).

Virtualización de redes

Al igual que las capas de software de control de las distintas máquinas virtuales, los hipervisores cuentan con el mismo modelo operativo de virtualización que se puede aplicar a las redes.

Los dispositivos de red (conmutadores, enrutadores, concentradores, etc.) también se pueden virtualizar, a través de un hipervisor de red, con una capa de inteligencia de software es posible gobernar y orquestar armoniosamente todos los puertos de red físicos y lógicos.

La única condición necesaria es poder confiar en la capacidad de transporte de paquetes de la red física subyacente. De igual forma, este modelo también es aplicable a dispositivos de almacenamiento (storage as-a-Service), así como a cualquier otro dispositivo, como por ejemplo dispositivos de seguridad.

SDDC y almacenamiento

En el caso específico del almacenamiento, es importante subrayar que el modelo SDDC permite integrar en la infraestructura no sólo matices de almacenamiento dedicados y de alto rendimiento para cargas de trabajo de misión crítica. De hecho, también es posible integrar hardware básico y DAS (almacenamiento adjunto directo), es decir, los discos duros internos de servidores, PC de escritorio y portátiles.

En el paradigma SDDC, las herramientas de gestión (monitoreo, creación, remoción, eliminación, configuración, asignación, movimiento) de objetos virtuales también adquieren un valor particular. Esto se debe precisamente a que hoy en día la virtualización de los recursos de TI se está generalizando, dando lugar a una proliferación de máquinas virtuales. Se trata de herramientas de software ya preparadas de forma nativa para gobernar (aprovisionamiento, autoservicio, informes, automatización) infraestructuras híbridas, compuestas por componentes físicos y virtuales.

TI como un servicio: así es como el centro de datos se vuelve bajo demanda y de pago por uso

Lograr el modelo arquitectónico del Centro de Datos Definido por Software es hoy una condición esencial para implementar una verdadera TI como Servicio (ItaaS) en la empresa. La ruta de migración debe pasar por una virtualización generalizada, extendida a todos los componentes: servidor, red, almacenamiento, servicios. Los beneficios obtenibles se miden en un aumento de la agilidad administrativa que se puede aplicar a cada área de TI.

Si ayer la posesión de sistemas y máquinas era un factor esencial de las TIC, hoy empiezan a imponerse modelos híbridos (nube híbrida). Para el futuro, las predicciones de los analistas son que las empresas subcontratarán sus centros de datos confiando sus infraestructuras a proveedores especializados.

Otro aspecto de la gobernanza del centro de datos es la hiperconvergencia. Un proveedor ofrece un conjunto preconfigurado de hardware y software en un solo chasis, se trata de minimizar los problemas de compatibilidad entre diferentes componentes y racionalizar la gestión de toda la infraestructura.

En definitiva, el desarrollo de los centros de datos se basa cada vez más en el concepto de agilidad. Una agilidad basada, en particular, en métodos de prestación de servicios que permitan la automatización del suministro de recursos. Y por otro lado permite optimizar el reporte de artículos de consumo y costos asociados, así como aplicar modelos de uso basados ​​en el autoservicio y la usabilidad bajo demanda.

Data Center en Colombia

Según Frost & Sullivan, Colombia aumentó su participación en la región en un 1% desde 2017 hasta 2022, alcanzando aproximadamente un 11 % del mercado, lo que lo posiciona como el cuarto mercado más grande de la región. De igual forma, los ingresos de la industria de los Data Centers llegaron aproximadamente a 37,6 millones de dólares en 2022, con un crecimiento anual del 13%. Otras consultoras, como ATKearney, también ubican a Colombia como el cuarto mercado de la región, con un gran potencial de crecimiento.

FUENTE: Global Services Location Index 2021 de ATKearney

Recientemente, en Colombia se han realizado importantes inversiones en la construcción de Data Centers, lo que favorece el fortalecimiento y crecimiento de la oferta tecnológica.

Según Invest Colombia, en el país hay más de 20 Data Centers. Entre los nuevos y con mayor capacidad se encuentran HostDime (el centro de datos más grande e interconectado en Latinoamérica, certificado con el Sello Rojo y Tier IV del Uptime Institute), construido en Tocancipá con una inversión de 24 millones de dólares. Otros para destacar son Scala Data Centers, GlobeNet y Equinix.

Según la firma de consultoría e investigación Research and Markets, la inversión en infraestructura de nuevos Data Centers en Colombia alcanzará los 143 millones de dólares para 2027, lo que refleja el potencial del país para la implementación de esta tecnología. Actualmente, el país cuenta con 14.000 metros cuadrados para atender a los más de 48 millones de habitantes, lo que genera una gran oportunidad de inversión en la ampliación de la oferta de este sector.

En los últimos 5 años, importantes empresas internacionales han decidido aumentar su capacidad en Colombia para satisfacer la creciente demanda. IBM construyó un complejo tecnológico con 5,000 metros cuadrados, y su Data Center alcanzó una potencia de 1.9 megavatios con 2 generadores 100% redundantes. Telefónica, Level 3 y ETB también están ampliando sus operaciones.

En 2022, la empresa Gtd Colombia anunció la construcción de su segundo Data Center en Latinoamérica, con una inversión inicial de 20 millones de dólares, con más de 6.200 metros cuadrados y 500 kilómetros de fibra óptica. También se destaca el Data Center construido por ETIX, con capacidad de 840 kVA, uno de los pocos certificados Tier IV en el país y que cuenta con infraestructura IXP.

Un estudio realizado por la compañía Arizton, señala que para 2021 el tamaño del mercado de Data Center en Colombia estaba valorado en 380 millones de dólares y se prevé que alcance los 653 millones para 2027 con una tasa de crecimiento anual compuesto (CAGR) del 9,44% en los próximos 5 años. Factores como su privilegiada ubicación geográfica ha convertido a Colombia en uno de los países de América Latina con mayor potencial para la implementación de Centros de Datos.

La lucha contra el impacto ambiental

Durante la última década, y especialmente después de la pandemia, la demanda de potencia de cómputo ha aumentado exponencialmente, lo que ha convertido a los Data Centers en una industria de rápido crecimiento.

Sin embargo, el consumo energético de un Data Center es particularmente elevado. Es por esto que muchas empresas y organizaciones están desarrollando alternativas para reducir el consumo y gestionar el uso de recursos naturales limpios para refrigerar los equipos.

Por ejemplo, algunas empresas han decidido trasladar sus servidores a países europeos en los que el frío es predominante. Otras organizaciones apelan a conceptos de sostenibilidad como economía circular para reducir costos, consumo energético y el impacto ambiental.

La electricidad representa el mayor costo energético en un Data Center por lo que es habitual que las organizaciones trabajen permanentemente en mecanismos de control de las tasas de consumo de energía de la infraestructura. Según una encuesta Uptime Institute, 4 de cada 5 empresas rastrean el consumo de energía. Este consumo energético masivo contribuye a las emisiones de gases de efecto invernadero y al cambio climático.

Para optimizar su consumo energético, actualmente los Data Centers están aumentando la densidad de alojamiento de servidores y reduciendo al máximo su huella de carbono. Esto se logra gracias a la adopción de tecnologías avanzadas, como el uso de energía renovable, el uso de equipos de enfriamiento más eficientes y la adopción de estándares de eficiencia energética.

De igual manera, los Data Centers están implementando programas de reciclaje y adoptando medidas para reducir su consumo de agua con sistemas de recolección de agua de lluvia.

Finalmente, otro aspecto fundamental para la sostenibilidad de un Data Center es la gestión responsable de los residuos electrónicos. La constante actualización de equipos y servidores genera una gran cantidad de desechos, por lo cual se deben establecer programas de reciclaje adecuados, preferiblemente implementados por proveedores especializados en la gestión de desechos electrónicos.

El monitoreo del rendimiento ambiental del Data Center (midiendo indicadores clave, como consumo de energía, emisiones de gases de efecto invernadero y cantidad de residuos) ayuda a identificar áreas de mejora y establecer metas específicas para reducir el impacto ambiental.

Además de los beneficios económicos, con estas medidas las empresas y organizaciones mejoran su reputación y, lo más importante, fortalecen su responsabilidad social y ambiental, contribuyendo a la conservación del planeta.

¿Qué es y cómo se calcula el PUE de un data center?

Para calcular qué tan eficiente es un centro de datos en el uso de la energía que lo alimenta, la unidad de medida utilizada es PUE (Power Usage Effectiveness). Se trata de un parámetro que establece cuánta energía eléctrica se dedica a alimentar equipos informáticos en comparación con servicios auxiliares como aire acondicionado o pérdidas del UPS.

En detalle, PUE es la relación entre la potencia total absorbida por el centro de datos (PT) y la utilizada únicamente por los equipos de TI (PIT). Un valor PUE de 1 (medición óptima) indica que toda la energía absorbida por el sistema se utiliza para equipos de TI.

Según las evaluaciones del consorcio Green Grid (que definió el PUE) y la agencia EPA, el valor promedio actual de PUE para los centros de datos de todo el mundo es de alrededor de 1,8 lo que indica que el consumo de energía no -PIT (como aire acondicionado, iluminación, pérdidas de energía, etc.) equivalen en promedio al 80 % del valor PIT, es decir, aproximadamente el 45 % de la potencia total absorbida por el centro de datos (PT).

Por el momento, el centro de datos que tiene el valor PUE más bajo ( 1,08 consumo no PIT equivalente a aproximadamente el 7,5 % del PT) pertenece a Yahoo! y fue construido en las cercanías de las Cataratas del Niágara.

Artículos relacionados

Artículo 1 de 5