Hoy por hoy, pareciera que la nube está en todos lados: hablamos de computación en la nube, procesamiento en la nube, videos en la nube e incluso videojuegos en la nube. Incluso así, la complejidad de los sistemas en la nube también hace que entender su funcionamiento y sus estándares sea un poco más complicado que entender los computadores tradicionales.

Si bien es cierto que hablamos de la nube para referirnos a servidores y centros de datos y cómputo, lo cierto es que todos estos componentes están aquí, en la tierra. Todos tienen una presencia física en alguna parte del mundo, sin importar qué tan grande o qué tan pequeña sea.

Vamos entonces a ver algunos de los conceptos básicos relacionados con los centros de datos y los servidores, qué los hace especialmente seguros, qué diferencias existen entre ellos y por qué las empresas cada día se sienten más seguras moviendo parte de su infraestructura a centros remotos (o a la nube). 

Entendiendo los conceptos básicos

Empecemos por el principio. Los centros de datos, en esencia, son grupos gigantescos de computadores especialmente diseñados para el procesamiento de datos. Esto significa que están compuestos por unidades de procesamiento (CPU), memoria (RAM), chips para procesamiento gráfico, almacenamiento, sistemas de enfriamiento y también de recuperación (backup). 

Una característica particular es que todos los centros de datos tienen dentro de su infraestructura varias UPS –por la sigla en inglés de fuentes ininterrumpidas de poder– que permiten que los computadores y servidores no dejen de recibir energía nunca (incluso si se suspende el servicio público). En muchos casos, estas UPS se cargan con la misma energía eléctrica, aunque también muchos centros de datos tienen generadores a base de diesel, que tienen autonomía incluso si la suspensión del servicio eléctrico se prolonga e impide la recarga.

Sin embargo, aunque los componentes básicos son muy similares, la realidad es que también son especializados. Los procesadores que utilizan los centros de datos, por ejemplo, tienden a tener integrados elementos como encriptación de la memoria RAM y son optimizados para la computación en paralelo. Esto significa, en otras palabras, que pueden procesar muchos más datos al mismo tiempo y sin sacrificar seguridad.

El performance es distinto porque no es solamente el procesador sino en dónde lo tenemos configurado, que son los diferentes equipos corporativos o de nuestros partners de negocios”, explica Mónica Casas, Business Development Manager del cono norte de Latino América para AMD. “Un equipo corporativo tiene, por ejemplo, características adicionales de pruebas militares o incluso de alto impacto para asegurar el funcionamiento en condiciones extremas”.

AMD e Intel tienen –cada uno por su lado, por supuesto– líneas de CPU dedicadas a servidores y centros de datos, con Epyc y Xeon como los nombres clave de cada ‘bando’, respectivamente. De la misma forma, estas CPU necesitan de tarjetas madre y refrigeración ajustadas para operar al máximo rendimiento y garantizar el funcionamiento 24/7 del centro de datos o servidor. 

Tarjeta madre de los centros de datos
A la izquierda, un tarjeta madre para servidores. A la derecha, una tarjeta madre para consumidores. Imagen: GYGABYTE/Impacto TIC

Respecto al servidor físico per se, la diferencia no es ninguna, porque cualquier persona puede comprar un servidor. El tema es cómo opera y en qué condiciones opera ese servidor”, afirma Eduardo Parra, gerente de Cloud de Telefónica Movistar. “Los servidores de Telefónica, como están todo el tiempo prendidos, generan un calor que se tiene que controlar para que no suba la temperatura media. Los data center no solo tienen las UPS, sino también estaciones eléctricas o de gasolina para mantener la operación los 365 días del año”.

Las tarjetas madre, por lo general, vienen en una configuración que les permite ser organizadas en los racks (o estantes), y estos racks, junto a los gabinetes, son los que conforman la imagen mental que todos tenemos sobre los centros de datos. 

Centros de datos de imgix. Imagen: Photo by imgix en Unsplash

No todos los centros de datos son iguales

Y como bien menciona Parra, una de las claves que hay que tener en cuenta en cuanto a los centros de datos es el tiempo de actividad (o uptime) que tenga. La meta, obviamente, es tener un funcionamiento constante las 24 horas de los 365 días del año, pero la realidad no es tan sencilla.

Acá no entramos a hablar de días, sino de horas anuales en las que un servidor puede estar ‘caído’ o desconectado. Una de las entidades –y tal vez la más popular– que regula la clasificación de los centros de datos es Uptime Institute.  

El centro de datos Triara, propiedad de Claro, es uno de los más grandes de la región y de los únicos con la certificación Icrea nivel 5 gracias a su uptime de 99,999 %Hay salones enteros en donde se ven bancos de baterías de respaldo, el bunker, que es por donde va todo el cableado es subterráneo. Estamos hablando de 13.800 metros cuadrados en total”, dice Jorge Mario Sandoval,  gerente de Marketing Corporativo en Claro Colombia.

Los diferentes tiers de los centros de datos: 

Tier I: Es el centro más básico. Sus sistemas de refrigeración y energía tienen una sola ruta, y la redundancia es poca o inexistente. Tiene un tiempo de actividad de 99,671 % –28,8 horas de inactividad al año–.

Tier II: Uno de categoría II tiene una única ruta de energía y refrigeración, pero acompañada por elementos de redundancia como UPS, generadores o celdas de energía. Tiene un tiempo de actividad estimado de 99,741 % –22 horas de inactividad por año–.  

Tier III: Este centro de datos tiene múltiples rutas de refrigeración y energía, así como sistemas de redundancia para actualizar y hacer mantenimiento sin tener que apagarlo. Su tiempo de actividad estimado es de 99,982 % –1,6 horas de inactividad por año–.

Tier IV: Es el máximo de las categorías. Todos los componentes del centro de datos funcionan incluso con fallas menores, pero también todos tienen varios niveles de redundancia para siempre estar operando. Tiene un tiempo de actividad estimado de 99,995 % –26,3 minutos de inactividad por año–.

Fuentes: HP Enterprise y Uptime Institute.

El tema de la redundancia en los componentes también se aplica para los datos guardados. En un centro de datos, la información nunca está almacenada solamente en un solo lugar, sino que está configurada para estar replicada no solo en distintos servidores, sino también en distintos centros de datos (es decir, en ubicaciones geográficas diferentes). 

Nosotros [Telefónica Movistar], tenemos el servicio en Bogotá para nuestros clientes, y tenemos replicación de ese servicio en Barranquilla. Si llega a ocurrir un desastre en Bogotá, toda la infraestructura y toda la data está replicada en Barranquilla”, explica Eduardo Parra. 

Los riesgos a los que están expuestos Bogotá y Barranquilla son totalmente distintos; de hecho están en dos placas tectónicas distintas, lo que hace que la materialización de desastres de igual dimensión en ambos sitios sea muy remota.

Eduardo Parra, Telefónica Movistar

La seguridad es clave

Y como es de esperarse, uno de los conceptos que rigen a los centros de datos y sus componentes es la seguridad. Acá no hablamos solamente de ciberseguridad, sino también de seguridad física alrededor de los puntos geográficos en donde están ubicados los centros de datos. 

Una de las cosas diferenciales es el tema de seguridad, porque los procesadores Pro tienen seguridades de hardware y aparte una encripción de la memoria”, explica Mónica Casas, de AMD. “Eso es superimportante cuando usas el equipo como servidor o cuando necesitas hacer temas de virtualización. Ese es un valor agregado que no vas a tener con ningún otro producto”.

Cuando hablamos de procesamiento en la nube, compañías como AMD, Intel y Nvidiaque recientemente adquirió ARM por 40.000 millones de dólares– lideran la carga en cuanto a procesamiento en paralelo que no sacrifica la seguridad de los datos que son almacenados en la nube. Y aunque las características de seguridad empiezan en la arquitectura del procesamiento, lo cierto es que esto se extiende también al plano físico.

Lo primero que hay que contestar es que la seguridad al 100 % no existe –explica Eduardo Parra, de Telefónica Movistar–. Todos estamos expuestos a un ataque cibernético o a la materialización de un riesgo. En nuestro caso, tenemos un perímetro de seguridad no solo de la información, sino físico también, para restringir el acceso a los datos de los clientes. Esto lo hace especialmente más seguro debido a todas las inversiones que están detrás”, explica.

Entender que los riesgos de seguridad siempre están presentes significa estar un paso delante de los atacantes. La prevención y el diseño de seguridad física y virtual siempre serán la primera meta, pero los planes de contingencia son la primera línea frente a un ataque cibernético. 

Flexibilidad y escalabilidad

Dos de las ventajas más grandes de los centros de datos son la flexibilidad y la escabilidad que tienen y que a su vez responden a las necesidades de los clientes. Poniéndolo en términos sencillos, todas las empresas tienen necesidades de tráfico distintos, y la capacidad de sus servidores y centros de datos deben precisamente ajustarse a esta realidad.

Imagen: Science in HD en Unsplash

Tener sus datos alojados en un centro de datos permite que la decisión sea mucho más sencilla, ya que no se debe invertir en nuevo hardware ni en tener espacio físico dedicado a este alojamiento. La decisión de expandir o reducir sus servicios en un centro de datos se hace simplemente cambiando la configuración del servicio con su proveedor en la nube.

Las ventajas son grandes, ya que, por ejemplo, una empresa pequeña puede aumentar sus servicios en la nube a medida que sube su tráfico, y de esta forma evitar pérdidas en procesamiento que en últimas no está siendo utilizado. De la misma forma, una empresa con un alto tráfico puede ahorrar el espacio físico que requiere tener un servidor corriendo en condiciones óptimas.

El futuro centralizado

Pensando a largo plazo, no sorprende entonces que el valor de mercado de los centros de datos aumente gradualmente. La posibilidad de construir servidores caseros es hoy por hoy una opción real, con diferentes distribuciones de software (como Docker, Kubernetes o distribuciones de Linux para servidores) que hacen real algo que en el pasado era impensado. 

Sin embargo, es imposible negar las ventajas que representa almacenar sus datos en un centro especializado. Además de la seguridad que es estándar en la industria, también se cuenta con estabilidad y varios niveles de redundancia para la protección de los datos. Estabilidad, seguridad, flexibilidad y escalabilidad son los pilares fundamentales de todo centro de datos. 

La centralización de los datos en la nube, aunque puede pensarse como un concepto un poco abstracto, está muy pensada hacia la realidad. Los datos, en últimas, son uno de los mayores activos que puede tener una compañía, y ciertamente vale la pena protegerlos con todos los recursos disponibles, pero sin que eso signifique sacrificar agilidad y flexibilidad. 

Los centros de datos, sin duda alguna, representan el futuro en la nube, pero ahora más que nunca están con los pies en la tierra para construir una sociedad más conectada.