Para finales de 2023, el planeta tendrá más de 15.400 millones de dispositivos conectados a internet, una cifra que incluye equipos industriales, médicos, de seguridad y comercio, entre otros. Algunos de ellos tienen una importancia crítica, y cualquier demora en el procesamiento puede costar vidas. ¿Cómo resolver estos desafíos en las empresas y grandes ciudades? La computación al borde o Edge Computing tiene la palabra.
¿Qué se entiende por Edge computing o computación perimetral?
Según la firma analista Gartner, la computación de borde forma parte de la computación distribuida, un modelo donde el procesamiento de los datos se realiza cerca del lugar donde las personas y dispositivos están generando o consumiendo esa información.
Sus orígenes se remontan a finales de la década de los noventa con una propuesta de Akamai llamada Content Delivery Network (CDN), cuyo concepto fue ampliado en un documento de 2002 llamado Globally Distributed Content Delivery.
Se trató de una iniciativa que tendió una red de 12,000 servidores en más de 1,000 redes, buscando crear nodos de cómputo más cercanos geográficamente a los usuarios para la entrega de contenidos almacenados en caché, como imágenes y videos.
Posteriormente, para la década de 2000, se crearían otros modelos de computación distribuida que abrieron el camino hacia el edge computing, como las redes Peer to Peer en las que los usuarios finales conectaban sus computadoras entre sí para compartir recursos sin necesidad de pasar por un servidor central. Otra evolución vino con el uso de Micro Data Centers en los que las empresas rentaban recursos de almacenamiento y cómputo a los usuarios finales.
Actualmente, el Edge Computing va más allá de imágenes y videos y atiende solicitudes de miles de millones de dispositivos en todo tipo de entornos industriales, gubernamentales e incluso de entretenimiento.
¿Por qué es importante?
¿Ha escuchado hablar de los coches autónomos? Para muchos, una de las tendencias tecnológicas del futuro y que moverá más de 2,3 billones de dólares para 2030. Esta industria, que involucra a gigantes que van desde Google hasta Uber, por solo mencionar dos casos, depende de dos factores críticos: la conectividad (latencia) y el poder de cómputo. Y precisamente estos retos se solucionan usando la computación perimetral.
Volviendo al ejemplo de los coches autónomos, en medio de una carretera, cualquier demora puede ser fatal, piense en un imprevisto humano o un incidente climático, y por ello es necesario tener redes de alta velocidad para reaccionar lo antes posible.
Pero las redes de comunicaciones suelen compartirse entre millones de usuarios y en el esquema de cómputo tradicional, la mayoría de procesos debían ser enviados hasta un gran servidor, muchas veces instalado en otras geografías, donde se procesaba una inquietud y la respuesta se enviaba por la misma ruta de llegada.
Por ello, el Edge Computing es vital para esta industria, al acercar los servidores hasta donde se necesitan, disminuyendo la latencia y mejorando la eficiencia en el procesamiento. Y este mismo argumento puede usarse con otros nichos de mercado donde la velocidad de la comunicación es crítica, como en el sector salud, de minería y de transporte, por solo mencionar 3 casos.
Razones como estas impulsan la valoración de mercado del Edge Computing en más de 139.580 millones de dólares para 2030, pues los dispositivos IoT siguen creciendo cada año.
¿Cómo funciona Edge computing?
El Edge Computing también es llamado Computación Perimetral por razones obvias, porque, al contrario del modelo tradicional de la nube donde toda la información salía de los dispositivos finales para transitar por internet hasta los grandes centros de datos, el modelo Edge presenta varias capas intermedias donde se descentraliza ese poder de cómputo.
Así, el Edge Computing se compone de distintos segmentos que incluyen desde los equipos más “sencillos” que generan y reciben información, una red que recibe esos datos y procesa algunos de ellos, y por último, un Data Center donde se recopilan solo la información más pertinente.
Para dar una idea de la pertinencia o no de estos datos, imagine el sensor de calor en una fábrica; si la temperatura es la misma de siempre, no tiene sentido escalar esa información a un gran centro de datos en la nube. Ahora, si se presenta un cambio brusco en la temperatura, esto es mucho más preocupante y merece revisarse.
Arquitectura y componentes clave del Edge Computing
Vale la pena recordar que cada instalación de un sistema de Edge Computing tiene sus propias características que dependen de la máxima latencia permitida y el costo de implementación según el tipo de industria/aplicación que se quiera tratar. Pero a pesar de estas variaciones, se presentan algunos elementos comunes como:
Dispositivos Edge: Desde lavadoras inteligentes y sensores hasta videocámaras y robots, los dispositivos Edge, o al borde, son los equipos que están en el límite de la red generando y recibiendo datos.
Son la parte más numerosa del ecosistema y están en el lugar donde están sucediendo las cosas. Pueden conectarse a otros dispositivos edge o a gateways a través de protocolos de comunicación estandarizados como son NFC, Bluetooth Low Energy (BLE), RFID, redes 5G y Wi-Fi, Zigbee, Z-Wave y Ethernet, entre otros.
Servidores Edge o Gateways: Es el corazón del Edge Computing, se trata de una capa de procesamiento de datos que se sitúa cerca de los dispositivos Edge y que envía solo la información relevante a los grandes servidores en la nube. Gracias a ello, pueden responder rápidamente a los incidentes que puedan presentarse. También pueden coordinar a los dispositivos conectados a ellos, prendiéndolos, apagándolos, generando alarmas, etc.
Si los dispositivos Edge son miles de millones, los gateways son millones. Para ser más exactos, la firma analista Omdia estima que para 2024 el 26,3 % de los servidores (4,7 millones) se usará precisamente en ambientes Edge, una cifra mayúscula considerando que en 2019 sólo se ubicaron 2,3 millones para el mismo fin.
Servidores en la nube: Si bien es cierto que ya existe un procesamiento y almacenamiento previo de datos que incluso puede venir desde los mismos dispositivos, los grandes servidores en la nube son el estadio mayor donde estos datos son sometidos a un análisis más detallado usando grandes modelos de analítica y algoritmos de Inteligencia Artificial. Aquí se diseccionan anomalías estadísticas y se predicen patrones de comportamiento, porque la Computación en la Nube y el Edge Computing son complementarios, no rivales.
Computación en la Nube vs Edge
A pesar de que la computación en la nube y el Edge Computing se complementan, sus conceptos básicos son opuestos. Por un lado, la computación en la nube se basa en centralizar el poder de cómputo en un gran nodo principal, recopilando datos de los dispositivos a través de Internet y facilitando su administración.
El Edge Computing tiene otra prioridad y es reducir la latencia, distribuyendo el procesamiento de los datos a lo largo del ecosistema digital para generar respuestas más rápidamente. Esto no solo genera más velocidad, también disminuye costos al no enviar grandes cantidades de datos por Internet.
Pero a pesar de sus diferencias conceptuales, ambos modelos se complementan al dejar una capa de procesamiento más ‘ligero’ que requiere más velocidad en un nivel más bajo y enviando solo la información más interesante para su almacenamiento y procesamiento en niveles centralizados.
Por cierto, existe también otro enfoque usado por otros fabricantes como Cisco que hablan de Fog Computing como una capa extra, un modelo de cómputo descentralizado que estaría entre los dispositivos Edge y los servidores en la nube. Recordemos que Fog quiere decir niebla.
Casos de uso y ejemplos de Edge Computing
Aunque el modelo de computación perimetral tiene muchas ventajas en velocidad y eficiencia, también es cierto que algunos nichos de mercado le sacan más ventaja que otros, como por ejemplo el mencionado caso de los coches autónomos. Pero no es el único ejemplo; otra industria donde es vital disminuir la latencia es en el sector salud.
Hospitales y salud: Una investigación de PwC encontró varios escenarios en los cuales el Edge Computing puede salvar vidas, como en las ambulancias. Cuando los paramédicos llegan al hospital, pasan los datos de los pacientes a los médicos, pero esta información podría transmitirse de forma inmediata desde el automóvil usando redes móviles.
Otro ejemplo en esta industria se da dentro de los mismos hospitales donde centenares de equipos están conectados entre sí, monitoreando variables críticas relacionadas con el bienestar de los pacientes o incluso en forma remota, vigilando los datos de los wearables de los pacientes ya remitidos a sus casas. Gracias a estos beneficios, la industria del Edge Computing en el sector salud se proyecta que moverá más de 12.900 millones de dólares para 2028.
Manufactura: Aunque existen cientos de aplicaciones posibles, dos de los usos más generalizados del Edge Computing en el sector manufactura son el mantenimiento predictivo y evitar sobrecargar a los servidores con información no relevante. El primero de ellos conformaría un mercado de 15.900 millones de dólares para 2026 que ayudaría no solo a garantizar la continuidad de las operaciones, sino también a reducir costos e incluso salvar vidas en ambientes de trabajo desafiantes.
Agricultura: Según la FAO, apenas el 38% de la superficie de la tierra es cultivable y de esta extensión solo la tercera parte se usa para ello, dejando el resto para otras actividades complementarias como ganadería y pastizales. Si a esto le sumamos que la población crece cada año, la revolución de esta industria o Agricultura 4.0 es crítica.
Para lograr cumplir con sus objetivos, la Agricultura 4.0 usa diferentes herramientas que van desde la Inteligencia Artificial y la robótica hasta la computación perimetral. Gracias al Edge Computing y el IoT, es posible conocer el nivel de humedad de la tierra, sus nutrientes y pesticidas y tomar acciones en el asunto automatizando algunas labores, controlando drones, tractores inteligentes y sistemas de riego, entre otras posibilidades.
Retail: Este segmento involucra un poco de todo, desde el manejo de inventarios, la atención al cliente en puntos de venta (POS), el transporte y la logística, entre otros. Y por ello, el Edge Computing tiene que estar presente tanto en mostradores como en el interior de la organización.
Por ejemplo, detrás de bastidores es posible tener un sistema automatizado de inventario que permita conocer las verdaderas existencias de productos en tiempo real, emitiendo alertas y ayudando a crear rotaciones de suministro más efectivas.
En la parte exterior, frente al cliente, el Edge Computing ayuda a optimizar los tiempos de atención en las cajas, incluso cuando falla la conexión a Internet sincronizando los datos posteriormente. Además ofrece servicios complementarios a los usuarios finales como mostradores digitales y puntos de acceso a internet, además de soportar el sistema de videovigilancia de las tiendas.
Pero esto es apenas una muestra: otras industrias donde el Edge Computing brilla por sus capacidades son los servicios financieros, donde ayuda a proteger la seguridad en los cajeros automáticos (ATM), o en el transporte de mercancías transmitiendo datos constantemente sobre el estado de los productos. Otra vertical de especial importancia es en los servicios públicos (agua y luz), reportando averías y ayudando al mantenimiento preventivo de las redes. Y por supuesto, en el sector gubernamental con los sistemas de seguridad ciudadana.
Ventajas y beneficios del Edge Computing
Aunque no es tan notorio para los usuarios finales, el transporte de datos por Internet tiene un costo que puede llegar a ser especialmente alto cuando hablamos de miles de dispositivos conectados de forma permanente. El Edge Computing viene a solucionar este problema usando equipos que categorizan los datos dignos de ser enviados a los servidores centrales y administrando localmente la mayoría de las operaciones. Por ello, uno de los principales beneficios del Edge Computing es la reducción de costos al disminuir el ancho de banda requerido.
De igual forma, al no transmitir todos los datos de las operaciones, es posible reducir el riesgo de brechas de seguridad en las organizaciones.
Pero el principal beneficio asociado con la computación perimetral es, sin duda, la velocidad. Este modelo informático reduce el tiempo de respuesta frente a un incidente, permitiendo conservar la integridad de las máquinas e incluso salvando vidas. Además, transmite la suficiente información para realizar mantenimientos preventivos o de emergencia.
La conectividad es un lujo que no es lo suficientemente valorado. Casi siempre estable en las grandes ciudades, no está exenta de presentar algunas “lagunas” en su funcionamiento. Para combatir este incidente, los equipos de computación en el borde pueden seguir funcionando sin un monitoreo constante o incluso en escenarios de conectividad intermitente.
Otro beneficio menos conocido es la capacidad de los equipos Edge para actuar como enlace de comunicación entre máquinas antiguas y modernas, permitiendo cuidar las inversiones de las empresas y el uso de sus recursos.
Tendencias y futuro del Edge Computing
Como sucede con el resto de iniciativas informáticas, el Edge Computing es necesario imaginarlo trabajando en conjunto con otras tecnologías que lo potenciarán en un futuro. Hablamos de iniciativas como Inteligencia Artificial, Internet de las Cosas y Analítica, entre otras tendencias. Algunas de las más destacadas son:
Las redes 5G: Mucho se habla de las redes de quinta generación como la siguiente revolución en las telecomunicaciones gracias a su capacidad para transmitir datos de una forma mucho más rápida. De hecho, teóricamente podrían alcanzar una velocidad de 20 Gbps, lo que lo haría ideal para potenciar la siguiente generación de dispositivos que conforman el Internet de las Cosas y el Edge Computing. Para mediados de 2022 existían redes 5G en más de 70 países que se espera lleguen a más de 1.000 millones de personas en los próximos tres años.
Un blanco de los cibercriminales: El crecimiento de dispositivos y redes Edge los convertirá en un objeto de deseo por parte de los cibercriminales. Recordemos ataques como el realizado contra el oleoducto Colonial Pipeline en 2021 o el de la empresa de Internet estadounidense Dyn en 2016. El informe ‘AT&T Cybersecurity Insights Report: Securing the Edge’ descubrió que el 74% de los responsables de seguridad encontraron probable que sus organizaciones se vieran afectadas por esta vía.
Cloud Gaming: ¿Para qué comprar un costoso computador de videojuegos si es posible acceder a ellos desde cualquier pantalla a la manera de Netflix? El Cloud Gaming es una tendencia que ha involucrado a gigantes como Nvidia, Sony y Google, por solo mencionar tres casos. Sin embargo, los costos de mantener una red con la suficiente velocidad eran un desafío en términos costo-beneficio, pero la tecnología ha mejorado cada año.
Más datos que nunca: Como consecuencia directa de una mayor cantidad de dispositivos y de redes con mayor capacidad para el transporte de información, la cantidad de datos que se administrará en la periferia será más grande que nunca. Recordemos que globalmente los datos se han disparado pasando de 2 zettabytes de información en 2010 a más de 120 zettabytes para 2023.
Inteligencia Artificial: Es la tendencia del momento, aunque la carga más pesada del procesamiento se realizará desde los grandes centros de datos, también es posible desacoplar algunas instancias (algoritmos) en la periferia gracias a la evolución de los dispositivos en el borde. Piense, por ejemplo, en el sistema automático de frenado de algunos autos inteligentes, en las cámaras de videovigilancia de los centros de datos o incluso en el despliegue de imágenes satelitales.
¿Cómo implementar Edge Computing en tu empresa?
Como con cualquier proyecto, la tecnología debe responder a un principio básico, que es resolver un problema o una situación. Se habla de establecer objetivos claros y cuánto se puede gastar en este proceso, porque el Edge Computing es una plataforma flexible que puede operar en diferentes parámetros.
Por ejemplo, existen entornos en los cuales es vital disminuir al mínimo posible la latencia (latency critical), como en carreteras o en hospitales. Por otra parte, existen ambientes donde la latencia es muy importante (latency sensitive) pero no tan prioritaria como en el primer caso, piense, por ejemplo, en el comercio electrónico.
Disminuir esta latencia tiene un costo. ¿Cuánto vale para cada organización? La respuesta es subjetiva para cada vertical. También es importante establecer qué procesos van a ser sometidos a esta transformación siendo ideales aquellos que:
- Necesitan una toma de decisiones rápida.
- Generan gran cantidad de datos.
- Tengan retos en su conectividad.
Una vez elegido el proceso a mejorar, deben responder a otros interrogantes claves, como: ¿qué tan inteligentes deben ser los dispositivos en el borde y dónde vamos a ubicar las capas de procesamiento? En este aspecto, se suele hablar de bordes gruesos (thick) y delgados (thin) del Edge computing.
Los bordes gruesos suelen estar situados a kilómetros de los dispositivos edge, tener un suministro constante y confiable de energía y una capacidad de cómputo considerable. Por ello, su costo suele ser menor que el borde delgado.
El borde delgado suele estar a metros de los dispositivos, por lo que el tiempo de respuesta es menor, al igual que su consumo de energía, pero su costo de adquisición es más alto. La capacidad de cómputo es menor que la de su hermano mayor, pero ofrece una mayor seguridad de los datos al no salir de la red local de comunicaciones.
Otro aspecto fundamental es elegir el talento: ¿quién va a realizar la implementación? ¿In-house o un aliado externo? ¿quién va a estar a cargo de la seguridad de esta red? ¿qué tanta experiencia se tiene dentro de la organización en estas tecnologías?
En el caso de elegir aliados externos, es vital tener en cuenta variables como su experiencia en la vertical de mercado, certificaciones otorgadas por los fabricantes, casos de éxito anteriores y, por supuesto, realizar pruebas piloto. Después de todo, los procesos tecnológicos son procesos de constante innovación y mejora.
Imagen principal de Freepik