El Edge Computing sitúa las funciones de adquisición y control de datos, el almacenamiento de contenido de gran ancho de banda y las aplicaciones más cerca del usuario final. Se introduce como punto final lógico de una red (Internet o red privada) como parte de una arquitectura de computación en nube más extensa

En este documento abordaremos tres aplicaciones primarias del Edge Computing.

1. Como herramienta para reunir grandes volúmenes de información proveniente de “objetos” locales como punto de agregación y control.

2. Como almacenamiento local y suministrador de contenidos de uso intensivo de ancho de banda formando parte de una red de distribución de contenidos.

3. Como herramienta local de aplicaciones y procesos para replicar servicios en la nube y aislar el Data Center de la nube pública.

Pero antes de tratar las aplicaciones y soluciones, vamos a definir cómo funcionan las redes e Internet.

Transmisión de datos “este-oeste”

Los datos de la fuente se convierten en paquetes que se transmiten a través de la red mediante un protocolo de red denominado IP (Internet Protocol). Otro protocolo llamado BGP (Border Gateway Protocol) se ocupa del enrutamiento en Internet. Internet se diseñó para sobrevivir a caídas masivas, sorteando los posibles problemas. BGP no tiene en cuenta la temporización del enrutamiento de datos. Solo considera el número de “saltos” (hops) entre las dos redes que intentan comunicarse. Esos saltos pueden estar sufriendo graves congestiones o la ruta puede seguir un trayecto físicamente más largo, con menos saltos, en lugar de un trayecto mucho más corto con múltiples saltos.

Recomendado: La Digitalización como motor de la eficiencia y sustentabilidad eléctrica

Aunque el funcionamiento de BGP es sumamente fiable y se trata de una tecnología fundamental sobre la cual se sustenta Internet, es muy poco eficaz desde el punto de vista de la latencia (retardos, inestabilidad y congelación de imágenes).

Transmisión de norte a sur

Los datos fluyen desde el interior de la red de un Data Center típico hacia el exterior partiendo de una interfaz de servidor físico y a través de conmutadores situados en la parte superior del rack o de conmutadores de final de fila. Desde cada conmutador situado en la parte superior del rack, los datos pasan por un conmutador de agregación, el cual dirige los datos a través de un conmutador central que es el punto principal de entrada y salida del Data Center.

Cada uno de estos conmutadores transfiere datos y se considera un salto de red, con la correspondiente ralentización y posibilidad de congestionar la red. Si existe un número de abonados excesivo en cualquier capa de red (es decir, que el ancho de banda no está dimensionado para un pico de salida), aumentan las posibilidades de sufrir ralentizaciones adicionales en periodos de uso intensivo

La latencia es el tiempo transcurrido entre el momento en que se transmite un paquete de datos hasta el momento en que alcanza su destino (ida) y regresa (ida y vuelta). Pese a que la mayoría de los datos solo hacen el trayecto de ida, este resulta casi imposible de medir. Por este motivo la medida de latencia más habitual es el tiempo de ida y vuelta desde un solo punto.

Las latencias de ida y vuelta inferiores a 100 milisegundos (ms) son habituales, aunque lo deseable es que sean de menos de 25 ms. El ancho de banda hace referencia a la velocidad de transmisión de los datos en la red. Cada fabricante especifica la velocidad máxima de sus equipos de red. Sin embargo, la velocidad real alcanzada en una red concreta es casi siempre inferior al valor máximo.

El exceso de latencia da lugar a “atascos” que evitan que los datos aprovechen toda la capacidad de la red. El impacto de la latencia sobre el ancho de banda de la red puede ser temporal (unos pocos segundos), como un semáforo, o constante, como en el caso de un puente con un solo carril.

La mayor probabilidad de congestión de la red viene dada por el contenido de vídeo de gran ancho de banda. Por ejemplo, una televisión 4K y la transmisión de vídeo son las aplicaciones de gran ancho de banda que crecen con mayor rapidez.

Para aliviar la congestión de la red y mejorar la transmisión de contenidos de gran ancho de banda, tanto ahora como en el futuro, los proveedores de servicios han comenzado a interconectar sistemas en Internet que almacenan en caché el contenido más próximo al usuario. Esto permite suministrar el contenido rápidamente a numerosos usuarios duplicándolo en múltiples servidores y dirigiéndolo a los usuarios en función de su proximidad. El almacenamiento en caché en estos sistemas es un ejemplo de Edge Computing.

Las tecnologías que dotarán de “inteligencia” a todo (ciudades, agricultura, coches, salud, etc.) en el futuro exigen una implantación masiva de sensores para establecer el Internet of Things (IoT). Un sensor IoT consiste en un nodo u objeto sin capacidad de computación con una dirección IP que se conecta a Internet.

A medida que el precio de los sensores desciende, el número de objetos IoT se dispara. Cisco calculó que IoT contará con 50.000 millones de dispositivos conectados a Internet en 2020. IoT puede automatizar las operaciones:

  • Recopilando automáticamente información sobre elementos físicos (máquinas, equipos, dispositivos, instalaciones o vehículos) para supervisar su estado o comportamiento.
  • Utilizando esa información para proporcionar visibilidad y control con el fin de optimizar procesos y recursos. El término Machine to Machine (M2M) hace referencia a las tecnologías que permiten que los sistemas cableados o inalámbricos se comuniquen con otros dispositivos del mismo tipo.

M2M se considera parte integral de IoT y aporta varias ventajas en el ámbito industrial y comercial en general, ya que tiene una amplia gama de aplicaciones en la Ciudad Inteligente. Industrial Internet of Things (IIoT), que incluye el aprovechamiento de los datos de los sensores, el control de la comunicación entre máquinas y las tecnologías de automatización, genera grandes cantidades de datos y tráfico de red.

Los sistemas informáticos industriales privados y las tecnologías de red están migrando hacia sistemas comerciales generalizados que se comunican sobre redes IP. La exploración de gas y petróleo es un ejemplo de aplicación IIoT.

Un grupo de drones voladores denominados “robots de recogida aérea de datos” examina las zonas de trabajo durante la exploración y genera grandes cantidades de datos en forma de vídeo de alta definición. Dichas zonas de trabajo son difíciles de coordinar, con sus flotas de grandes camiones, grúas y excavadoras.

Los métodos tradicionales de gestión del tráfico utilizaban helicópteros tripulados para la videovigilancia. Los drones autónomos pueden fotografiar las zonas de trabajo las 24 horas del día, proporcionando a los supervisores una vista actualizada al minuto de la distribución de sus recursos. El Edge Computing permite que los drones transmitan los datos en tiempo real y reciban instrucciones en el momento oportuno.

La necesidad de mantener o incrementar la disponibilidad de los recursos y las redes informáticas es casi siempre una prioridad importante. La computación en nube siempre ha sido una arquitectura centralizada. El Edge Computing transforma la computación en nube en una arquitectura de nube distribuida.

La principal ventaja reside en que cualquier clase de interrupción afecta a un solo punto de la red en vez de a toda la red. Un ataque de denegación de servicio distribuido (DDoS) o un fallo de suministro prolongado, por ejemplo, afectaría únicamente al dispositivo de Edge Computing, y a las aplicaciones locales que es te aloja, y no a todas las aplicaciones en ejecución en un Data Center de nube centralizada.

Las empresas que han migrado a la computación en nube deslocalizada pueden beneficiarse de la mayor redundancia y disponibilidad del Edge Computing. Las aplicaciones de negocio críticas o aquellas necesarias para las funciones básicas del negocio pueden duplicarse in situ.

En general existen 3 tipos de Edge Computing

Dispositivos locales: Dispositivos dimensionados para una finalidad definida específica. La implantación es “inmediata” y son adecuados para aplicaciones domésticas o en pequeñas oficinas. Algunos ejemplos serían el sistema de seguridad de un edificio (dispositivo Intel SOC) o el almacenamiento de contenido de vídeo local en un DVR. Otro ejemplo es una pasarela de almacenamiento en la nube compuesta por un dispositivo local, que normalmente es un appliance o servidor con las APIs necesarias, como SOAP o REST.

Las pasarelas de almacenamiento en la nube permiten que los usuarios integren dicho almacenamiento en las aplicaciones sin trasladar las aplicaciones a la nube misma. Data Centers de 1-10 racks localizados: Estos Data Centers ofrecen capacidades de procesamiento y almacenamiento importantes y se instalan con rapidez en entornos ya existentes. Es frecuente que estén disponibles como sistemas configurables a la carta prediseñados que posteriormente se ensamblan in situ.

Otra clase de Data Center localizado son los micro Data Centers prefabricados, montados en fábrica y depositados directamente en su centro de trabajo. Estos sistemas, compuestos por un solo envolvente, pueden utilizar distintas clases de envolventes (impermeables, a prueba de corrosión, antiincendios, etc.) o envolventes estándar para oficinas.

Las versiones de rack individual pueden aprovechar el edificio, la refrigeración y la alimentación ya disponibles, ahorrando gastos de capital, puesto que no es necesario construir un centro específico. La instalación requiere elegir un lugar próximo a la acometida de alimentación y de fibra del inmueble.

Las versiones con múltiples racks ofrecen más capacidad y versatilidad debido a su tamaño, pero exigen más tiempo de planificación e instalación y necesitan refrigeración propia. Estos sistemas de 1 a 10 racks son adecuados para una amplia gama de aplicaciones que necesitan baja latencia o gran ancho de banda, o bien más seguridad o disponibilidad.

Data Centers regionales: Los Data Centers con más de diez racks y situados más próximos al usuario y a la fuente de datos que los Data Centers de nube centralizada se denominan Data Centers regionales. Debido a su tamaño, su capacidad de procesamiento y almacenamiento es superior a la de los Data Centers localizados de 1 a 10 racks. Incluso cuando son prefabricados, su construcción tardará más tiempo que la de los Data Centers localizados debido a la posible necesidad de realizar obra, de obtener permisos y de cumplir los requisitos legales locales.

También requieren fuentes de alimentación y refrigeración propias. La latencia dependerá de la cercanía física a los usuarios y los datos, así como del número de saltos que los separen.


También te puede interesar: Plan “Innovar México”: Microsoft anunció nueva región de data centers