(ITNOW)-. ¿Qué se vendrá en el universo del edge computing? Los expertos analizan seis cuestiones que los líderes de TI necesitan comprender y abordar.
Si bien ya se conocen muchos aspectos del edge computing, el panorama general continúa evolucionando rápidamente. Por ejemplo, el “edge computing” abarca los sistemas distribuidos de las sucursales de tiendas minoristas que han existido durante décadas. Este término también comprende todo tipo de sistemas informáticos locales de fábricas y proveedores de telecomunicaciones, aunque de una manera más conectada y menos propietaria de la que solía predominar.
El edge computing ayuda a los líderes empresariales y de TI a resolver problemas a medida que proliferan los datos provenientes de los sensores y del machine learning.
Sin embargo, aunque en algunas implementaciones de edge computing se perciban rastros de antiguas arquitecturas, también se observan tendencias del edge en desarrollo que son verdaderamente nuevas o al menos muy diferentes de lo que existía anteriormente. Estas tendencias están ayudando a los líderes empresariales y de TI a resolver problemas en sectores que van desde el de telecomunicaciones al automotriz a medida que proliferan los datos provenientes de los sensores y el machine learning.
Las tendencias del edge computing que debería tener en cuenta
Los expertos en edge analizan seis tendencias a las que los líderes empresariales y de TI deberían prestar atención en 2022:
Las cargas de trabajo en el edge aumentan
Uno de los cambios importantes que estamos viendo es que, en el edge, hay más informática y más almacenamiento. A menudo los sistemas descentralizados existían más para disminuir la dependencia de los enlaces de red que para realizar tareas que no podían hacerse en la práctica en una ubicación central mediante comunicaciones razonablemente confiables. Pero eso está cambiando.
El IoT, por definición, siempre ha involucrado la recolección de datos. No obstante, lo que supo ser un goteo se ha convertido en un aluvión dado que los datos que necesitan las aplicaciones de machine learning (ML) fluyen de un sinnúmero de sensores.
Pero aun cuando los modelos de entrenamiento se desarrollen con frecuencia en un centro de datos centralizado, la aplicación continua de esos modelos generalmente se traslada al borde de la red. Esto reduce los requisitos de ancho de banda de la red y permite accionar más rápidamente a nivel local, como apagar una máquina en respuesta a una lectura anómala de un sensor. El objetivo es aportar información para adoptar medidas en el momento preciso.
RISC-V va ganando terreno
Se sabe que las cargas de trabajo que hacen un uso intensivo de los datos y los recursos informáticos necesitan hardware en el cual ejecutarse. Los rasgos específicos varían en función de la aplicación y del equilibrio requerido entre rendimiento, potencia y costo, entre otros. Las opciones suelen circunscribirse a algo personalizado, ARM o x86. Ninguna es del todo abierta, aunque ARM y x86 con el tiempo han desarrollado un enorme ecosistema de hardware y software de soporte impulsado, en gran parte, por los principales diseñadores de componentes de procesadores.
Pero RISC-V es una arquitectura de conjunto de instrucciones de hardware abierta nueva e intrigante.
¿Por qué es intrigante? Así lo explica Yan Fisher, evangelizador global de tecnologías emergentes de Red Hat: “Lo que distingue a RISC-V es que su proceso de diseño y su especificación son genuinamente abiertos. Su diseño refleja las decisiones de la comunidad basadas en la experiencia y la investigación colectivas.”
Este enfoque abierto y el ecosistema activo que lo acompaña ayudan a promover las ventajas del diseño de RISC-V en todos los sectores. Calista Redmond, CEO de RISC-V International, comenta lo siguiente: “Con este giro hacia el edge computing, observamos una gran inversión en RISC-V en todo el ecosistema, desde empresas multinacionales como Alibaba, Andes Technology y NXP hasta empresas emergentes como SiFive, Esperanto Technologies y GreenWaves Technologies, que diseñan soluciones RISC-V innovadoras para el edge y la AI”.
Las redes de acceso de radio virtuales (vRAN) han pasado a ser un caso de uso del edge cada vez más importante
Como parte de las implementaciones de 5G, las operadoras están optando por un enfoque vRAN más flexible.
Una red de acceso de radio es responsable de habilitar y conectar dispositivos como smartphones o dispositivos del Internet de las Cosas (IoT) con una red móvil. Como parte de las implementaciones de 5G, las operadoras están optando por un enfoque vRAN más flexible en el cual los componentes lógicos importantes de la RAN se desagregan mediante el desacople del hardware y el software y también mediante el uso de tecnología de nube para lograr una colocación de cargas de trabajo, implementaciones y escalamientos automatizados.
Hanen Garcia, gerente de soluciones de telecomunicaciones de Red Hat, e Ishu Verma, evangelizadora de tecnologías emergentes de Red Hat, observan lo siguiente: “Un estudio indica que la implementación de soluciones de RAN virtuales (vRAN)/Open RAN (oRAN) logran reducir el costo total de propiedad de la red hasta en un 44% en comparación con las configuraciones de RAN distribuidas/centralizadas tradicionales.”
Además: “A través de esta modernización, los proveedores de servicios de comunicaciones (CSP) pueden simplificar las operaciones de red e incrementar la flexibilidad, disponibilidad y eficiencia, al mismo tiempo que prestan servicio a un número de casos de uso cada vez mayor. Las soluciones de RAN nativas de la nube y de los contenedores reducen los costos, simplifican las actualizaciones, las modificaciones y la capacidad de escalarse horizontalmente, con menos dependencia del proveedor que con las soluciones basadas en máquinas virtuales”.
La escalabilidad impulsa enfoques operativos
Una arquitectura de edge computing puede diferir de una arquitectura que solo se implementa dentro del recinto de un centro de datos en muchos aspectos. Los dispositivos y las computadoras pueden tener una seguridad física endeble y no contar con personal de TI en el lugar. La conectividad de la red puede no ser confiable. No se garantiza tener un buen ancho de banda o baja latencia. Pero muchos de los desafíos más apremiantes tienen que ver con la escalabilidad; pueden existir miles (o más) de puntos finales de red.
“Hay que estandarizar sin piedad y minimizar la superficie operativa”.
Kris Murphy, ingeniero de software sénior principal de Red Hat, identifica cuatro pasos básicos que se deben dar para manejar la escalabilidad: “Hay que estandarizar sin piedad, minimizar la superficie operativa, priorizar los pulls por sobre los pushes y automatizar las pequeñas cosas”.
Por ejemplo, Kris recomienda hacer actualizaciones transaccionales, es decir, atómicas, para que el sistema no termine actualizándose parcialmente y quede mal definido. Al realizar actualizaciones, conviene que sean los puntos finales los que soliciten las actualizaciones dado que es más factible que haya “conectividad de salida” disponible. También sugiere limitar las cargas máximas no realizando las actualizaciones al mismo tiempo.
El edge computing necesita certificación
En vista de los escasos recursos disponibles en el borde, las opciones pragmáticas que se deben tener en cuenta son las que requieren pocos o nulos recursos locales. Una vez más, el enfoque que se adopte debe ser sumamente escalable, de lo contrario, sus usos y beneficios se verían muy reducidos. Una de las opciones que se destaca es el proyecto Keylime. “Se debería tener en cuenta las tecnologías como Keylime, capaces de verificar que los dispositivos informáticos arranquen y continúen en un estado de funcionamiento confiable en función de las necesidades, para las grandes implementaciones, especialmente en entornos con recursos limitados”, dice Ben Fischer, evangelizador de tecnologías emergentes de Red Hat.
Keylime ofrece la certificación de arranque remoto y de tiempo de ejecución mediante una Arquitectura de Medición de Integridad (IMA) y utiliza los Módulos de Plataforma Confiables (TPM) que son comunes a las placas madres de la mayoría de las laptop, desktop y servidores. De no haber TPM de hardware, se pueden cargar TPM virtuales o vTPM que aporten la funcionalidad TPM necesaria.
La certificación de arranque y de tiempo de ejecución es la forma de verificar que el dispositivo de borde arranque hasta alcanzar un estado confiable conocido y lo mantenga durante su funcionamiento. En otras palabras, si ocurre algo imprevisto, como un proceso fraudulento, el estado previsto cambiará. Esto se verá reflejado en la medición y desconectará el dispositivo porque habrá asumido un estado no confiable. Este dispositivo será objeto de investigación, tras la cual se lo corregirá y pondrá nuevamente en funcionamiento en un estado confiable.
La computación confidencial es más importante en el borde
La seguridad en el borde requiere una preparación más exhaustiva. Los recursos disponibles, como la conectividad de la red, la electricidad, el personal, el equipamiento y la funcionalidad, varían mucho, pero son muchos menos de los que habría disponible en un centro de datos. Estos recursos limitados restringen las capacidades de garantizar la disponibilidad y la seguridad. Además de cifrar el almacenamiento local y las conexiones a sistemas más centralizados, la computación confidencial ofrece la capacidad de cifrar los datos mientras los utiliza el dispositivo de edge computing.
Esto protege los datos durante su procesamiento y el software que procesa los datos evitando su captura o manipulación. Fischer sostiene que “la computación confidencial en los dispositivos de edge computing se convertirá en la tecnología de seguridad base de la computación en el borde debido a los recursos de borde limitados”.
Según el informe del Consorcio de Computación Confidencial (CCC) realizado por el grupo Everest, La computación confidencial: la próxima frontera en seguridad de los datos, “la computación confidencial en una red de borde distribuida también puede ayudar a lograr nuevas eficiencias sin afectar la privacidad de los datos o de la IP al construir una base segura donde escalar los análisis en el borde sin comprometer la seguridad de los datos”.
Asimismo, la computación confidencial “garantiza que los dispositivos de edge e IOT solo ejecuten los comandos y códigos autorizados. El uso de la computación confidencial en los dispositivos de IOT y de edge y en el backend ayudan a controlar la infraestructura crítica al impedir que se manipule el código de los datos que se transmiten entre las interfaces”.
Las aplicaciones de la computación confidencial en el borde abarcan desde vehículos autónomos hasta la recopilación de información confidencial.
Aplicaciones disímiles entre industrias
La diversidad de estas tendencias del edge computing refleja la diversidad y la escalabilidad de las cargas de trabajo en el edge. Existen algunos denominadores comunes —múltiples espacios físicos, el uso de tecnologías nativas de la nube y de los contenedores, un mayor uso de machine learning. Sin embargo, las aplicaciones de telecomunicaciones a menudo tienen poco en común con los casos de uso industriales del IoT, que a su vez difieren de aquellos de la industria automotriz. Pero, independientemente de en qué sector se concentre, descubrirá que en 2022 ocurrirán cosas muy interesantes en el borde.
コメント