¿Desea recibir notificaciones de www.defensa.com?
X
Viernes, 19 de julio de 2024 Iniciar Sesión Suscríbase

El futuro del Edge Computing y su impacto en la seguridad, la labor pionera de UPM de Madrid

El profesor José Manuel Moya Fernández experto en ciberseguridad y eficiencia energética durante su intervención en el evento “El ciberespacio, único y responsabilidad de todos”.
El profesor José Manuel Moya Fernández experto en ciberseguridad y eficiencia energética durante su intervención en el evento “El ciberespacio, único y responsabilidad de todos”.
El profesor José Manuel Moya Fernández, experto en ciberseguridad y eficiencia energética, abordó el tema del Edge Computing y su evolución en el futuro cercano en el evento “El ciberespacio, único y responsabilidad de todos” organizado por Grupo Edefa en la Universidad Politécnica de Madrid. Destacó que el paradigma del Edge Computing, que implica la delegación del cloud cerca de la fuente de datos, es fundamental para abordar los problemas de latencia y ancho de banda que surgen en aplicaciones que requieren procesamiento intensivo de datos.

Moya Fernández destacó que los centros de datos de los proveedores de hiperescala, como Google, están muy eficientemente gestionados y tienen una utilización muy alta. Sin embargo, los centros de datos de Edge Computing, que están más cerca del cliente, tienen una eficiencia muy diferente, con un PUE (Power Usage Effectiveness) de 1,58, lo que significa que consumen más energía en refrigeración que en computación.

Enfatizó que la eficiencia energética es crucial en el Edge Computing, ya que los centros de datos deben estar cerca de los usuarios y ser capaces de adaptarse a diferentes climas y situaciones. Para lograr esto, se necesitan soluciones innovadoras, como la inmersión de sistemas de computación en líquidos dieléctricos, que permiten aumentar la densidad de la bestia y ser independientes del clima.

Además, el profesor Moya Fernández destacó la importancia de la seguridad en el Edge Computing, ya que los centros de datos deben ser capaces de detectar anomalías y ser federales, es decir, compartir recursos y sistemas de computación entre diferentes aplicaciones y organizaciones. La gestión automática, basada en aprendizaje automático, es fundamental para lograr esto.

Su ponencia también abordó el tema de la heterogeneidad en los centros de datos, que permiten optimizar los recursos para diferentes aplicaciones y aumentar la vida útil de la infraestructura. Destacó que la federación es crucial para lograr una eficiencia y escalabilidad sostenibles. Los expertos en ciberseguridad y eficiencia energética, destacó, deben abordar los desafíos de la eficiencia energética y la seguridad en los centros de datos de Edge Computing para lograr una infraestructura sostenible y escalable.

Ingeniero de Telecomunicación y Doctor Ingeniero de Telecomunicación por la Universidad Politécnica de Madrid. Actualmente, es Profesor Contratado Doctor del Departamento de Ingeniería Electrónica e investigador del Laboratorio de Sistemas Integrados y del Centro de Simulación Computacional, donde lidera el área de eficiencia energética en centros de datos.

El avanzado centro de datos de Edge Computing desarrollado por la UPM

La Universidad Politécnica de Madrid ha desarrollado un nuevo Edge que básicamente tiene cuatro características que son fundamentales y disruptivas. Primero, es un Edge distribuido, o sea que hay redundancia, tiene sistemas de computación asociados a distintas VPS, si falla uno pasa al otro, está un poquito más lejos, de manera que la latencia tampoco es mucho mayor. Lo segundo es que hay heterogeneidad. Estos módulos de Edge pueden ser totalmente optimizados para una aplicación y entonces es cuando de verdad se saca el máximo beneficio.

Básicamente, conciben un centro de datos como una pieza de Lego, con unos cuantos módulos optimizados para distintas aplicaciones que son las que se usen en ese momento. Si crece la demanda de datos servicios, habrá un nuevo módulo optimizado para esa aplicación y cuando deja de ser útil en un sitio, puede ser útil en otro sitio.

Esos módulo se pueden desplazar y eso significa que aumenta la vida útil de la infraestructura IDE a menos de tres vidas. “Si tenemos bloques de centro de datos que podemos mover libremente a funcionar en necesidades, pues esto escala mucho mejor y además es más eficiente. Porque el modelo del centro de datos actual se diseña para que sea eficiente cuando está lleno, pero cuando está lleno hay que empezar a construir otro. Entonces no es eficiente en general”, explica Moya.

Su propuesta es utilizar sistemas de inmersión de dos fases, básicamente lo que utilizan son líquidos dieléctricos y el sistema de computación va en inmersión, lo que permite aumentar la densidad. Esas son las dos ventajas: la heterogeneidad y la redundancia. Tenemos muchos datos que nos permiten detectar anomalías. Tenemos heterogeneidad que significa que, si atacan algún sistema, a lo mejor nosotros no somos vulnerables porque son totalmente diferentes, son específicos para otra población.

Y por otro lado, tiene que ser federal, “que significa que los sistemas de computación que se utilizan para el sistema público de salud a lo mejor se utilizan también para ayudar a prevenir accidentes o también a ayudar en la transformación digital de las pymes en el entorno. Hay parte pública, parte privada, de unos organismos, de otros, computación utilizando recursos de unos y de otros. Esa federación hace la cosa bastante complicada desde el punto de vista de seguridad. Pero es una necesidad si queremos ser sostenibles, escalables y eficientes”, explica el profesor Moya.

El sistema de refrigeración que plantean es por inversión, con dos fases, con líquidos dieléctricos, en particular están estudiando hidrofluoroéteres y fluoroespermones. Estos líquidos tienen una característica muy interesante, aparte de que son dieléctricos, a la temperatura que se pone en los procesadores se evaporan, o sea, generan burbujas y ese cambio de fase absorbe muchísimo calor y se va a solo.

“Es una refrigeración de dos fases totalmente pasiva, el único consumo de energía en la refrigeración sería el consumo de la bomba para circular agua, para absorber ese calor en el condensador, pero no mucho más. El ahorro que supone de refrigeración es del 95% con respecto a tecnologías altas y el puer que se puede conseguir es incluso mejor que el de Google, sin además tener un impacto medioambiental apreciable. No es ciencia ficción, es algo que ya tenemos en prototipos y que es fuente de la colaboración con muchas empresas, con bastantes proyectos de investigación, tratando al menos muchos de los aspectos y hay uno de los que nos queda, que es importante, que es el tema de la seguridad y cómo plantear una colaboración segura sin tercero confiable, esa es algo que queda y que es importante”, detalla.

“En el mismo espacio que teníamos 9 GPUs nosotros podemos meter 18 y podemos duplicar la densidad. Lo que queremos probar es la máxima densidad que podemos conseguir y la máxima densidad es muy alta. Nuestro prototipo es del orden de 100 kW por m2 frente a lo normal y en un centro de datos tradicional que es del orden de 10 kW por m2, pero es fácilmente alcanzable del orden de 300 kW por m2”.


Copyright © Grupo Edefa S.A. Prohibida la reproducción total o parcial de este artículo sin permiso y autorización previa por parte de la empresa editora.