Análisis del BIG DATA y redes de alto rendimiento y computación, marcan el camino de la conducción autónoma

0 Comentarios Publicado diciembre 7, 2018 Varios

Al utilizar la TI adecuada, los fabricantes de automóviles y los proveedores, pueden obtener una ventaja decisiva sobre la competencia en el desarrollo de automóviles de auto conducción.

Los fabricantes y proveedores de la industria del automóvil están participando en una carrera: en la actualidad, se trata de quién puede distinguirse de la competencia en el proceso de desarrollo de aplicaciones para la conducción autónoma. El desafío para todos los involucrados: enormes cantidades de datos que deben almacenarse y procesarse. Por ejemplo, los conjuntos de datos del tamaño de un petabyte (imagina un número de 15 ceros) se generan al filmar situaciones de tráfico en vehículos de fabricantes de automóviles y proveedores, vistos, etiquetados y almacenados por decenas de miles de desarrolladores que necesitan alojarse en centros de datos.

El etiquetado desempeña un papel crucial en el desarrollo de sistemas de conducción autónomos. Este es el proceso de detectar el coche en el modo de auto-Drive de atribución previa de secuencias de vídeo grabadas, tales como un ciervo a 50 metros, a 30 metros de distancia y luego a partir de 10 metros de distancia, para que el coche en ese caso, tome la decisión correcta en tiempo real. El automóvil aprende del “etiquetado” anterior de los videos por parte de los desarrolladores cómo se ve cada situación de tráfico imaginable para poder reaccionar adecuadamente cuando se implementa en la carretera.

Debido a que hay miles de millones de decisiones de este tipo en todo el mundo, los datos se están evaluando y categorizando actualmente utilizando el análisis del BIG DATA y la computación de alto rendimiento. Esta situación ha cambiado sobremanera el reclamo de la industria automotriz a la red de TI.

Hasta ahora, la red se ha usado “solo” como una red corporativa para ejecutar aplicaciones centrales como SAP y Oracle, por lo que se convierte en una aplicación empresarial en sí misma. El BIG DATA debe procesarse de forma rápida y eficiente de un país a otro y de un continente a otro, especialmente para las empresas que operan a nivel mundial con los anchos de banda más altos y la latencia más baja según el principio “follow the sun” / “seguir al sol”. Anteriormente, estas demandas en la red de datos eran conocidas principalmente por la industria financiera. Por ejemplo, los comerciantes pueden reaccionar a las fluctuaciones de los precios casi en tiempo real a través de la computación de alta capacidad y baja latencia. Pero en el proceso de desarrollo de la conducción autónoma, estas características de la red son también factores críticos de éxito para los fabricantes y proveedores de automóviles que operan a nivel mundial ya que de forma rápida y eficiente pueden evaluar grandes volúmenes de datos con la red WAN más adecuada, posicionándose a la cabeza de este nuevo mercado.

La infraestructura de red sirve de base

A medida que los procesos de desarrollo para la conducción autónoma tienen lugar en todo el mundo y los centros de datos se extienden por diferentes continentes, y es cada vez más evidente que la infraestructura de red de datos de una empresa es un factor destacado en el éxito o fracaso de un proyecto.

Para que las empresas obtengan una ventaja significativa, es importante que se aseguren de que dispondrán de una gran red troncal global para sus redes de datos al elegir su proveedor de servicios de TI. También debe garantizar que la WAN de análisis de BIG DATA y computación de alto rendimiento se alinee con la velocidad más alta, la latencia más baja y que todas las aplicaciones y servicios puedan ejecutarse.

También se obtiene ventaja si se asegura que el proveedor del servicio, puede hacer que su red de datos esté disponible en diferentes capas. Por lo tanto, tanto una red administrada en la Capa 3 como una red no administrada en la Capa 2.

Oferta de la red en la capa 2

La WAN no administrada en la Capa 2 desempeña un papel clave aquí: las empresas deben poder administrar las secuencias de datos a nivel IP para que el análisis interno se pueda realizar de manera flexible y eficiente utilizando la computación de alto rendimiento.

Solo si la empresa tiene el enrutamiento de los paquetes en sus propias manos, se puede garantizar que los datos prioritarios puedan enviarse independientemente del tiempo, incluso con el mayor ancho de banda.

El principio de “follow the sun” / “seguir al sol”, juega un papel principal en esta situación porque, además de la priorización independiente del tiempo, también deben tomarse decisiones de enrutamiento independientes de la ubicación. Esto garantiza que las empresas siempre tengan el ancho de banda y la potencia informática que necesitan, sin importar en qué lugar del mundo estén.

Flexible y potente: almacenamiento SD

Sin embargo, la infraestructura WAN con la oferta de red más adecuada, solo es una cara de la moneda: sin la correcta solución de almacenamiento, los fabricantes y proveedores de automóviles solo pueden hacer un uso insuficiente de las capacidades de red existentes.

Sin embargo, los conceptos de almacenamiento tradicionales a menudo no proporcionan la flexibilidad necesaria para el desarrollo de aplicaciones de conducción autónoma, generan demasiado coste, o a menudo hacen que los datos almacenados sean inaccesibles con la suficiente rapidez.

Aquí está la solución: almacenamiento en SD. Esta tecnología proporciona una solución segura, aplicable a nivel mundial y técnicamente flexible. Con el almacenamiento SD, se pueden transferir grandes cantidades de datos rápidamente y en cualquier momento a diferentes centros de datos o a los respectivos usuarios. Además, los datos ya no necesitan ser “eliminados”, el almacenamiento SD puede mantener toda su capacidad de almacenamiento como “Tier1”. A menudo las empresas no pueden “sembrarlos” al guardar los datos, porque no saben cuándo necesitarán los datos nuevamente. Con el almacenamiento SD evita el riesgo de cometer errores en este punto. Por lo tanto, es un elemento absolutamente valioso cuando se trata de tomar una posición de liderazgo en la etapa actual del desarrollo de la conducción autónoma.

Desarrollos para que el coche pueda tomar sus propias decisiones

La infraestructura WAN adecuada, las ofertas de red oportunas y óptimas soluciones de almacenamiento son cruciales en la actual fase para lograr el objetivo general de una conducción autónoma.

Debido a que ninguna red de datos será lo suficientemente rápida y la latencia no será lo suficientemente baja para que el vehículo tenga tiempo para comunicarse con un centro de datos antes de su decisión.

Red corporativa y red de negocios se convierten en una

Además de los beneficios de la conducción autónoma, las empresas también tienen la oportunidad de utilizar la infraestructura de red del proveedor de servicios adecuado para operar la red corporativa para sus empleados. Con una sola red troncal, todos los servicios en diferentes capas en todo el mundo se pueden reproducir fácilmente. Incluso las aplicaciones como voz sobre IP o troncales SIP se pueden agregar según se desee.

A medida que las empresas se dan cuenta de este valor agregado, no solo pueden estar a la vanguardia de la carrera de la auto-conducción de desarrollo de automóviles, sino que también pueden ahorrar costes y recursos. �W


¿Qué pasará con los bitcoins? Quizás próximamente lo sepamos….

0 Comentarios Publicado noviembre 5, 2018 Actualidad del Sector TIC Big Data El rincón del experto Futuro en la red Últimas noticias

El valor máximo y mínimo de bitcoin continúa experimentando una fase de extrema incertidumbre en espera de la eventual aprobación de la Comisión de Bolsa y Valores de Estados Unidos (SEC) sobre los ETF.  

Hace unos meses, la criptomoneda más famosa de blockchain en el mundo, estaba literalmente en boca de todos y parecía estar destinada a un tener  crecimiento infinito.(a tener un crecimiento infinito).  Y, sin embargo, en esta segunda parte del año, los bitcoins también están experimentando una fase de extrema incertidumbre con malos augurios.  

Empecemos por el valor actual, un bitcoin oscila entre valores extremadamente superiores a los de octubre de 2009, cuando eran solo 0,00076 dólares pero, al mismo tiempo, extremadamente más bajos que los picos a fines de 2017, cuando valía alrededor de 19 mil dólares.  

Quien invierta de inmediato en bitcoins, puede dormir tranquilo pero aquellos que los descubrieron tarde e invirtieron sus ahorros durante la burbuja de diciembre de 2017, ahora están experimentando una fase de extrema incertidumbre, tanto como la propia criptomoneda.  

Actualmente, el destino de los bitcoins parece estar en manos de la Comisión de Bolsa y Valores de Estados Unidos (SEC),  que en las próximas semanas tendrá que seguir resolviendo sobre algunas solicitudes de Exchange Traded Fund relacionadas con bitcoins después del rechazo de hasta 9 solicitudes el pasado 24 de agosto. 

Recientemente, a principios de este mes, la Comisión de Bolsa y Valores de los Estados Unidos (SEC) sostuvo una reunión con cinco representantes de las empresas SolidX, CBOE y VanEck, para tratar aspectos relacionados con la solicitud pendiente de aprobación para el Fondo de Inversión Cotizado (ETF) basados en bitcoin.  

(más…)


GTT actualiza su red en Europa Central y Oriental

0 Comentarios Publicado septiembre 18, 2018 Actualidad del Sector TIC Centros de datos Futuro en la red Información corporativa Service Providers

GTT ha anunciado la actualización de su red de fibra en Europa Central y del Este (CEE). La actualización de la red y las rutas de fibra adicionales de alta capacidad mejoran la diversidad, la escalabilidad y el rendimiento de la red IP global Tier 1 de GTT para clientes empresariales y operadores en la región de Europa central y oriental.

GTT está actualizando y mejorando sus rutas entre sus puntos de presencia de red en Alemania, Austria, Hungría, Bulgaria y Turquía, añadiendo una ruta distinta de baja latencia de Budapest a Sofía. GTT ha implementado la tecnología óptica de nueva generación a lo largo de las rutas, duplicando la capacidad óptica disponible por fibra en la actualización inicial, con la ventaja de ampliar capacidad para satisfacer la demanda de sus clientes.

GTT está cumpliendo con su objetivo de conectar personas y organizaciones en todo el mundo con cada aplicación en la nube”, afirma Rick Calder, presidente y CEO de GTT. “Europa central y oriental es un mercado importante para GTT, y esta actualización de la red da como resultado un conjunto aún más sólido de servicios de red en la nube para nuestros clientes”.

 


El negocio de Europac crece con la Plataforma Digital para Empresas de GTT

0 Comentarios Publicado septiembre 13, 2018 Actualidad del Sector TIC Casos de éxito Conectividad para empresas IoT Transformación digital

El Grupo Europac utiliza la SD-WAN de GTT para consolidar su proceso de digitalización, agilizar sus operaciones y procesos, mejorar la conectividad entre sus diferentes centros operacionales, y ofrecer el mejor servicio a sus clientes en el entorno cambiante de la industria 4.0.

Europac es el único fabricante de papeles kraftliner y estucados del sur de Europa, y uno de los principales proveedores europeos de envases. En la actualidad, posee 18 fábricas, 6 centros de gestión de residuos y 8.500 hectáreas de explotaciones forestales en España, Francia y Portugal.

La cambiante industria 4.0

Las empresas de fabricación se centran en la modernización y en su capacidad de gestionar y responder al cambio. Esto se refleja en los desafíos a los que se enfrenta la industria y que han dado lugar a un aumento en la innovación de productos, flexibilidad y automatización de los procesos de fabricación, desde la extensión de la impresión 3D a cosas “conectadas”, hasta la inteligencia en la cadena de suministro global. En un estudio de GTT con la opinión de más de 120 empresas de fabricación e ingeniería, más de la mitad, citan la capacidad de integrar tecnologías heredadas con aplicaciones habilitadas para la nube (58%), la agilidad para flexibilizar dentro de la estructura organizacional para permitir el cambio (56%) y el presupuesto disponible (55%), como sus principales barreras para lograr los objetivos de transformación digital.

Dado que el 93% de los fabricantes albergan ambiciones de crecimiento, muchos quieren saber si su organización es lo suficientemente flexible como para reaccionar ante los cambios geopolíticos y del mercado, así como para ofrecer valor a clientes y socios. La industria está realizando un cambio estratégico con la planificación tecnológica y lo que necesita ahora, son plataformas de TI flexibles que puedan habilitar, no inhibir, sino cambiar. Los fabricantes necesitan una red troncal flexible, que conecte la infraestructura heredada con las aplicaciones digitales para apoyar el cambio continuo y generar una ventaja competitiva.

(más…)


¿Machismo en la inteligencia artificial? Para evitarlo, se necesita ética

0 Comentarios Publicado agosto 27, 2018 Actualidad del Sector TIC Futuro en la red Últimas noticias Varios

El comportamiento de los dispositivos de inteligencia artificial depende de los datos ingresados ​​por el ser humano. Y en la IA, las figuras masculinas son la mayoría.

¿Qué pasa si la inteligencia artificial y sus algoritmos se vuelven dominados por los hombres? En un momento, en que el mundo occidental se está embarcando en una seria reflexión sobre los mecanismos que determinan el progreso de su sociedad y sobre la relación entre mujeres y hombres, el tema también está emergiendo en el universo de la innovación.

El riesgo de que las nuevas tecnologías puedan ser una oportunidad para construir una nueva era de machismo, existe. ¡Y cómo! Por una razón en particular: es un hecho que las figuras femeninas involucradas en las áreas de programación informática todavía son muy pocas y claramente minoritarias en comparación con los hombres. La tecnología, como sabemos, es una expresión directa del ser humano, y en este contexto, las figuras masculinas, al ser mayoría, podrían influir en las operaciones sobre los algoritmos de inteligencia artificial, a su vez influenciados por su sistema de valores.

El tema, que a primera vista podría parecer exagerado o superficial, es en cambio muy serio. Los números no son neutrales, sino instrumentos en manos de individuos y la visión de los algoritmos podría ser parcial desde el comienzo de los procesos de IA. En este contexto, el Reino Unido ya está tomando medidas mediante la implementación del llamado Centro de Ética e Innovación de Datos. Esta es una organización encargada de monitorear el uso correcto de las nuevas arquitecturas de inteligencia artificial, lo que nos permitirá establecer pautas en las que todos los empleados de TI deben contar. Y el Reino Unido no está solo, de hecho, Google ya lo está teniendo en cuenta.

La compañía californiana ha publicado recientemente en su blog, los principios para el uso de la inteligencia artificial. Una guía útil para comprender cuáles son las intenciones de la empresa en relación con la inteligencia artificial y cuáles son las piedras angulares que impulsan a los empleados a actuar a diario. Los principios cubren varios temas. Prestan especial atención a la discriminación de género, al peligro del sexismo y a la discriminación de raza, etnia, nacionalidad, ingresos y orientación sexual. Y piden a los expertos en datos que sean “responsables ante las personas”, que diseñen “sistemas que brinden oportunidades de retroalimentación apropiadas” y prueben “tecnologías de inteligencia artificial en entornos con limitaciones”, para poder supervisar “la operación después de distribución”.

Intervenir inmediatamente sobre los parámetros éticos dentro de los cuales, los seres humanos deben actuar en el desarrollo de la inteligencia artificial, es fundamental. También porque la innovación está dando grandes pasos, día tras día. Según una prueba realizada por el Media Lab del MIT en Boston, existe una inteligencia artificial capaz de demostrar la dinámica de la psicopatía. Una prueba que destacó cómo, los datos utilizados para entrenar la inteligencia artificial se reflejan directamente en la forma en que los sistemas tecnológicos perciben el mundo. ¿Y de dónde provienen esos datos? Del propio ser humano, y en su mayoría, de figuras masculinas, cosa que podría marcar el destino de la IA si no se realiza el proceso adecuadamente.


La digitalización ayuda al desarrollo de la Industria 4.0

0 Comentarios Publicado julio 5, 2018 Actualidad del Sector TIC Comunicaciones unificadas Conectividad para empresas Futuro en la red Transformación digital

La digitalización es una condición previa para la industria 4.0, y es un tema muy relevante para las empresas de fabricación, especialmente, cuando se trata de aplicaciones para análisis industriales, gestión energética, mantenimiento predictivo y logística inteligente.

La industria del acero está cambiando rápidamente debido a las frecuentes transformaciones de los procesos de negocios, a las iniciativas de reducción de costes e innovación. Las divisiones de TI en la industria se enfrentan a múltiples desafíos al adquirir diversos conjuntos de habilidades tecnológicas, capacitar al personal de TI, retener a los profesionales de TI experimentados y reemplazar a los veteranos. Además, la creciente actividad de fusiones y adquisiciones está haciendo que el panorama global de TI y automatización, sea más complejo e inmanejable. ¿Cómo se puede abordar entonces este problema progresivamente complejo?

La industria del acero ha experimentado cambios fundamentales en términos de externalización del desarrollo y mantenimiento de aplicaciones (ADM) de sus sistemas de TI y automatización. Los factores clave que influyen en esta transición son:
• Enfoque en operaciones principales y externalización de otras funciones
• Optimización del sistema y protección de los derechos de IP
• Personal envejecido y mecanismos de capacitación inadecuados
• Limitaciones funcionales y técnicas de los sistemas de TI heredados

A medida que crece la necesidad de externalizar los sistemas de TI, las principales industrias del acero están buscando activamente realizar el trabajo de mantenimiento a través de proveedores globales de TI.

El panorama de TI y automatización en la fabricación central es rico en dominios, lleno de sistemas heredados y propietarios. La empresa y los sistemas de fabricación también están estrechamente integrados. La externalización de los servicios de TI, por tanto, necesita una cuidadosa evaluación para minimizar los riesgos.

Las pequeñas empresas siderúrgicas subcontratan a proveedores locales, mientras que las más grandes subcontratan a proveedores globales. El sector del acero está principalmente orientado a ventas de gran volumen y un número menor de transacciones de ventas. Por lo general, no operan directamente con los usuarios finales individuales. Es por eso que no todas las nuevas tecnologías SMAC (servicios sociales, móviles, analíticos y cloud) que se han implementado en áreas de negocio para el cliente final, tienen impacto en la industria del acero. Sin embargo, la analítica y la nube, han tenido un gran impacto en la industria y eso requiere nuevos conjuntos de habilidades tecnológicas.
(más…)


Para implementar un sistema industrial de IoT, se necesita una nube híbrida

0 Comentarios Publicado junio 26, 2018 El rincón del experto Internet de las Cosas Internet of Things IoT Varios

Para implementar un sistema industrial de IoT, se necesita una nube híbrida

Aspectos esenciales para el uso de las tecnologías industriales de la IoT son la conectividad y los servicios de banda ancha. Abordar esta problemática, es un paso absolutamente necesario ya que se relaciona con el factor que habilita todas las tecnologías para la transformación digital.

Cristina Crucini, Responsable de Marketing de GTT en España, nos ayuda a profundizar en esta entrevista en los pasos centrales del camino hacia una IoT industrial.

¿Cuáles son los elementos que permiten implementar una infraestructura IoT?

Como es bien sabido, IIoT representa una revolución para la industria y muchos lo consideran el motor de la cuarta revolución industrial. La digitalización es un requisito previo para la industria 4.0 y ciertamente requiere infraestructuras de TIC adecuadas para este propósito, pero sobre todo de redes dimensionadas y escalables de manera adecuada. De hecho, la explosión de la cantidad de sensores de los dispositivos de comunicación y control, genera un gran volumen de datos (que se espera que siga aumentando) que requieren una infraestructura de red capaz de garantizar su transmisión rápida y efectiva. A esto, debe agregarse una integración con una nube segura y flexible para todos los aspectos de almacenamiento y procesamiento, así como la administración de un número creciente de aplicaciones.

¿Qué empresas deberían interesar a la IoT industrial?

Este es un fenómeno estrictamente vinculado a la fabricación, pero todas las empresas que buscan una mayor eficiencia y productividad son sensibles  a este tema. Según un análisis de Accenture, IIoT podría agregar $ 14,2 mil millones (Accenture, Winning with the Industrial Internet of Things) para 2030 a la economía global, una cifra que atestigua el interés de los posibles adoptantes de esta tecnología.

(más…)


Interoute obtiene un premio medio ambiental por su innovación en el ahorro de energía en centros de datos

0 Comentarios Publicado mayo 21, 2018 Actualidad del Sector TIC Centros de datos Últimas noticias

Las mejoras desarrolladas recientemente en el centro de datos de Ginebra de Interoute reducen su consumo de energía en 1.7GW al año.

Interoute ha sido galardonada con el Trofeo SIG GIGA como reconocimiento a sus exitosos esfuerzos para aumentar la eficiencia energética y reducir el consumo de CO2 de su centro de datos en Ginebra, Suiza. El trofeo se otorga a empresas en Suiza que demuestren un compromiso a largo plazo para mejorar la eficiencia energética, y aquellas que hayan reducido el consumo de electricidad en más de un gigavatio por hora al año.

Interoute ha logrado el ahorro de energía al implementar una variedad de mejoras de refrigeración y energía:

  • Un sistema de contención de pasillo frío hecho a medida. Aproximadamente 1.000 bastidores en el centro de datos estaban equipados con paneles y puertas de contención para pasillos fríos hechos a medida. El nuevo sistema significa que solo se enfrían los bastidores en lugar de toda la sala, lo que a su vez reduce el gasto total de energía. Garantiza un flujo de aire constante y predecible para eliminar los puntos de acceso del servidor. También permite la introducción de temperaturas específicas para crear el entorno operativo más eficiente para el equipo de TI en cada pasillo.
  • Senderos de enfriamiento únicos debajo del suelo. El equipo aumentó aún más el sistema de contención de pasillo frío mediante la construcción de vías selladas debajo del suelo elevado para garantizar que el aire frío se enviara directamente a los sistemas de contención. El resultado ha reducido aproximadamente a la mitad la cantidad de espacio debajo del piso que se debe enfriar, proporcionando un considerable ahorro de energía dado el espacio de 2.200m2 del centro de datos. Las vías también se adaptan a requisitos técnicos, como bandejas de cables para cableado de fibra y cobre y espacio para sistemas de detección de incendios.
  • Un sistema de enfriamiento nuevo y mejorado. Las 58 unidades de refrigeración existentes que usaban una velocidad de ventilador fija ahora se han adaptado para adaptarse a las velocidades de ventilador variables. Esto permite que las velocidades de los ventiladores se ajusten con precisión a la demanda, para evitar el uso excesivo de energía. Además de esto, el centro de datos ha sido equipado con una nueva infraestructura de enfriamiento libre de 1.2MW. En días fríos, esto aporta aire del exterior para ayudar a enfriar el equipo de TI, lo que reduce aún más la necesidad de unidades de refrigeración con alimentación.
  • Introducción de sistemas estáticos de alimentación ininterrumpida (UPS). La mitad de los sistemas de UPS rotativos existentes se han reemplazado con sistemas UPS nuevos y estáticos, que son más eficientes desde el punto de vista energético.
  • Reequilibrio de cargas de TI. Donde fue posible, los servidores se han consolidado y las cargas se han concentrado en menos bastidores, lo que permite que la refrigeración y el equipo se cierren en áreas vacías.

Brenderup Group da el salto a la nube con Interoute

0 Comentarios Publicado mayo 11, 2018 Actualidad del Sector TIC Casos de éxito Centros de datos SD-WAN Transformación digital

  • Interoute Cloud y SD-WAN ofrecen a los principales fabricantes escandinavos un mejor rendimiento para sus aplicaciones y una infraestructura preparada para futuras fusiones y adquisiciones.
Interoute ha sido seleccionado por Brenderup Group, fabricante líder de remolques y sistemas de soporte de carga, para alojar el entorno de servidores de la compañía. La empresa ha llevado a cabo un proyecto completo de migración de todos los servidores a la plataforma cloud del Centro de Datos Virtual de Interoute (VDC).
Interoute VDC, combinado con Interoute Edge SD-WAN, nos aporta una solución preparada para el futuro con una capacidad mucho mayor que la actual y bajas tasas de latencia, y además nos evita tener que trabajar con varios proveedores diferentes“, ha declarado Peter Nilsson, Responsable de la cadena de suministro en Brenderup Group. “La solución nos permite enfocarnos en el negocio principal y facilita nuestro crecimiento orgánico e inorgánico en nuestros mercados geográficos y canales de distribución, tanto actuales como nuevos. Interoute ya nos ha demostrado antes que entiende bien nuestras necesidades, por lo que esperamos seguir fortaleciendo nuestra relación“.
Interoute proporciona desde hace varios años un servicio de red MPLS a Brenderup Group, cuyos centros de trabajo están repartidos a en seis países de Europa. Ahora, Brenderup Group ha decidido ampliar su relación con Interoute para potenciar la transformación digital de la infraestructura TIC de la compañía. La nueva solución combina Interoute VDC con Interoute Edge SD-WAN, un servicio WAN definido por software que reduce el coste y mejora el rendimiento de las aplicaciones en la nube administrando el tráfico de red de una manera inteligente, lo que permitirá al Grupo simplificar el desarrollo de productos e implementar con mayor facilidad futuras adquisiciones.

Fog Computing: la niebla que aporta claridad a la nube

0 Comentarios Publicado mayo 8, 2018 Varios

La niebla es la nueva frontera de la nube. Este nuevo concepto de “niebla”, que está adquiriendo cada vez más popularidad, surgió de una idea más bien simple. En un mundo en incesante evolución tecnológica, la nube se va acercando cada vez más a la vida diaria de la gente, a los dispositivos tecnológicos que las personas utilizan cada día, incluso fuera del ámbito profesional o institucional. Dispositivos que, a través del mundo de la Internet de las Cosas, conectan objetos alejados entre sí.

Este concepto de “niebla” como paradigma de computación distribuida, omnipresente y cercana al usuario se materializa en infinidad de casos concretos, desde la popularización de los vehículos de conducción autónoma a los sistemas de monitorización remota de pacientes, los drones para entrega a domicilio o la iluminación adaptativa de calles y viviendas.

La metáfora de la niebla como evolución de la nube es muy acertada: como ocurre con la niebla en el mundo real, la nube está descendiendo hasta el nivel donde se encuentran las personas, incluso antes que al de las empresas. Y esa mayor proximidad está aportando una visión más clara y concreta de lo que realmente representan las innovaciones tecnológicas.

El llamado “Fog Computing” es, literalmente, la evolución de esa afortunada metáfora que ha asociado siempre la imagen de una nube a los dispositivos cloud. Pero, al contrario que la niebla de verdad, que dificulta la visibilidad de los objetos materiales, el Fog Computing constituye un cambio positivo en la interpretación del uso de los nuevos dispositivos. Porque la niebla, con todas las innovaciones que comporta, cala de verdad en la realidad cotidiana de las personas.

El Fog Computing es un nuevo paradigma tecnológico que ha permitido a los estudiosos de las tecnologías de la información extender el concepto de la nube hasta la misma periferia de la red, para aprovechar la capacidad computacional de los objetos concretos que desde allí se conectan a esa nube. Pero para que este concepto se materialice en un auténtico complemento de la nube, es necesario que los dispositivos que lo hacen posible se cuenten por millones y estén distribuidos por todas partes. Y eso es precisamente lo que aporta la Internet de las Cosas, una red en la cual los objetos físicos están interconectados virtualmente a través de sensores y proporcionan exactamente lo que esa niebla tecnológica necesita: un conjunto de servidores, conocidos como “edge servers” o “servidores perimetrales”, que puedan aprovecharse para construir esa red.

Investigadores de todo el mundo están trabajando en numerosos e interesantes avances en este ámbito. Por ejemplo, en el departamento de Informática de la Unidad de Pisa, con el proyecto “Through the Fog” coordinado por el profesor Antonio Brogi, los investigadores han profundizado en este nuevo paradigma en el campo de la nube con el desarrollo de dos prototipos de software que contribuirán directamente al progreso de la técnica en el área del Fog Computing: por un lado, “FogTorchPi”, un instrumento para estimar el consumo de recursos de una aplicación, y por otro “IoX”, un sistema multiplataforma de intercambio de mensajes que permite a los dispositivos Fog interactuar con sensores conectados entre sí a través de la Internet de las Cosas. Dos ejemplos concretos en los que esta “niebla” tecnológica aporta claridad a un mundo alumbrado por la innovación tecnológica.