Operational Safety and Aeronautical Logistics

CIENCIA Y PODER AÉREO ISSN 1909-7050 / E- ISSN 2389-2468 / Volumen 14 (2) Julio-Diciembre de 2019/ Colombia/ Pp. 20-45. Doi: https://doi.org/10.18667/cienciaypoderaereo.632

Comparación de la implementación en plataformas tradicionales y en nube: sistema de reportes meteorológicos1

A Comparison of the Implementation of Traditional and Cloud-Based Platforms: Meteorological Report System 2

Comparação da implementação em plataformas tradicionais e em nuvem: sistema de reportes meteorológicos 3

 

Jimmy Anderson Flórez Zuluaga
Fuerza Aérea Colombiana

Wilmer Arley Daza Hernández
Fuerza Aérea Colombiana

Samuel Guillermo Orozco Montero
Fuerza Aérea Colombiana

Edinson Rolando Cardenal Moreno
Fuerza Aérea Colombiana

Luisa María Amariles Saldarriaga
Fuerza Aérea Colombiana
 

1 Artículo de investigación, derivado del proyecto: “Sistema de Visualización de Alertas Meteorológicas” con el código SIVAM2019. Adscrito al Grupo de Investigación Centro de Desarrollo Tecnológico Aeroespacial para la Defensa – CETAD. Financiado por Fuerza Aérea Colombiana

2 Research article based on the project "Meteorological alert visualization system", under code SIVAM2019. Attached to Research Group Center for the Development of Aerospace Technology for Defense - CETAD. Funded by the Colombian Air Force.

3 Artigo de pesquisa, derivado do projeto: “Sistema de Visualização de Alertas Meteorológicas” com o código SIVAM2019. Adscrito ao Grupo de Pesquisa Centro de Desenvolvimento Tecnológico Aeroespacial para a Defesa – CETAD. Financiado pela Força Aérea Colombiana.


Abstract

When developing a project in the field of information and communications technologies (ICT), critical infrastructure represents significant costs. One must also consider problems such as intercommunication latency, or the scalability and stability of real-time processes. These issues can cause doubts in researchers when deciding whether to use cloud-based or traditional architectures in a project, a choice that affects the budget and the viability of the process. This article aims to provide support for this type of analysis and facilitate the choice of which structure to implement. It presents a case study about a project on real-time meteorological analysis, which was implemented on both platforms at the same time. An assessment was conducted regarding performance of cloud technologies versus physical technologies. The document describes the operative systems, advantages and characteristics of both approaches, so they can help choose one alternative over the other, according to the requirements of the project. In order to assess the project, it was executed on physical platforms on site and on cloud computing platforms; this made it possible to compare both technologies and determine differences in their infrastructure, safety, performance and reliability. To implement the model, a simple virtualization model was used, using the Esxi 6.0 Hypervisor from VMware. For the Cloud infrastructure, Microsoft Azure was used for virtualization.

Key Words: Information Technology, Virtualization, Server, VM-ware, Cloud Computing, Azure.

Resumo 

A infraestrutura crítica aporta custos importantes no desenvolvimento de um projeto de Tecnologias da Informação e as Comunicações (TIC), além de problemas como a latência na intercomunicação, a escalabilidade e a estabilidade de processos em tempo real, os quais podem gerar dúvidas nos pes-quisadores na hora de determinar o uso de arquiteturas na nuvem ou tradicionais em um projeto; critério que afeta o orçamento e a viabilidade do processo. Com o fim de apoiar este tipo de análise e facilitar a escolha da estrutura a ser implemen-tada, neste trabalho se propõe um caso de estudo no que se utilizou um projeto sobre análise meteorológica em tempo real, em ambas as plataformas de maneira paralela e avaliou-se o desempenho das tecnologias na nuvem versus as físicas. No trabalho se descrevem os sistemas operativos, facilidades e características de ambas as aproximações, para que sirvam de base na escolha de uma ou outra alternativa, de acordo com as necessidades do projeto. Para a avaliação, o projeto foi implementado em plataformas em sitio e em plataformas de cloud computing, o que permitiu realizar uma comparação entre ambas as tecnologias, determinando diferenças em sua infraestrutura, segurança, rendimento e fiabilidade. Para a implementação, utilizou-se modelo de virtualização tradicional, usando o Hipervisor Esxi 6.0 da empresa VMware, e para a infraestrutura Cloud, utilizou-se Microsoft Azure para a virtualização.

Palavras chave: information technology, virtualization, server, VMware, cloud computing, Azure.

Resumen

La infraestructura crítica, aporta costos importantes en el desarrollo de un proyecto de Tecnologías de la Información y las Comunicaciones (TIC); además de problemas como la latencia en la intercomunicación, la escalabilidad y la estabilidad de procesos en tiempo real, los cuales pueden generar dudas en los investigadores a la hora de determinar el uso de arquitecturas en la nube o tradicionales en un proyecto, criterio que afecta el presupuesto y la viabilidad del proceso. Con el fin de apoyar este tipo de análisis y facilitar la escogencia de la estructura a implementar, en este trabajo se propone un caso de estudio en el que se utilizó un proyecto sobre análisis meteorológico en tiempo real, en ambas plataformas de manera paralela y se evaluó el desempeño de las tecnologías en la nube versus las físicas. En el trabajo se describen los sistemas operativos, facilidades y características de ambas aproximaciones, para que sirvan de base en la elección de una u otra alternativa de acuerdo con las necesidades del proyecto. Para la evaluación, el proyecto fue implementado en plataformas en sitio y en plataformas de cloud computing, lo que permitió realizar una comparación entre ambas tecnologías, determinando diferencias en su infraestructura, seguridad, rendimiento y fiabilidad. Para la implementación se utilizó modelo de virtualización tradicional, usando el Hipervisor Esxi 6.0 de la empresa VMware, y para la infraestructura Cloud, se utilizó Microsoft Azure para la virtualización.

Palabras clave: tecnologías de información, virtualización, servidor, VMware, cloud computing, Azure.

Introducción

Las tecnologías de la Información y las comunicaciones son un pilar fundamental en los procesos distribuidos, debido a que han permitido que la información y los procesos se pueda descentralizar y que de acuerdo al requerimiento de un proceso sea posible interconectar varios sistemas o máquinas independiente de la ubicación, y la capacidad específica de una máquina, permitiendo mejorar el acceso a la información y la ejecución de procesos a través de sistemas de virtualización como se describe en [1]. Este tipo de sistemas bajo arquitecturas en la nube o arquitecturas tradicionales han sido evaluadas, en diferentes aproximaciones como [2]-[6], donde se aborda análisis de estas arquitecturas aplicadas a bases de datos, simulaciones, sistemas ERP (Planeamiento de Recursos para la Empresa), y sistemas geofísicos como el que se incluirá en este artículo.

Uno de los problemas que se aborda en esta investigación, desde su aspecto más general, es en la definición de la arquitectura en el desarrollo de un proyecto TIC (Tecnologías de la Información y la Comunicación), que involucran sistemas de fusión de datos con subsistemas heterogéneos, donde se deben tener bases para escoger que tipo de arquitectura se debe usar, en relación con costos, retardos, seguridad y soporte, además claro de definir la posibilidad y el comportamiento de sistemas de análisis en Tiempo Real (TR) sobre plataformas en la nube.

Ya que las formas en las que se procesa la información han cambiado radicalmente, a causa de los avances en el hardware informático y a las novedosas características que estas tecnologías ofrecen tales como la capacidad para consolidar múltiples sistemas operativos virtuales en una misma computadora, o la posibilidad de multiplicar las maquinas sobre un mismo hardware. [7] En los diferentes sistemas de virtualización, la Máquina Virtual (abreviado VM en inglés,) es contenida en un servidor, por lo cual las características de las máquinas virtuales están limitadas a la capacidad física del hardware en el que se encuentra instalada. Por lo anterior, se debe visionar el crecimiento del proyecto o proceso y las características de procesamiento y almacenamiento requeridas con el fin de proyectar adecuadamente la arquitectura de virtualización tradicional y de virtualización en la nube requerida y planteada.

Esto ha generado la evolución de nuevas tendencias tecnológicas mundiales como son los sistemas de virtualización en la nube [8], procesos de inteligencia de negocios y motores de bases de datos cada vez, más eficientes. Además de los procesos relacionados con máquinas virtuales, en las arquitecturas en la nube, la consulta de información a nivel global puede ser realizada por grandes motores de bases de datos que pueden o no estar en la misma ubicación pero que están interconectados formando una infraestructura independiente de la infraestructura propia de la empresa. Estos aplicativos brindan una gran ventaja en la generación de conocimiento a través del procesamiento de grandes cantidades de información en cortos periodos de tiempo, con infraestructura escalable y flexible, utilizando técnicas de extracción, transformación y carga de información para la generación de reportes.

Este artículo presenta la descripción de la infraestructura y explica el funcionamiento de un prototipo de sistema de reportes meteorológicos. Este prototipo fue seleccionado para el artículo porque integra, diferentes máquinas virtuales usadas en procesos de extracción de datos de imágenes meteorológicassatelitales[9]-[11][12], sensores radar y otras fuentes que proporcionan información climatológica [13], además de datos de modelos numéricos como el WRF (sistema de cálculo numérico para simulación atmosférica) descritos en [10][11 ], para la información de variables como el viento, todo esto integrado en tiempo real, utilizando sistemas de inteligencia artificial para la automatización de los procesos de clasificación e identificación de formaciones.

Toda esta información se integra en bases de datos y sistema de BI para los reportes y análisis, creados basados en el know how operacional y las necesidades del sistema aeronáutico, generando predicciones a corto plazo “Now Casting”.

Además se describe la implementación del sistema de reportes meteorológicos con sistemas de virtualización tradicional gestionados por la plataforma VMware vsphere [14] y con sistemas de virtualización en la nube gestionados por Microsoft Azure [15]. Finalmente, se realiza una comparación del rendimiento del sistema en ambas tecnologías para determinar cuál se adapta en términos de la estabilidad, el costo, la capacidad, el mantenimiento, el soporte y los costos de operación o la seguridad de la información para la compañía.

Para el caso de estudio, se analizará el costo y el comportamiento de los servicios necesarios para el procesamiento y extracción de la información y su comportamiento en tiempo real, con el fin de comparar el desempeño de tecnologías en la nube versus tecnologías tradicionales. El objetivo principal fue evaluar cuál de las infraestructuras de virtualización es más efectiva para un proyecto de características similares a las del sistema de reportes meteorológicos, a partir de los resultados obtenidos en las pruebas realizadas. El objetivo secundario fue establecer las ventajas y desventajas de estas plataformas con respecto a la infraestructura en sitio.

En el artículo se presentan inicialmente unos conceptos previos y definiciones necesarias para la comprensión del tema donde se explican las tecnologías y las clases de servicios existentes. Posterior, se desarrolla el caso de estudio donde se describe el funcionamiento general y se describe la arquitectura de máquinas necesarias para el funcionamiento del sistema. En este punto se describe la composición del sistema en tecnologías clásicas y en tecnología en la nube. Se finaliza con una comparación de los resultados y las conclusiones.

Estado del arte y conceptos

La gestión del tráfico aéreo está determinada por cada país, mediante entidades con la función de control del espacio aéreo. Para el caso colombiano la autoridad aérea se comparte entre la Unidad Administrativa Especial de la Aeronáutica Civil (UAEAC) y la Fuerza Aérea Colombiana (FAC). Cada entidad debe contar con un sistema de apoyo para la navegación, la vigilancia y las comunicaciones que permitan la gestión segura de los vuelos, denominado CNS/ATM en el caso de la UAEAC y sistema de comando y control para la FAC.

A nivel mundial la tendencia es tener sistemas que integren información de diferente índole, con el fin de optimizar el uso del espacio aéreo y disminuir los riesgos. Los sistemas más modernos que han integrado sistemas de fusión de datos aeronáuticos para la gestión del tránsito aéreo son en Europa SESAR “Single European Sky Air traffic Research system” y Estados Unidos el NextGen “Next Generation Air Transport System”. Ambos tienen como objetivo integrar e implementar nuevas tecnologías que mejoren la gestión del tráfico aéreo, utilizando una mayor automatización con nuevos procedimientos para lograr mayores beneficios que se vean reflejados en la seguridad, economía, uso, impacto ambiental y en la capacidad de mitigar riesgos [16]–[19] [20]. La principal característica de estos es la optimización de la planificación y ejecución del sistema de tránsito aéreo. 

Para mejorar la gestión del tráfico aéreo, los autores identifican cinco áreas clave que son: credibilidad de seguridad, concepto operativo, factibilidad tecnológica, beneficios y costos, y rutas de transición. Para garantizar estos aspectos, sistemas de información de apoyo como los sistemas de análisis meteorológico, cada vez cobran mayor importancia.

En Colombia, la UAEAC tiene el compromiso de garantizar la seguridad en el transporte aéreo a través de la normatividad y tecnologías que beneficien la operación aérea donde se incluyen sistemas de apoyo, de acceso público como los datos meteorológicos. Para la toma de decisiones existen expertos que apoyan con su concepto de manera manual en el desarrollo de las operaciones aéreas. Gracias a las herramientas TIC, se ha buscado automatizar procesos de análisis para mitigar riesgos. El seguimiento y análisis de sistemas meteorológicos, usando herramientas de inteligencia artificial es ampliamente usado en apoyo en el CNS/ATM (SESAR y NEXTGEN) asimismo, en el seguimiento de huracanes [21] donde se desarrolla un sistema para determinar los vientos y su afectación en estos fenómenos. Otro ejemplo es [22], donde se expone un trabajo sobre el sistema de medición y reportes de turbulencia ¡n situ del programa de investigación del tiempo, de la FAA (Administración Federal de Aviación).

Para que estos sistemas funcionen, deben contar con arquitecturas que requieren gran cantidad de recursos de cómputo y de infraestructuras complejas orientadas a los servicios como se describe en [10], [23]. Estas arquitecturas en general, implican costos importantes para los sistemas, pueden ser soportadas en tecnologías en sitio utilizando sistemas de virtualización y clusterización o en sistemas basados en la nube, lo que implica grandes dilemas y oportunidades para la compañía como se describe en [24] o en [25], donde se muestran estos retos, las características, ventajas y desventajas de las tecnologías.

Para esta investigación, se abordarán tecnologías de virtualización tradicional y en la nube. En el caso de tecnologías tradicionales, la arquitectura se basa es sistemas virtualizados. La virtualización es una tecnología diseñada a finales de los años 90 [1] con múltiples aplicaciones como las descritas en [14], [26]-[31]. Esta describe sistemas de virtualización con recursos distribuidos en los que se puede usar un hardware para la creación de instancias virtuales que puedan compartir de manera lógica características como almacenamiento, memoria RAM, procesamiento, puertos de red, puertos USB, dispositivos periféricos, entre otros.

La creación de esta tecnología ha permitido que no sea necesario tener una máquina física por cada sistema operativo que se desee instalar, disminuyendo la cantidad de equipos, reduciendo costos en compra, mantenimiento de hardware y consumo de energía eléctrica como lo explica la empresa de virtualización VMware en [14],

Además de las ventajas mencionadas la virtualización ofrece beneficios a las organizaciones al reducir costos en adquisición, espacio, e infraestructura requerida en los datacenter, además de ofrecer escalabilidad y agilidad en la administración de la infraestructura. Según [32], los tipos de virtualización existentes son:

a. Virtualización de servidores. Un servidor funcionando con un solo sistema operativo podría estar subutilizado, porque sus características de hardware están diseñadas para grandes volúmenes de procesamiento, por lo que la mejor opción es instalar varios sistemas operativos sobre ese equipo físico utilizando sistemas operativos hipervisores bare-metal como lo define en su estructura VMware expuesto en [33]. Esta instalación permite aprovechar al máximo las características del servidor, porque si bien las máquinas virtuales comparten los recursos físicos del equipo, cada una de ellas es completamente independiente y funciona con los recursos que le fueron asignados sin tomar en ningún momento recursos asignados a las máquinas vecinas como se explica en el artículo de "Hypervisor: A Survey on Concepts and Taxonomy" descrito en [34],

b. Virtualización de Redes. Consiste en implementar una red de cómputo de manera digital, que cumpla con las mismas características que usa una red física, implementando de manera lógica switchs, routers, firewalls, VPN (red privada virtual o túnel), entre otros como se describe en [35].

c. Virtualización de Almacenamiento. Con el aumento en la cantidad de datos que almacenan las organizaciones, se hace necesario implementar sistemas de almacenamiento definido por software SDS, que permite la abstracción de los discos del servidor y los almacena en dispositivos de almacenamiento en red como NAS (almacenamiento conectado en red) o en una red de área de almacenamiento SAN (almacenamiento en red de área), teniendo en cuenta que este tipo de infraestructura es usado en plataformas de hiperconvergencia como se expone en [36] “Hyperconverged Infrastructure for Dummies” y en [37]

d. Virtualización de Escritorios. La implementación de escritorios virtualizados gestionados, permite acceder remotamente al escritorio de una estación, reduce costos y permite que el administrador tenga sus recursos optimizados sin importar la ubicación geográfica del usuario de dicho escritorio como se expone en [38].

Con el auge de las TIC, los centros de cómputo han migrado a infraestructura en la nube o computación en la nube (Cloud computing, por sus siglas en inglés). Esta tecnología hace referencia a los servicios e infraestructuras que pueden ser usados en la red, permitiendo que los límites de los centros de cómputo que se requiere solo se limite al valor del presupuesto disponible. En esta tecnología, los proveedores de servicio son quienes proporcionan centros de cómputo informáticos como un servicio o como una infraestructura de datos y de cómputo, permitiendo a los usuarios definir las características que requieren para implementar sus proyectos, disminuyendo en gran cantidad los costos de adquisición de equipos, mantenimiento y consumo de energía, además de contar con un robusto sistema de seguridad de la información como lo describe el Instituto de Ciberseguridad de España en [39]. En general, se puede decir que el cloud computing está compuesto por tres capas, como se muestra en la Figura 1.
 

Figura 1. Capas de cloud computing.
Fuente. http://cloud-america.com

a. Software Como Servicio (Saas). El software como servicio (Software as a service SaaS, por sus siglas en inglés) define la arquitectura de software, evitando que sea necesario instalar y ejecutar aplicaciones en equipos físicos, permitiendo que no sea necesario el mantenimieto de software, reduce costos de operación y soporte sobre el software como lo expone la Junta de Ciencias para la Computación y las Telecomunicaciones (GESJ Computer Science and Telecommunications) [40].

b. Plataforma Como Servicio (Paas). La plataforma como servicio (Plataform as a service PaaS, por sus siglas en inglés) es una plataforma de computo que provee soluciones como servicio, esta plataforma administra y soporta software y aplicaciones desde la nube, reduciendo costos en la compra de software o hardware necesarios para la implementación de la aplicación como lo detalla la compañía proveedora de software de código abierto RedHat Inc. en [36], [41], [42].

c. Infraestructura Como Servicio (Iaas). La infraestructura como servicio (infraestructura as a service, por sus siglas en inglés) es la encargada de entregar la infraestructura de cómputo requerida por la organización como un servicio, virtualizando la máquina de acuerdo a las características requeridas por el cliente como lo explica Microsoft Azure Infrastructure-as-a-Service (laaS) Overview en [43].

Otra tecnología que se está abriendo paso y que vale la pena ser considerada es la hiperconvergencia.

Hiperconvergencia. La hiperconvergencia es la mezcla de componentes físicos de una infraestructura, servidores, almacenamiento y equipos de red en un único dispositivo el cual es administrado por software descrito en [36]. Los sistemas hiperconvergentes usan la inteligencia de software para desglosar silos de almacenamiento y procesamiento que permiten ejecución y gestión en la plataforma del servidor, reduciendo procesos ineficientes lo que acelera el procesamiento, rendimiento y almacenamiento en un único entorno de gestión y administración.

La ventaja de usar sistemas hiperconvergentes en la organización deriva en la reducción de costos, además ofrece fiabilidad, disponibilidad, rendimiento y es escalable como lo afirma Gartner en [44] [45],

Metodología

En este artículo se pretende comparar el desempeño de un sistema complejo, entre tecnologías de virtualización tradicional contra tecnologías cloud. Se escogió este sistema ya que es un sistema que integra diferentes tecnologías todas heterogéneas, sistemas en Linux, bases de datos, sistemas web, todos intercambiando datos en TR a través de protocolos UDP, lo que permitió evaluar en el caso de estudio, el comportamiento de ambas tecnologías paralelamente, con sistemas complejos y TR. Además, el prototipo seleccionado, tiene en su arquitectura variedad de máquinas y sistemas operativos para validar la flexibilidad y estabilidad de las tecnologías a evaluar. El sistema escogido fue el sistema de reportes meteorológicos, que consiste en una tecnología desarrollada por ingenieros de la FAC que, en tiempo real, procesa, interpreta e integra, diversas fuentes meteorológicas a través de técnicas de inteligencia artificial, en un motor de base de datos. Con base en esta información se ¡mplementan cuadros de mando para analizar la evolución de las condiciones de riesgo que presentan las formaciones meteorológicas en el espacio aéreo colombiano, dentro del proceso de comando y control aéreo, para el apoyo en la toma de decisiones en el desarrollo de operaciones aéreas. Este sistema requiere de alta disponibilidad, alto desempeño y rendimiento para funcionar de manera adecuada.

Para garantizar la objetividad de las observaciones realizadas, se describen los sistemas y máquinas requeridas para el caso de estudio. También, se explican las arquitecturas de red en cada tecnología.

Para el proceso del desarrollo del experimento, se implemento paralelamente las máquinas descritas con el fin de contar con un prototipo funcional idéntico en ambas tecnologías una en la nube y otra house" es decir tradicional. Para este ejercicio se montó desde cero una a una las máquinas en ambas infraestructuras y se tuvieron funcionado paralelamente durante 15 días. Durante ese tiempo se verificó el comportamiento de los prototipos diariamente. Para poder validar el ejercicio, se crearon etiquetas para almacenar tiempos de transmisión y recepción de paquetes e identificadores de paquetes que permitió generar métricas de tiempo. También se estableció un archivo de registro de desconexiones o caídas que permitió evaluar la estabilidad. Para el caso de la escalabilidad se desarrolló una prueba de escritorio pensando en duplicar el número de entradas y la capacidad de la base de datos. De esta forma, se estableció un protocolo para medir las características más importantes.

Con respecto a la seguridad, en ambas infraestructuras, se instaló el protocolo NX para conexión remota usando ligado de máquinas por nombre de dominio y se levantaron túneles IPSEC sitio a sitio con cifrado SHA-256, entre las redes incluyendo la plataforma de Azure, al final se hizo NAT a cada uno de los servicios usando Nat-transversal. En el caso de Azure, se usó además autenticación de doble factor usando la herramienta de Microsoft Autenticator. Con estas pruebas se verificó que se podría asegurar ambas plataformas y que se contaba con herramientas de seguridad. Posterior se intentó acceder a los servicios simulando un ataque, verificando que ni la información de configuración ni los datos estaban expuestos.

Finalizado el ejercicio y con base en los resultados se desarrolla una descripción cualitativa de las características de cada tecnología y las ventajas que demostraron, gracias a que se pudo medir los costos de acceso a las plataformas y los valores de los equipos en las pruebas, también se realiza una comparación de costos.

El impacto esperado con estos resultados será servir de base documental en el diseño de la arquitectura de un proyecto entre las tecnologías mencionadas con base en los resultados experimentales descritos.

Máquinas virtuales

El sistema de prueba está estructurado por un conjunto de máquinas virtuales que obtienen, guardan y procesan la información meteorológica obtenida de varias fuentes como satélites, radares y modelos de predicción atmosférica. En esta sección se describen las exigencias de máquinas y de arquitectura para la implementación.

La máquina virtual denominada “Web-QT” contiene la página web, que funciona sobre Apache. También contienen el sistema de inteligencia artificial que procesa y extrae los datos. En la máquina “MariaDB” se encuentra la base de datos donde se almacena toda la información de las formaciones meteorológicas detectadas por el sistema. Este motor según [46], tiene como funcionalidades el almacenamiento de grandes flujos de información con buenos rendimientos y es una versión de MySQL según [47] bajo la licencia GPL. La base de datos tiene una estructura relacional. En esta se almacenan variables relevantes cuyo propósito final es realizar procesos de ETL (Extracción Transformación y Carga) de las fuentes de datos [48], para la posterior generación de reportes meteorológicos, utilizando herramientas de inteligencia de negocios. En la Figura 2, se visualiza la estructura de la base de datos.

 
Figura 2. Imagen de estructura base de datos.
Fuente: los autores.

También se cuenta con una máquina denominada "Fuentes Externas" donde se monta el proceso de extracción de información de sistemas externos tipo web usando tecnologías de intercambio de datos JSON basado en XML. La máquina virtual denominada "SDR Categoría_8" soporta el proceso de análisis de datos del canal meteorológico de los radares, que es entregado en protocolo Asterix categoría 8 [49]. Esta información es convertida a ficheros tipo texto antes de ser almacenado y correlacionando en la BD.

Figura 3. Imagen información extraída de radares cat 8.
Fuente Los Autores

Existen dos máquinas para sistemas de Bl, cada uno con la función de generar los reportes basados en esa tecnología. Se tiene entonces una máquina virtual para "Power-Bi" [50] y una máquina virtual denominada "Tableau" en la cual se genera otro Dashboard. En la Figura A y 5, se visualizan los reportes reporte del análisis.

Figura 4. Imagen Dashboard Power Bi.
Fuente Los Autores


Figura 5. Imagen Dashboard Tableau meteorológica.
Fuente: los autores.

En la Tabla 1 se resumen las necesidades de hardware y las funciones, también se muestra el sistema operativo y las tareas que son ejecutadas en cada máquina virtual.

Tabla 1
Tabla de máquinas virtuales instaladas

Fuente: Los autores
 

Infraestructura tradicional

Para la implementación de entornos virtuales en plataformas tradicionales, se implementó una arquitectura, donde se describe el esquema de conexiones de red para cada uno de los subsistemas que conforman la solución en un entorno de virtualización tradicional utilizando el hipervisor Esxi de la compañía VMware como se describe en la Figura 6. Esta plataforma, es una plataforma de virtualización que permite que en un solo recurso de hardware puedan instalarse múltiples sistemas operativos compartiendo el mismo recurso. Está compuesto por un sistema operativo denominado hipervisor y un software de gestión del hipervisor que permite la configuración y administración del sistema de virtualización como se explica en [51].

Figura 6. Esquema de red y direccionamiento IP.
Fuente: los autores.


Teniendo en cuenta los diferentes servicios que se prestan en los entornos de virtualización se define una arquitectura virtual donde se tiene un solo server como host y múltiples máquinas virtuales definidas para cumplir un rol en específico como se describe en la Figura 7.

Figura 7. Arquitectura Hypervisor Esxi.
Fuentes: www.vmware.com

La plataforma seleccionada para la administración de estas configuraciones fue Hypervisor Esxi 6.0, encargada de alojar las máquinas virtuales en su arquitectura de red. Una vez instalado el hipervisor en el servidor, se definió el direccionamiento IP de acuerdo con las tablas NAT (Network address translation) realizadas para los servicios que deben ser publicados para su conexión con los clientes, tal como lo muestra la Tabla 2.

Tabla 2.

Direccionamiento máquinas virtuales
Fuente: los autores

Cada una de las máquinas virtuales que se instalan en el hipervisor tiene las características que se establecen en la Tabla 3.

Tabla 3.

Características máquinas virtuales
Fuente: los autores

El acceso al proyecto se realizó a través de un firewallel cual tiene configurada una IP pública, en su configuración se establecen rutas y políticas para que la entrada a los servidores se realice a través de direccionamiento IP privado. La IP pública está ligada a un dominio de internet que presta sus servicios a la página web donde se publica la información.

La interfaz de red del servidor se configura con una dirección del segmento para dar acceso a la consola de administración del Hipervisor como se describe en [14].

Implementación en máquinas virtuales en la nube

Para la implementación de una arquitectura similar en la nube, se utilizó la plataforma de Microsoft Azure donde se instala un único servicio que contiene el software de extracción meteorológico de las diferentes fuentes utilizadas para el desarrollo y el almacenamiento de información. Microsoft Azure es una nube pública de pago por uso que permite compilar, implementar y administrar rápidamente aplicaciones en una red global de datacenter (centros de datos) de Microsoft como se expone en [52]. Microsoft Azure provee los servicios de SaaS, IaaS y PaaS, los cuales fueron definidos anteriormente.

La virtualización en la nube se refiere a una infraestructura escalable de software y hardware remoto ubicado en grandes datacenter de empresas cuyo Core de negocio es ofrecer servicios de almacenamiento, procesamiento, ahorro de mano de obra, equipos y costos eléctricos. Con la virtualización en la nube los aplicativos que se utilizan no corren en servidores locales, sino que están almacenados en servidores que están en otro lugar y son accedidos a través de la Internet. Económicamente hablando, los recursos virtuales son típicamente más económicos que los recursos dedicados en un servidor local. Sin embargo, es necesario evaluar cada caso además de considerar políticas empresariales y de privacidad de la información.

Para el inicio de la instalación del entorno donde se realiza el despliegue de los servicios del proyecto, se define geográficamente el datacenter con mejor latencia, en este caso es el datacenter ubicado en virginia USA, el cual se denomina “East-US2 Virginia”. En la Figura 9 se aprecian los datacenter de Microsoft Azure.

Figura 8. Configuración IP Pública al dominio.

Posteriormente, se realiza el aprovisionamiento del servidor cloud donde se definen las características de hardware requeridas para la implementación.

• Standard F8s(8 vcpu, 16 GB de memoria)

• Procesador: 8 CPU virtuales

• Memoria Ram: 16 Gigas

• Disco: 512 SSD

Figura 9. Datacenter East-US2 Virginia.

Fuente: www.azure.com

Adicional se define la instalación del software, el cual se implementa sobre un sistema operativo Ubuntu server 16.04 LTS. El sistema operativo Ubuntu Server es una variante de Ubuntu canonical que sale con cada versión de Ubuntu desktop y está dedicada especialmente para su uso en servidores. El uso de Ubuntu server como servidor se ha extendido mucho en los últimos años, sobre todo para el uso de servicios web, motores de base de datos o para servicios que permiten ejecutar códigos previamente desarrollados en lenguajes de programación Python o C cómo se estructura en [27].

Después de esto se realiza la instalación de la interfaz gráfica gnome para facilitar la configuración de los diferentes módulos del aplicativo; este proceso se realiza mediante la implementación del módulo de instalación guiada "tasksel"[28]. Tasksel es una herramienta para sistemas operativos basados en Debian/Ubuntu para instalación de paquetes. La función de Tasksel es similar a la de los metapaquetes denominados .deb que son similares a los instaladores .exe de Microsoft. Al utilizar la herramienta de Tasksel (Ubuntu/Debian), este puede instalar automáticamente los siguientes componentes, tales como:

Basic Ubuntu server, Opens server, DNS server, LAMP server, Mail server, Openstack, PostgreSQL database, entre otros. Mediante la herramienta "Tasksel" se instaló el módulo guiado para la interfaz Ubuntu Desktop.

Al finalizar se prepara el Core principal, que es el sistema operativo, se asignan recursos para el servidor apache, donde se aloja la página web. Apache es un motor web que permite el alojamiento de servicios desarrollados en HTML, PHP, ISP, entre otros para páginas web online. Posterior, se instala el IDE de desarrollo utilizado para la extracción de la información meteorológica de las diferentes fuentes y posterior el motor de base de datos predefinido. Para finalizar se interconecta el motor de base de datos instalado y las conexiones a los tableros de reportes generados en Power Bl y en Tableau.

Comparación entre los resultados obtenidos entre la virtualización tradicional y la virtualización en la nube

Para realizarla comparación entreambastecnologías y elegir las más adecuada se tienen en cuenta los siguientes factores: desempeño, rendimiento, alta disponibilidad y costos. Con el fin de establecer cuál de las tecnologías posee más ventajas en el caso de estudio, se realizan pruebas de verificación del comportamiento y funcionamiento del sistema, una vez terminada la prueba se procedió a establecer una comparación entre las tecnologías que se usaron para virtualizar el proyecto. Se definieron diferencias y ventajas entre ambas tecnologías para evaluar las necesidades del proyecto. El internet con el cual se realizó la prueba fue una conexión de fibra óptica de 10 megas simétricas con reuso 1:1.

Microsoft Azure

La prueba realizada usando la tecnología en la nube con Microsoft Azure como base, obtuvo los siguientes resultados:

• Con respecto a costos y velocidad de la implementación hay que definir dos casos. El primer caso, se debe suponer que no existe infraestructura, de ser así Microsoft Azure o cualquier plataforma cloud garantizan acceso rápido a una infraestructura escalable e incluso ofrecen créditos para pruebas y servicios. En término de horas se puede acceder a una infraestructura de acuerdo con los créditos adquiridos y configurar en ella los servicios que se requiera, a costos mucho menores que pensar en embarcar la compañía en la compra de infraestructura y adecuar un datacenter, adicional de los costos en energía y personal necesarios para soportar dichos equipos. En caso de existir infraestructura en la compañía es necesario cuantificar los costos de mantenimiento, energía, actualización, personal, instalaciones, acondicionamientos entre otros. Para el estudio de caso, se contaba con infraestructura, pero cuantificando estos cotos en el tiempo se pueden tener mayores costos con la infraestructura tradicional, sobre todo por costos de mantenimiento y personal asociado. En este mismo sentido, las tecnologías en la nube tienen disponibilidades reales del 100% debido a que se cuenta con redundancia de todo tipo desde datacenter, almacenamiento procesamiento; sin embargo, depende del tipo de contrato y de los costos.

• Con respecto a seguridad de acuerdo con la página oficial de Azure que es la plataforma que se está evaluando, cuenta con más de 90 certificaciones, que soportan regiones o países específicos además de un gran grupo de expertos trabajando y actualizando estos procesos.

• Microsoft Azure no soporta todos los sistemas operativos y referencias que si se pueden instalar en tecnologías in house. Para el caso, no tiene soportado el sistema operativo Ubuntu Desktop 16.04 LTS de manera nativa, por lo que fue necesario montar la máquina en el sistema operativo Ubuntu Server, ya adapta un entorno desktop.

• No se soportan adecuadamente algunos protocolos de conexión remota. Para tener acceso remoto en Azure, se hicieron pruebas con diferentes protocolos de conexión remota tales como RDP (Protocolo de Escritorio Remoto) y con VNC (Conexión Virtual de Red), pero no funcionaron correctamente, o eran inestables. Por tal motivo, fue necesario implementar el protocolo NX y el software NoMachine para acceder a las máquinas virtuales con protocolo UDP (Protocolo de Datagramas de Usuario).

• Los entornos web están soportados. El entorno web se instaló sobre un servidor Apache2, el cual funcionó correctamente ante ataques como el de negación de servicios DDoS (Ataques de Denegación de Servicio).

• Falta de soporte en Red Privada Virtual. La VPN que se estableció entre el firewall local y el Branch de Azure, tuvo problemas de estabilidad es decir problemas de conexión site-to-site por lo que era imposible conectarse a las máquinas virtuales instaladas en la infraestructura de Azure, en ocasiones debido a diferentes versiones de las máquinas terminales. Las pruebas fueron realizadas con VPN por Forticlient mediante el Site to Client.

• Se presentaron fallas en la conexión de los túneles establecidos mediante los protocolos NFS (Sistemas de Archivos de Red) y FTP (Protocolo de Transferencias de Archivos), debido a que la latencia era muy elevada y se generaban errores de tiempo de espera agotado.

• Al verificar las capacidades de la plataforma también se encontró que es fácil la instalación de máquinas soportadas en la infraestructura. Asimismo, que se tienen herramientas que facilitan montar servicios web y conexiones a bases de datos soportadas.

Virtualización tradicional

La prueba realizada con la virtualización tradicional obtuvo los siguientes resultados, utilizando una conexión de internet igual al de la plataforma anterior: 3

• Con respecto a costos y velocidad de la implementación hay que definir dos casos. El primer caso, se debe suponer que no existe infraestructura, de ser esta tecnología es desventajosa e incluso en el caso privado puede tomar meses conseguir la infraestructura, sin contar con las adecuaciones físicas necesarias. En caso de existir infraestructura en la compañía que es el caso los costos al igual que se explicó cuantificando todos los costos para proyectos de corta duración puede ser equiparable. Con respecto a disponibilidad este tipo de tecnologías depende de la infraestructura existente. Es decir, para el caso no se contaba con un datacenter que garantice su alta disponibilidad.

• Con respecto a seguridad al igual que en el caso de disponibilidad la infraestructura típicamente de ciberseguridad de una compañía es limitada y con recursos limitados.

La conexión se realiza de manera local usando una IP pública para salir a internet a través de un firewall que hace las veces de enrutador, firewall y servidor de túneles utilizando protocolo SSL (Security Socket Layers) e Ipsec. Adicional la red local utiliza un segmento de IPs privadas para la conexión a los servidores.

• La conexión a los servicios al ser una red local no presentó fallas de conectividad teniendo en cuenta que las conexiones utilizadas entre cada uno de los servicios y los clientes estaban interconectadas por gigabit LAN.

• Los servicios tuvieron salida a internet a través de puertos específicos usando virtual Ips y ñateo de puertos a través de una única IP fija asignada al firewall.

• Se tuvo administración de las máquinas virtuales a través del Hipervisor sin presentarse problemas de conexión a los servidores, teniendo en cuenta los dos métodos de conexión que fueron utilizando la plataforma VMware vsphere client y las conexiones remotas utilizando el protocolo NX.

• Se determinó que en la velocidad de comunicación entre los servidores y el cliente final la latencia es menor en la virtualización tradicional con una velocidad promedio de 57 milisegundos a comparación de la virtualización en la nube cuya velocidad promedio era de 350 milisegundos.

Con estos resultados se procedió a realizar una tabla comparativa entre ambas tecnologías.

Tabla 4.
 
 
Criterios de comparación entre Computación en la nube y virtualización tradicional
Fuente: los autores

La comparación realizada en los entornos de virtualización tradicional y los entornos de virtualización en la nube se describen en costos anuales de funcionamiento así (Ver Tabla 5):

Tabla 5.

Comparativa Infraestructura tradicional vs nube
Fuente: los autores

Los costos se definen en un periodo de tiempo para hacer más objetiva la medición, y se calcula el valor de la infraestructura con valores de inventario amortizados en el tiempo.

Conclusiones

La elección de la virtualización en la nube o la virtualización tradicional depende de las condiciones del que necesita el servicio, del tiempo de duración proyecto, de las necesidades de escalabilidad y de la seguridad requerida. Criterios como la estabilidad, el costo, la capacidad, el rendimiento, el mantenimiento, el tiempo, el personal y la infraestructura física, la ubicación, la red y soporte, los costos de operación, la seguridad de la información y la seguridad del datacenter deben ser cuantificados por cada compañía. Para el caso muchos fueron obviados ya que el proyecto de estudio de caso es un sistema de un proyecto de desarrollo de tecnología de información abierta. En otro caso estos factores deben ser contemplados en una escala de tiempo que permita a la compañía definir la tecnología a utilizar con respecto a las necesidades de la compañía, así como de las características y requerimientos propios del proyecto.

Según los resultados obtenidos en las pruebas de funcionamiento, la tecnología que más se adapta al sistema de reportes meteorológicos es la virtualización tradicional, ya que con la tecnología probada se contó con una mayor estabilidad en las conexiones y un menor costo de funcionamiento anual por las especificaciones y características de los equipos. Al analizar, el tema de la estabilidad y de las conexiones, se encontró que el sistema no fue pensado inicialmente para trabajar en la nube, es factible modificar prácticas de desarrollo para trabajar en versiones compatibles con tecnologías de cloud, facilitando la implementación de la arquitectura.

Una infraestructura virtualizada permite la escalabilidad de los sistemas debido a que puede adaptarse y aumentar recursos como la memoria, el rendimiento o el almacenamiento de acuerdo con las necesidades y desarrollo del proyecto, en tiempo casi real. Esto permite el crecimiento continuo sin perder la calidad de los productos.

La adaptabilidad que brindan los entornos virtualizados radica en que la infraestructura puede ser diseñada y modificada según las características y requisitos de los sistemas, además hay variedad de soluciones de virtualización que se acomodan a las necesidades del cliente.

Antes de elegir una infraestructura de virtualización en la nube es importante conocer la ubicación de los servidores y las leyes que rigen en ese país en términos de protección y uso de la información, esto con el fin de evitar inconvenientes con el tratamiento que se les dé a los datos almacenados en nuestros servicios.

A partir de la comparación realizada entre ambas tecnologías se puede concluir que en un año para este caso los valores son comparables. Sin embargo, y debido al tiempo de vida del proyecto, la tecnología más económica es la virtualización tradicional debido a que se contaba con infraestructura existente que fue reutilizada. Esto, no es necesariamente un factor determinante a la hora de elegir la tecnología que más se adapta al proyecto, ya que otros factores como el tiempo de uso, la tecnología utilizada, la disponibilidad, la estabilidad, el tratamiento de datos y la seguridad de la información pueden prevalecer.

El uso de tecnologías de indicadores y tableros de control para optimizar el uso de la información es compatible con ambas tecnologías, donde en cada fase del proceso de transformación y extracción de la información debe ser recreada en uno u otro ambiente para poder alimentar la base de datos y finalmente el Dashboard o tablero de reportes. En este caso, la implementación del Dashboard proporciona al personal aeronáutico la posibilidad de analizar y tomar decisiones con base en la información obtenida y organizada a través del prototipo del sistema.

Referencias

[1] P. Pessolani, T. Cortes, S. Gonnet, and F. G. Tinetti, "Sistema de Vírtualización con Recursos Distribuidos,"Tesis, no. April, 2012.

[2] S. Jain and M. A. Alam, "Comparative Study of Traditional Database and Cloud Computing Database," 2017.

[3] P. Yue, H. Zhou, J. Gong, and L. Hu, "Geoprocessing in Cloud Computing platforms - a comparative analysis," Int. J. Digit. Earth, vol. 6, no. 4, pp. 404-425,2013.

[4] C. M. Navaneethakrishnan, "A Comparative Study of Cloud based ERP systems with Traditional ERPand Analysis of Cloud ERP implementation," 2013.

[5] R. Gharsallaoui, M. Hamdi, and T. H. Kim, "A Comparative Study on Cloud Gaming Platforms," in Proceedings - 7th International Conference on Control and Automation, CA 2014, 2014, pp. 28-32.

[6] "A Comparative Study on Cloud Gaming Platforms - IEEE Conference Publication."[0n-line]. Available: https://ieeexplore.ieee.org/ abstract/document/7026255. [Accessed: 22-Oct-2019],

[7] J. L. Díaz, J. Entrialgo, M. García, J. Garcia, and D. F. Garcia, "Optimal allocation of virtual machines in multi-cloud environments with reserved and on-demand pricing," Futur. Gener. Comput. Syst., vol. 71, pp. 129-144, 2017.

[8] M. Noshy, A. Ibrahim, and H. A. Ali, "Optimization of live virtual machine migration in cloud computing: A survey and future directions," J. Netw. Comput. Appl., vol. 110, no. November 2017, pp. 1-10, 2018.

[9] J. A. Florez Zuluaga, "Intelligent techniques for identification and tracking of meteorological phenomena that could affect flight safety," Cieñe. Y Pod. AÉREO, vol. 12, pp. 24-35, 2017.

[10] J. A. Florez Zuluaga, "Sistema de fusión de datos aeronáuticos y metereológicos para la prevención de accidentes aéreos" UPB, 2017.

[11] J. Anderson and F. Zuluaga, "Detection of Convective Clouds Usin Meteorological Data Fusion for Aviation" in 2017 International Carnahan Conference on Security Technology (ICCST), 2017.

[12] S. J. Goodman et al„ "The G0ES-R Geostationary Lightning Mapper(GLM)," Atmos. Res., vol. 125-126, pp. 34-49,2013.

[13] SIATA, "Sistema de alerta temprana del Área Metropolitana del Valle de Aburró," Gobernación de Antioquia, 2011..

[14] VMware, "Virtualization overview," White Pap. http//www. vmware. com/pdf/virtualization. pdf, pp. 1-11,2006.

[15] M. García-Valls, T. Cucinotta, and C. Lu, "Challenges in real-time virtualization and predictable cloud computing," J. Syst. Archit., vol. 60, no. 9, pp. 726-740, 2014.

[16] R. Madhavrao and A. Moosakhanian, "Integration of Digital Weather and Air Traffic Data for NextGen," in 2018 IEEE/AIAA 37th Digital Avionics Systems Conference (DASC), 2018.

[17] J. Harrington, "Weather services in the NextGen Era,"Aviat. Int. News, no. January, pp. 34-37, 2009.

[18] P. Brooker, "SESAR and NextGen: Investing in new paradigms," J. Navig., vol. 61, no. 2, pp. 195-208, 2008.

[19] M. Strohmeier, M. Schafer, V. Lenders, and I. Martinovic, "Realities and challenges of nextgen air traffic management: the case of ADS-B,” IEEE Commun. Mag., vol. 52, no. 5, pp. 111–118, May 2014.

[20] P. Brooker, “SESAR and NextGen: Investing in new paradigms,” J. Navig., vol. 61, no. 2, pp. 195–208, 2008.[21] M. D. Powell, S. H. Houston, L. R. Amat, and N. Morisseau-Leroy, “The HRD real-time hurricane wind analysis system,” J. Wind Eng. Ind. Aerodyn., vol. 77, pp. 53–64, 1998.

[22] L. B. Cornman, G. Meymaris, and M. Limber, “An update on the FAA Aviation Weather Research Program’s in situ turbulence measurement and reporting system,” in 11th AMS Conference on Aviation, Range, and Aerospace Meteorology, 2004.

[23] J. A. Florez Zuluaga, J. F. Vargas Bonilla, and J. Reina, “Intelligent techniques for identification and tracking of meteorological phenomena that could affect flight safety,” Cienc. Y Pod. AÉREO, vol. 12, pp. 24–35, 2017.

[24] C. Wang, L. C. Wood, H. Abdul-Rahman, and Y. T. Lee, “When traditional information technology project managers encounter the cloud: Opportunities and dilemmas in the transition to cloud services,” Int. J. Proj. Manag., vol. 34, no. 3, pp. 371–388, Apr. 2016.

[25] R. Iqbal, F. Doctor, B. More, S. Mahmud, and U. Yousuf, “Big Data analytics and Computational Intelligence for Cyber-Physical Systems: Recent trends and state of the art applications,” Futur. Gener. Comput. Syst., 2017.

[26] O. Morariu, T. Borangiu, and S. Raileanu, “vMES: Virtualization aware manufacturing execution system,” Comput. Ind., vol. 67, pp. 27–37, Feb. 2015.

[27] Z. Kozhirbayev and R. O. Sinnott, “A performance comparison of container-based technologies for the Cloud,” Futur. Gener. Comput. Syst., vol. 68, pp. 175–182, Mar. 2017.

[28] V. E. S. X. Server, I. Overview, V. Esx, P. Vmware, and E. S. X. Server, “Chapter 1 Installing VMware ESX Server 3 Solutions in this chapter :,” pp. 1–24.

[29] D. Rule, “Scripting and Programming for the Virtual Infrastructure,” How to Cheat Config. VmWare ESX Serv., pp. 133–226, 2007.

[30] L. Gilbert et al., “Implications of virtualization on Grids for high energy physics applications,” J. Parallel Distrib. Comput., vol. 66, no. 7, pp. 922–930, 2006.

[31] S. Lim, B. Yoo, J. Park, K. Byun, and S. Lee, “A research on the investigation method of digital forensics for a VMware Workstation’s virtual machine,” Math. Comput. Model., vol. 55, no. 1–2, pp. 151–160, 2012.

[32] A. M. Coballes, “Unidad 4 : Introducci ́ on a la virtualizaci ́ on Introducci ́ on,” 2009.

[33] J. E. Smith and R. Nair, “The architecture of virtual machines,” Computer (Long. Beach. Calif)., vol. 38, no. 5, pp. 32–38, 2005.

[34] A. Desai, R. Oza, P. Sharma, and B. Patel, “Hypervisor: A survey on concepts and taxonomy,” Int. J. Innov. Technol. Explor. Eng., vol. 2, no. 3, pp. 222–225, 2013.

[35] U. Zulia, U. Zulia, and U. Zulia, “Revista Electrónica de Estudios Telemáticos,” no. 2010, pp. 33–46, 2014.

[36] S. D. Lowe, Hyperconverged_Infrastructure_for_Dummies, 2nd HPE Si. John Wiley & Sons, Inc., 2019.

[37] J. Green, S. D. Lowe, and D. M. Davis, “The Fundamentals of Hyperconverged Infrastructure The Gorilla Guide To... The Funda-mentals of Hyperconverged Infrastructure Entering the Jungle," p. 48, 2018.

[38] D. Martin and V. D. E, "Cloud Computing: de la virtualización de aplicaciones y de escritorio, a la virtualización de servidores". Ing. Edgar Gutiérrez," pp. 1-5, 2012.

[39] J. L. G. C. Caro, María José, Capítulo I. Alcance y ámbito de la Seguridad Nacional en el ciberespacio, no. Ciberseguridad. Retos y Amenazas a la Seguridad Nacional en el Ciberespacio. 2010.

[40] J. Repschláger, D. Pannicke, and R. Zarnekow, "Cloud Computing & SaaS," HMD - Prax. der Wirtschaftsinformatik, vol. 275, no. 47, pp. 1-2, 2010.

[41] Armin Balalaie and Abbas Heydarnoori, "M¡-croservices Architecture Enables DevOps Migration," leee Softw. |, vol. 11, pp. 42-52, 1960.

[42] C. Xia, Y. Zhang, L. Wang, S. Coleman, and Y. Liu, "Microservice-based cloud robotics system for intelligent space," Rob. Auton. Syst., vol. 110, pp. 139-150, Dec. 2018.

[43] M. Azure, A. laas, and A. Messaging, "Microsoft Azure lnfrastructure-as-a-Service( laaS ) Overview."

[44] W. F. Cxo, H. Integrated, S. Can, T. Storage, and A. D. Software, "Hyperconverged Infrastructure : The CxO View," no. 2, pp. 1-18.

[45] J. P. John McArthur, George J. Weiss, Kiyomi Yamada, Hiroko Aoyama, Philip Dawson, Arun Chandrasekaran, "Magic Quadrant for Hyperconverged Infrastructure,"2018..

[46] M. Foundation, "MariaDB."[Online]. Available: https://mariadb.org/.

[47] S. L. Devi and P. S. Vijayalakshmi, "A Comparative Study: MariaDB Vs MongoDB," Int. J. Sci. Res., 2015.

[48] IBM, "Manual CRISP-DM de IBM SPSS Modeler," 2016.

[49] D. Analyses, "Radar Handbook," Engineering. p. 6.

[50] A. Diehl, "Visualización de datos geoespaciales aplicada a la meteorología," Universidad de Buenos Aires, 2016.

[51] VMWare Inc., "[VMWare][ESX] [Server]: Platform for virtualizing servers, storage and networking," 2006.

[52] Microsoft, Introducing Windows Azure. 2013.

[53] T. A. I. Khoán and N. Dung, "Huóng Dan Cái Dspace 5.2 Tren Ubuntu 15.04 Va Quán Trj Tai Khoán NgUói Dung Dspace. http://dspace-club.blogspot.com/."