Skip to content

Latest commit

 

History

History
499 lines (409 loc) · 24.5 KB

Intro_concepto_y_soporte_fisico.md

File metadata and controls

499 lines (409 loc) · 24.5 KB

Introducción a la infraestructura virtual: concepto y soporte físico

Objetivos

Cubre los siguientes objetivos de la asignatura

  1. Conocer la historia de la Computación Virtual, sus orígenes y razones de su existencia.

  2. Conocer los conceptos relacionados con el proceso de virtualización tanto de software como de hardware y ponerlos en práctica.

  3. Comprender la diferencia entre infraestructura virtual y real.

  4. Justificar la necesidad de procesamiento virtual frente a real en el contexto de una infraestructura TIC de una organización.

Objetivos específicos

  1. Conocer diferentes tecnologías relacionadas con la virtualización (Computación nube, Cloud computing, Utility Computing, Software as a Service o Google AppSpot).

  2. Conocer el concepto de software libre y su importancia dentro de la computación nube.

  3. Entender el concepto de DevOps y las técnicas y tecnologías que cubre.

  4. Usar el sistema de control de fuentes gitpara desarrollo colaborativo y para despliegue de aplicaciones en la nube.

Introducción

En general y en Informática, un recurso virtual es un recurso irreal, es decir, un recurso que no tiene equivalente físico directo. Así, memoria virtual es la memoria que, en realidad, está almacenada en parte en un disco o realidad virtual es un entorno inmersivo generado por ordenador que imita a la realidad (al menos en que se puede situar uno dentro de ella). Una infraestructura virtual será un recurso -procesador, memoria, disco, conjunto de aplicaciones o incluso una sola aplicación o función- que no está asociado directamente a su equivalente real (no tiene un procesador físico, o un disco físico exclusivo) sino que se ha creado a través de una serie de mecanismos computacionales para funcionar como tal.

A partir de esto, un recurso en la nube es aquel al que se puede acceder bajo demanda, que es escalable y que, desde el punto de vista del usuario, se facture según uso, no por el hecho de tener acceso.

El origen de la palabra viene de la tradicional representación de recursos en la red como una nube en diferentes ilustraciones.

Consultar en el catálogo de alguna tienda de informática el precio de un ordenador tipo servidor y calcular su coste de amortización a cuatro y siete años. Consultar [este artículo en Infoautónomos sobre el tema](https://infoautonomos.eleconomista.es/consultas-a-la-comunidad/988/).

Desde el punto de vista del desarrollo, la creación y gestión de infraestructuras virtuales entra dentro del concepto de DevOps, un concepto que abarca tanto sistemas como desarrollo y que está a caballo de ambos. En primer lugar, DevOps implica la automatización de las tareas de creación de un puesto de trabajo para desarrollo, pero también la sistematización de pruebas, de despliegue y de las tareas de configuración relacionadas con la misma, todo ello en un entorno de desarrollo ágil. En concreto, DevOps comprende los 7 aspectos siguientes, vistos en la página de una herramienta, Rex, usada para ello:

  1. Automatización de tareas relacionadas con el desarrollo. En resumen, que no haya que recordar comandos para hacer todo tipo de cosas (instalación de librerías o configuración de una máquina) sino que haya scripts que lo homogeneicen y automaticen.

  2. Virtualización: uso de recursos virtuales para almacenamiento, publicación y, en general, todos los pasos del desarrollo y despliegue de software.

  3. Provisionamiento de los servidores: los servidores virtuales a los que se despliegue deben estar preparados con todas las herramientas necesarias para publicar la aplicación.

  4. Gestión de configuraciones: la gestión de las configuraciones de los servidores y las órdenes para provisionamiento deben estar controladas por un sistema de gestión de versiones que permita pruebas y también controlar en cada momento el entorno en el que efectivamente se está ejecutando el software.

  5. Despliegue en la nube: publicación de aplicaciones en servidores virtuales.

  6. Ciclo de vida del software definición de las diferentes fases en la vida de una aplicación, desde el diseño hasta el soporte.

  7. Despliegue continuo: el ciclo de vida de una aplicación debe ir ligado a ciclos de desarrollo ágiles en los que cada nueva característica se introduzca tan pronto esté lista y probada; el despliegue continuo implica integración continua de las nuevas características y arreglos, tanto en el software como el hardware.

Tecnologías de virtualización: un poco de historia

Tecnológicamente la computación nube se basa en el proceso progresivo de virtualización de recursos computacionales que ha tenido lugar prácticamente desde que se empezaron a usar los sistemas de tiempo compartido o time-share en los años 50. Estos sistemas convertían una sola máquina real en diversas máquinas virtuales, una por usuario. A estos sistemas se accedía mediante terminales tontos, con usuarios percibiendo un uso exclusivo de los recursos, es decir, teniendo acceso a un ordenador virtual.

En realidad en estos sistemas la protección de memoria o de CPU era relativa; la virtualización de recursos en el sentido que la conocemos ahora tiene su origen en los mainframes de los 60. La línea temporal de tecnologías de virtualización sitúa en los años 60 el desarrollo de los primeros sistemas de memoria virtual por parte de IBM, con el primer monitor de máquinas virtuales hecho en los años 80 sobre el procesador 80286.

El concepto de red privada virtual o VPN (virtual private network) es posterior y comenzó a usarse en los años noventa, simultáneamente a lo que se puede considerar las primeras aplicaciones virtuales, los servicios de correo web tales como Yahoo o Hotmail, que son en realidad una virtualización de las aplicaciones de lectura del correo electrónico.

Todos los conceptos, por lo tanto, tienen origen en el pasado pero la computación nube tal como la conocemos resurge a principios de siglo por la potencia alcanzada por los procesadores y sobre todo por la existencia de soporte físico en los mismos para llevar a cabo virtualización de diferentes recursos tales como CPU, memoria, almacenamiento y red. Productos privativos como VMWare existen desde principios de siglo y otros libres, como Xen, desde el año 2003.

El primer servicio en tener esa denominación fue el Elastic Compute Cloud, EC2, de Amazon, un servicio de creación de máquinas virtuales bajo demanda surgido en 2006. A partir de ese momento, se lanzaron diferentes servicios similares.

La virtualización de la infraestructura permite:

  • Creación y configuración de la misma bajo demanda. En vez de desplazar a un técnico al centro de datos para que instale un sistema operativo y las aplicaciones necesarias, o hacerlo remotamente, se puede automatizar la creación de un recurso (a base de recetas o plantillas) y llevarse a cabo cuantas veces se necesite.

  • Simplificación del control y despliegue de recursos: permite usar diferentes sistemas operativos y en cada caso el más adecuado para la tarea que se requiera.

  • Permite que el vendor (distribuidor o vendedor con valor añadido) aproveche mejor el hardware, usando la capacidad para servir a diferentes clientes a lo largo del día o de la semana y creando tanta infraestructura virtual como la física pueda soportar. Esto también reduce la cantidad de energía consumida.

  • Portabilidad: una máquina virtual se puede mover físicamente de un ordenador a otro cuando sea necesario.

  • Ahorro de costes de arranque en un centro de datos frente a una instalación tradicional, aunque eventualmente algunos negocios puedan optar, si tienen un uso intensivo y regular, en volver a ella.

Todas estas ventajas hacen que, ya en el año 2013, más de la mitad de los negocios americanos usaban infraestructura virtual.

Usando las tablas de precios de servicios de alojamiento en Internet "clásicos", es decir, que ofrezcan *Virtual Private Servers* o servidores físicos, y de proveedores de servicios en la nube, comparar el coste durante un año de un ordenador con un procesador estándar (escogerlo de forma que sea el mismo tipo de procesador en los dos vendedores) y con el resto de las características similares (tamaño de disco duro equivalente a transferencia de disco duro) en el caso de que la infraestructura comprada se usa solo el 1% o el 10% del tiempo.

Tipos de virtualización

El término virtualización abarca diferentes técnicas y tecnologías que tienen todas el mismo objetivo: crear recursos que, desde el punto de vista de un programa, sean exclusivos. Cada una de las tecnologías necesita una aplicación determinada para usarse y, en muchos casos, soporte a nivel de hardware. En todo caso, el sistema operativo o aplicación que ejecuta las operaciones necesarias para llevar a cabo la virtualización se denomina anfitrión y el que se ejecuta dentro de la máquina virtual invitado.

  • La virtualización plena virtualiza todos los aspectos de un ordenador para poder ejecutar sistemas operativos y otros programas sin modificar. Las aplicaciones necesarias para llevarlas a cabo se llaman hipervisores o programas de control, y para que se consigan de forma completa necesitan soporte hardware tal como reescritura binaria y ensombrecimiento de estructuras de datos. La mayoría de los procesadores modernos de Intel y AMD tienen este tipo de soporte. A veces, con soporte de hardware, se puede virtualizar algún recurso, tal como la memoria.

  • La paravirtualización requiere modificación de los sistemas operativos

  • La virtualización a nivel de sistema operativo solo permite que anfitrión y cliente usen el mismo sistema operativo pero con invitados aislados del anfitrión y entre sí. En este caso, en vez de hablarse de máquinas virtuales se habla de jaulas, zonas o contenedores; generalmente se trata de aplicaciones de un sistema operativo determinado y el soporte suele estar a nivel del núcleo de los mismos.

  • La virtualización de aplicaciones empaqueta aplicaciones de forma que se ejecuten en un entorno que las aísla del resto del sistema operativo; una parte es el uso de virtualización de escritorio que permite aplicar una serie de aplicaciones generalmente desde un navegador (y que en realidad tiene que tener por debajo una máquina virtual, en un servidor, que sea quien en realidad ejecuta las mismas). En general, los programas necesarios se denominan emuladores; CygWin, por ejemplo, permite ejecutar aplicaciones de UNIX en Windows, aunque se tienen que recompilar. Programas como FlatPak, permiten empaquetar aplicaciones para que se ejecuten en cualquier distribución de Linux, empaquetando todas las dependencias en un solo fichero que, además, se puede distribuir desde la web, evitando tener que descargar dependencias e instalarlas usando privilegios de administrador. Esta virtualización de aplicaciones, aunque se puede usar para desplegarlas en infraestructura virtual, en realidad está fuera de los conceptos de infraestructura cloud que son la clave de esta asignatura.

  • La contenedorización de aplicaciones va un poco más allá, empaquetando un entorno de ejecución completo de una o varias aplicaciones o servicios (aunque se aconseja que sea solo uno) y aislándolo del resto del sistema operativo. Se pueden usar las técnicas que se explican en el resto de la asignatura; de hecho, se pueden crear paquetes que permiten ejecutar una aplicación con todas las dependencias necesarias. Por ejemplo, docker es una aplicación que permite crear fácilmente aplicaciones contenidas desde línea de órdenes para su uso en cualquier tipo de infraestructura virtual. A bajo nivel, la contenedorización es en realidad un sistema de aislamiento de aplicaciones que permite crear seudo-máquinas virtuales de usar y tirar.

  • La virtualización de entornos de desarrollo es una práctica habitual en lenguajes de scripting tales como Perl, Python o Ruby. Se trata de reproducir entornos de producción de la forma más fiel posible, incluyendo las versiones de intérpretes y librerías usadas en el entorno de producción. Esta práctica permite también probar una aplicación en diferentes versiones con una sola orden. virtualenv, perlbrew rbenv o RVM son diferentes aplicaciones que permiten realizarlo para diferentes lenguajes.

En general, en esta asignatura hablaremos, sobre todo, de virtualización plena, aunque en realidad lo interesante de la infraestructura virtual es poder definir por software los recursos que se van a usar para desplegar una aplicación, independientemente de la tecnología que se use; en ese sentido, el tipo de virtualización que se use físicamente tiene importancia secundaria.

Virtualización a nivel de hardware

Los sistemas operativos modernos ofrecen puentes para poder usar las capacidades de virtualización que contienen los procesadores de sobremesa y portátiles modernos. Hay dos tecnologías principales dentro del mundo x86: VT-x de Intel y AMD-V. En algunos casos, esta tecnología está desactivada en la BIOS, por lo que habrá que comprobar si está activada o no en nuestro caso particular. Para hacerlo se usa este comando en Linux:

egrep '^flags.*(vmx|svm)' /proc/cpuinfo

/proc/cpuinfo es el fichero del sistema de ficheros virtual /proc que da acceso mediante "ficheros" a las estructuras de datos del núcleo de Linux; cpuinfo lista las características de la CPU y vmx es el flag que se usa para indicar que el procesador usa esta tecnología; smd es el flag para AMD-V. egrep busca líneas de un fichero que contengan la expresión regular indicada, y si aparecen los flags listará la línea completa. Si no lista nada, entonces es que el procesador no tiene esa funcionalidad o está desactivada.

En general, cualquier ordenador con menos de 5 o 6 años tendrá estos *flags*. ¿Qué modelo de procesador es? ¿Qué aparece como salida de esa orden? Si usas una máquina virtual, ¿qué resultado da? ¿Y en una Raspberry Pi o, si tienes acceso, [el procesador del móvil](https://stackoverflow.com/questions/26239956/how-to-get-specific-information-of-an-android-device-from-proc-cpuinfo-file)?

Lo que implementan estas tecnologías son una serie de instrucciones para proteger zonas de memoria, crear máquinas virtuales anidadas y facilitar la virtualización de los buses de entrada/salida.

Normalmente esta aceleración hardware de la virtualización no se expone directamente al usuario, sino que se añade una capa de abstracción en el sistema operativo que, habitualmente, no distingue entre la aceleración de hardware usada. Esta capa se incluye en el núcleo del sistema operativo y se expone de alguna forma (a través de un dispositivo virtual, por ejemplo) para que los hipervisores o aplicaciones para gestionar máquinas virtuales puedan usarlo.

Esta infraestructura en Linux se llama KVM, Kernel-based Virtual Machine (aunque también se ha usado en otros sistemas operativos). Este dispositivo se encarga de gestionar la aplicación de memoria del invitado al anfitrión, crear los dispositivos virtuales de entrada salida y presentar la salida de vídeo del invitado en el anfitrión. En realidad, KVM tampoco se usa directamente en general (aunque es una parte del núcleo con sus características como cualquier otra) sino que lo habitual es que se use a través de hipervisores tales como QEMU. KVM solo está activado si puede usar la aceleración por hardware del procesador.

Alternativamente, se puede usar la orden lscpu, también presente en todos los Linux, para ver si las órdenes de virtualización están presentes. Como se indica en este artículo, en Manjaro, ArchLinux y distros similares (y en realidad en todas), se puede usar:

LC_ALL=C lscpu | grep Virtualization

La definición de la variable LC_ALL se debe simplemente a que cambia el formato para que se pueda hacer grep (búsqueda) correctamente sobre él.

Instalar un hipervisor para gestionar máquinas virtuales, que más adelante se podrá usar en pruebas y ejercicios. Usar siempre que sea posible un hipervisor que sea software libre.

Niveles y tipos de infraestructura virtual

A nivel de tecnología se aprecian diferentes niveles de de virtualización, pero hasta no hace demasiado tiempo se solía hablar, desde el punto de vista comercial se habla de tres niveles: Infrastructure, Platform y Software as a service

Capas de computación nube

El nivel superior consiste en una aplicación que, en vez de trabajar de forma autónoma en el ordenador, tiene una parte contenida en el servidor. Aunque el desarrollo de las mismas tiene técnicas propias y el objetivo de la asignatura es crear una aplicación que se pueda vender como un SaaS, el principal foco de la asignatura será los dos primeros niveles: Infraestructura como Servicio y Plataforma como Servicio. La mayoría de los temas están dedicados a la creación, diseño y mantenimiento de IaaS, por lo que dedicaremos especial atención en este tema al nivel PaaS.

A diferencia del IaaS, que proporciona algo similar al bare metal o capacidades de máquina (CPU, almacenamiento, entrada salida y red) que uno puede configurar y usar según la necesidad que haya, un PaaS contiene infraestructura y una pila de soluciones o solution stack completa que permita desplegar en el mismo nuestras propias aplicaciones.

En realidad, a estas alturas del siglo no está tan clara esa división en capas. Mientras que el sufijo as a service o aaS se mantiene, no existe una división tan clara entre las tres "capas" ni los vendedores las ofrecen de esa forma. Hay tres grandes empresas que ofrecen servicios en nube, Microsoft con su Azure, Google con su Cloud y por supuesto Amazon Web Services. Cualquiera de ellos ofrece una cantidad de servicios virtualizados a todos los niveles, que van desde virtualización de recursos computacionales hasta virtualización de almacenamiento de todo tipo. En general, lo que hacen los servicios en la nube es abstraer los recursos de forma que el usuario solo tenga que describir en un lenguaje de alto nivel específico de la plataforma o genérico para cualquier plataforma qué se quiere ejecutar y cómo es el flujo de datos en la ejecución; todas las tareas de asignación de recursos y escalado de los mismos es gestionado por la propia plataforma.

Hay especialmente dos servicios que han surgido a partir del año 2015 que no encajan nada bien dentro de esas capas anteriores

  • Contenedores como servicio son servicios que permiten subir a la nube directamente contenedores o descripciones de los mismos, así como funciones de orden superior como conexión u orquestación. Evidentemente, empezó con Docker pero empresas como Microsoft o Amazon lo ofrecen como parte de sus servicios en la nube. La gran ventaja que poseen los contenedores es que pueden desplegarse, usando las mismas herramientas estándar y libres, en cualquier servicio, una ventaja que no poseen ni las máquinas virtuales ni las plataformas como servicio que, de hecho, ahora usan también contenedores.

  • Funciones como servicio dentro de lo que se ha venido en llamar serverless, la virtualización se reduce a la mínima expresión usando simples funciones que están conectadas de forma ligera al resto de la aplicación a base de canales de eventos. Estas funciones se activan solo cuando se las necesita y por tanto se cobra solo por la ejecución, que además está limitada y se cobra por milisegundos. Amazon Lambda o Google o Azure Functions son los nombres de los productos comerciales, que cuentan con marcos libres como Apache OpenWhisk.

En general, estos tipos de servicio necesitan a su vez de otros productos en la nube, especialmente definición de redes virtuales y diferentes tipos de almacenes de datos y de canales de comunicación entre ellos.

Por otro lado, dependiendo de quién posea físicamente el centro de datos y lo administre, se suele hablar de nube pública o privada; los servicios en nube públicos son los que puedes adquirir, y los privados son los que pertenecen a la propia institución. Dado que la naturaleza de los servicios nube hace que se contraten bajo demanda, en general las nubes privadas suelen ser híbridas, contando con recursos contratados para responder a picos de demanda. Mediante aplicaciones de monitorización se puede configurar el sistema para que de forma eficiente responda a estos picos de demanda.

Para implementar nubes privadas se usan general mente sistemas libres como OpenStack; OpenStack permite proveer servicios nube a una empresa, aunque hay también empresas privadas que basan su oferta en este tipo de infraestructura; CloudStack es otra alternativa que se puede instalar in situ. En cualquier caso, esto indica que cualquier organización o empresa, con cualquier cantidad de recursos disponible, puede acceder al despliegue de sus aplicaciones en la nube, y de hecho así es. Otros sistemas cloud son Eucalyptus y OpenNebula, pero no tienen una comunidad tan activa como este.

1. Darse de alta en una web que permita hacer pruebas con alguno de los sistemas de gestión de nube libres como los mencionados en los párrafos anteriores, aunque sea temporalmente. Si la prueba es menos de un mes, simplemente anotarlo y dejarlo para el mes de diciembre, más o menos.

A dónde ir desde aquí

Antes de continuar (y, de hecho, antes de empezar) es imprescindible que aprendas y configures git. Empieza por aquí. En el temario se verá a continuación los ciclos de desarrollo modernos usando desarrollo basado en pruebas, test-driven development, TDD, pero se puede saltar directamente al tema dedicado a las plataformas como servicio veremos como usarlos. Previamente habrá que realizar la práctica correspondiente a esta materia.