Nutanix 101 Parte 2: ¿Por qué ahora?

En las próximas semanas estaremos hablando sobre el por qué, el qué y el cómo de Nutanix, en ese orden. El almacenamiento en red tiene muchos desafíos hoy en día, pero no siempre fue así. Hoy caminaremos por el camino de los recuerdos. Esta historia de cómo se formaron las redes SAN y dónde están hoy nos ayudará a comprender por qué una empresa como Nutanix tiene sentido ahora.

El nacimiento del Almacenamiento en red (La Era Pre-Internet):

La arquitectura Cliente-Servidor de la década de los 80’s resultó en que los servidores acumularan datos demasiado grandes para los discos duros a principios de los 90’s. Las oficinas corporativas tenían una demanda cada vez mayor de estaciones de trabajo y PCs. Novell NetWare era el rey, pero el software estaba a punto de estallar.

Las empresas aún no habían superado la barrera de 1GB en disco duro y las grietas en el centro de datos y la sucursal comenzaban a mostrarse. El almacenamiento local en las PCs era rápido, pero pequeño, no a prueba de fallas y un silo que impedía la colaboración. El almacenamiento local en servidores era rápido, pero pequeño, no a prueba de fallas, y un silo que requería grandes gastos operativos. Irónicamente, moverse de Mainframe estaba causando problemas por primera vez.

Pero ante la ausencia de avances reales, las PCs continuaron conectándose en red de manera punto-a-punto para proporcionar algo de colaboración. Los servidores Unix continuaron aumentando para ofrecer tanto almacenamiento local como fuera físicamente posible en esos tiempos. Estos “parches” se estaban volviendo caros y complejos para las empresas.

Por aquel tiempo, desde principios a mediados de los 90’s, se estaba avanzando hacia la consolidación del almacenamiento tanto en la PCs de la oficina como en el entorno del centro de datos.

Sun Microsystems había casi estandarizado el NFS (Network File System) para compartir archivos entre estaciones de trabajo Unix y Microsoft había estado trabajando en CIFS (Common Internet File System) para compartir archivos entre PCs.

NetApp aprovechó la oportunidad de negocios para entregar un dispositivo cuidadosamente diseñado para TI. Esta compañía llegó a simbolizar lo que significaba comercializar protocolos de vanguardia en un solo paquete que era fácil de entregar al mercado de la pequeña a mediana empresa.

El dispositivo NAS había nacido.

Casi al mismo tiempo, IBM estaba trabajando con Brocade en el área de Redes de Almacenamiento. La Ethernet era demasiado lenta y con demasiada pérdida para llevar el protocolo de almacenamiento SCSI (basado en bloques) por cable; el SCSI nunca podría permitirse las latencias y los reintentos inherentes a TCP/IP/Ethernet. Se tuvo que inventar un nuevo protocolo llamado Fibre Channel para que las redes de almacenamiento menos propensas a pérdidas y con una latencia extremadamente baja. Se desarrolló una nueva clase de tarjetas de red (HBA), switches, discos duros, dispositivos de almacenamiento y un conjunto de habilidades de administración para el almacenamiento para soportar el peso de una red de tan alto nivel. Los servidores Unix de gama alta ahora podían almacenar datos a través de la red en un nuevo tipo de “mainframe” diseñado específicamente para el almacenamiento.

El mercado SAN había nacido.

La Era del Internet:

La última década fue testigo de la muerte de los servidores Unix de gama alta, con Microsoft y Linux impulsados por hardware x86 ganando dominio en el centro de datos. El almacenamiento local en x86 todavía era rápido pero no lo suficientemente seguro como para ser confiable para la empresa. NAS con el protocolo NFSv3 se volvió confiable para un centro de datos. El iSCSI nació como una “SAN para pobres”.

Las SANs se empezaron a multiplicar. El problema por el que se inventó el almacenamiento en red para resolverlo – silos – apareció una vez más. Sin embargo, se inventó otro “curita” conocido como appliance de “virtualización de almacenamiento” para unir estos silos.

Los datos en la empresa estaban creciendo pero la innovación en el almacenamiento era incremental, mucho más evolutiva que revolucionaria.

Sin embargo, hubo una revolución masiva en marcha en la última década, aunque no en la empresa. Google había pasado toda una década creando una infraestructura que había eliminado completamente el almacenamiento en red. Había utilizado creativamente software para hacer que el almacenamiento local en servidores x86 básicos fuera rápido, escalable y a prueba de fallas. Yahoo siguió su ejemplo, al igual que Facebook y, finalmente, Windows Azure. La era de la computación en la nube había llegado. El almacenamiento local con software confiable para la empresa en la parte superior, se puso de moda nuevamente en los grandes centros de datos.

La Era de la Virtualización:

VMware cambió el juego en la computación en la segunda mitad de la última década. Mientras estamos platicando, hay de 10-100x más máquinas en el centro de datos y las SANs están provocando un serio problema.

La realidad es que no se construyeron para entornos tan grandes y dinámicos, tanto en términos de rendimiento como de capacidad de gestión. Existe una marcada disonancia cognitiva entre el cuate que administra la infraestructura virtual y el cuate de la SAN: diferentes idiomas, diferentes objetivos.

La SAN es ahora la mayor pesadilla de la virtualización y el mayor impedimento para construir nubes privadas: son caros, complejos, monolíticos y lentos.

El Almacenamiento en Red se ve anacrónico en el centro de datos de hoy. Con una potencia de procesamiento limitada (solicitudes/seg), las SAN se enfrentan al flash, la revolución de la unidad de estado sólido que está en el horizonte. Una sola unidad flash que vale US$ 3K, con sus IOs/seg groseramente altos, agotará la potencia de procesamiento de una SAN completa que vale US$ 500K. La arquitectura SAN de algunos controladores que virtualizan el acceso a cientos de ejes mediante la exposición de algunos volúmenes virtuales es imperfecta para esta década.

Necesitamos una nueva arquitectura para las próximas décadas: una que sea masivamente paralela, una que esté preparada para administrar al Rayo McQueen (Flash) pero que también que retenga las virtudes de Doc Hudson (SAN). La lenta decadencia de Fibre Channel en la empresa es una señal de lo que está por venir.

Está claro que la SAN ha pasado su mejor momento. Los días de una tecnología de la Era Pre-Internet están contados. En las próximas entradas, mostraremos cómo.

Por favor, comparte

Leave a Reply

Your email address will not be published. Required fields are marked *