Evolución cíclica de los Centros de Proceso de Datos.

Publicado el 14 Abr 2009

87900_72

Por Carrie Higbie, global data centre director for network infrastructure experts de Siemon.

Desde salas de servidores, a salas más grandes con más servidores, de los servidores distribuidos a los centros de proceso de datos (CPDs), hasta múltiples salas con servidores o CPDs duplicados. Una cosa es cierta: donde almacenamos y recuperamos información está cambiando. Pero no cambia en una sola dirección, siempre evolucionando. La evolución en la gestión de los datos es más similar a la moda que a la técnica. Una tendencia está de moda y desaparece para volver después, pasados unos años. No obstante, al contrario que alguna ropa antigua, no podemos pedir a nuestra vieja tecnología que soporte las necesidades de red actuales y futuras, aunque la “moda” en centros de proceso de datos sea cubrir el círculo completo.

A lo largo de los últimos 15 años, hemos visto como simples salas de servidores con cableado blindado, mainframes (que fueron los primeros ejemplos de virtualización) y terminales neutrales (dumb), pasaron a ser redes basadas en PC, PCs compartidos, hasta juntar todos estos ordenadores para alcanzar mayor potencia de procesamiento. Hemos visto como se han incrementado las necesidades de ancho de banda significativamente, al igual que las demandas de almacenamiento. Con cargas incrementadas para la retención de datos y accesibilidad, las salas de servidores dejaron de ser adecuadas para muchas empresas. ¡Lo antiguo vuelve a ser lo nuevo!

Por ejemplo, los mainframes se virtualizaron, funcionando sobre cableado blindado twinax hasta los terminales que comunican directamente con el mainframe, los usuarios utilizaron terminales neutrales (dumb) y todos los datos se almacenaban en discos de elevado coste. Con el cambio a PCs de escritorio, pudimos virtualizar un PC neutral (dumb), y además, crear y almacenar documentos de trabajo localmente o en una red. El almacenaje de red empezó su espiral descendente en precio y capacidad. Los diskettes hicieron posible compartir información de un PC a otro que no se encontraba dentro de la red. Y los PCs se conectaban a estas redes con un cable blindado coaxial, primero con conexiones “Daisy chain” y más adelante con topología de estrella.

Luego pasamos al cable de teléfono y a los módems para las comunicaciones. Esto convirtió nuestras áreas locales en redes más amplias. Empezamos a instalar fibra para poder hablar entre grandes distancias y las empresas empezaron a ampliar comunicaciones que suplían al papel y a las llamadas telefónicas. Un centro de datos soportaba en este momento múltiples ubicaciones sin la necesidad de introducir datos personales para acceder a la información de oficinas remotas. Las cintas para realizar copias de seguridad se incrementaron y los datos eran guardados sobre todo por motivos empresariales, no porque lo exigiera la legislación.

Hacia delante y hacia arriba, empezamos a distribuir servidores en ubicaciones múltiples, de forma que se incrementara la cantidad de datos que pudieran ser almacenados en todos ellos para un acceso local más rápido. Necesitábamos más capacidad, pues las aplicaciones seguían aumentando más y más y empezamos a analizar los datos con cada vez más algoritmos para utilizar la tecnología no sólo en funciones contables sino para proporcionar a las compañías una ventaja competitiva.

Al incrementar las velocidades WAN, disminuyó la necesidad de tener servidores distribuidos en diferentes puntos. Las compañías empezaron a darse cuenta de que los datos (que en este punto suponen uno de los factores críticos de negocio) necesitaban un lugar que pudiera ser controlado. Deslices accidentales como no verificar las copias de seguridad (o peor, no hacerlas), el robo de datos y los costes aumentados derivados de mantener múltiples servidores en múltiples lugares empezaban a ser una carga y un riesgo para el negocio. Y de nuevo, llegó el momento de coger las riendas de la información.

Se introdujo el concepto del centro de proceso de datos. Al contrario de una sala de servidores, un CPD, con climatización también controlada, es una central de almacenaje de información a mayor escala. Independientemente del sistema operativo, sea OS400, Unix, Linux, Microsoft o algunas de sus variantes o combinaciones, nuestras máquinas empezaron a crecer en número. El acceso a los datos era posible desde varias ubicaciones gracias a amplias áreas de conexión, líneas telefónicas, comunicaciones vía satélite, etc. Los servidores en nuestros CPDs adoptaron Ethernet de manera casi omnipresente, con la excepción de las aplicaciones de almacenamiento. Al haber tomado las riendas de nuestros datos, encontramos también mejores medios para almacenar y recuperar datos, y para comunicar con nuestra información almacenada.

El almacenamiento se mudó fuera de nuestros servidores y nació el almacenaje estructurado en gran parte debido al coste del almacenamiento y al cada vez mayor coste para las empresas cuando los datos no estaban disponibles. Los centros de datos se convirtieron en el hub central para los negocios y las aplicaciones. Con la creciente disminución de los costes del material informático, fue posible disponer de diferentes servidores para cada aplicación, asegurándoles un entorno para su circulación, protegidos de otras aplicaciones. La necesidad por parte de estas aplicaciones de conectarse al almacén de información y el aumento de la demanda de ancho de banda, fue la causa de un aumento de las exigencias sobre la red. Pero los requisitos del CPD no disminuyeron. En realidad, la potencia y la refrigeración y los costes de funcionamiento del CPD se incrementaron. El estado de los CPDs se convirtió en la preocupación principal. Nuestra dependencia de los datos también suponía una vulnerabilidad. ¿Qué ocurre si el CPD se cae? Al contrario que ante una caída de una aplicación, se hace necesario en este caso evaluar el riesgo de que se caiga la red en la que se sustenta todo un negocio.

Empezamos entonces a implementar mayores sistemas UPS y a instalar generadores. El tiempo también es dinero al fin y al cabo. Una caída no son vacaciones, sino un desastre que puede salir muy caro, tanto en términos tangibles como intangibles. Por tanto, de nuevo descentralizamos nuestros centros de datos, con un duplicado idéntico y planes de recuperación de desastres. Era necesario incrementar de nuevo el ancho de banda, tanto en el área local como más amplias. La ventaja competitiva de una empresa pasaba por estar conectada a estos datos, con lo que los medios para acceder a éstos cada vez eran más portátiles. Las compañías de nuevo soportaban dos centros. En muchos casos, uno de estos centros estaba ubicado en un espacio fuera de la compañía, y sólo los datos sensiblemente más críticos se guardaban también en otro lugar. Pero esta descentralización costaba dinero. La energía y la refrigeración necesaria se convirtieron en temas centrales, y las compañías empezaron a estudiar fórmulas para reducir los costes del centro de datos. La virtualización (recuerde el mainframe) se introdujo como una forma de permitir que aplicaciones múltiples utilicen una misma pieza del hardware del servidor. La energía para el procesamiento se incrementó, así como las exigencias sobre la red y también las demandas de refrigeración. De todos modos, siempre será más fácil refrigerar una caja tipo blade que múltiples cajas RU.

Las comunicaciones se mudaron a fibra, más rápida, optimizada para mayores velocidades (láser OM3 optimizado), y de nuevo al cableado blindado para soportar Infiband, CX4 y 10GBASE-T. Las comunicaciones WAN se han incrementado con fibra bajo la premisa: aplicaciones y conexiones entre las aplicaciones más rápidas y optimizadas.

De hecho, las comunicaciones WAN son lo suficientemente rápidas para que no sea necesario que un centro de datos esté ubicado siquiera en la misma ciudad, ni por supuesto en el mismo edificio que las oficinas de la compañía. Esto abre una vez más nuevas posibilidades para la ubicación de nuestros datos – casi tantas, como las que se abren para acceder a los mismos. Para ilustrar esta última parte del ciclo, una anécdota: los ordenadores originales tenían agua dentro de ellos para refrigerar los procesadores. Hoy de nuevo volvemos a la refrigeración por agua en los CPDs. Todos estos sistemas necesitan ser monitorizados, de nuevo precisando un incremento de la necesidad de mayor velocidad del cableado. ¡No importa que IEEE esté funcionando con 100G y 40G!

Todo esto, nos lleva a la siguiente reflexión: ¿cuál será la siguiente fase del ciclo? ¿podemos saber donde estarán nuestros datos mañana? ¿Podemos afirmar hoy en cuántas ubicaciones guardaremos mañana la información de nuestra empresa? Lo único que podemos tener claro es que las exigencias aumentan, que la tecnología avanza y solicita mayor rapidez y mayor disponibilidad de los datos, desde cualquier lugar del mundo. Para poder hacer frente a estos cambios en los próximos 10-15 años, es importante dotarse de una estructura a prueba de cambios y crecimientos futuros que pueda garantizar la seguridad y disponibilidad del activo más crítico en que se sustentan nuestras compañías: la información.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

R
Redacción RedesTelecom

Artículos relacionados

Artículo 1 de 4