Pero, ¿por qué elegir? Lo mejor, sin duda, un clúster de mainframes; dos o más mainframes sysplex trabajando en modo cooperativo. Por desgracia, la necesidad de elegir viene determinada porque los presupuestos no son infinitos.
Antes de empezar, fijemos un poco la terminología. Por mainframe se entiende una máquina System z de IBM. A su vez, por servidores se entiende servidores -valga la redundancia- x86 o x64 de gama alta de Intel o AMD, familia System p de IBM, Superdome de HP o servidores con tecnología Sparc de Oracle.
Analicemos la elección desde diferentes puntos de vista.
Seguridad
Si le preguntásemos a un director de TI de una entidad financiera o de una gran superficie probablemente diría que lo más importante en su terminal financiero o en su terminal de punto de venta es la confiabilidad del sistema; la resiliencia que dicen los psicólogos. Y hablando de resiliencia, la capacidad para sobreponerse a problemas de un mainframe no tiene parangón. Los técnicos de sistemas de mainframe habitualmente presumen de que casi la mitad del código de zOS está destinado a recuperarse de forma automática ante errores o situaciones no previstas, algo muy diferente de lo que ocurre en cualquiera de los sistemas operativos habituales en servidores.
Pero ¿qué ocurre si le hacemos la misma pregunta a un pasajero de un avión? ¿Preferirá volar en un avión con un único sistema altamente tolerante a fallos o preferirá dos o tres sistemas un 1% menos tolerantes individualmente trabajando en paralelo y dándose cobertura de fallo entre ellos? Antes de contestar, analicemos las disponibilidades.
Cuando se habla de que un sistema es más seguro que otro se manejan porcentajes pírricos de diferencia que en ocasiones no llegan ni al 1%. Un mainframe puede presumir de cinco '9' de disponibilidad. Es decir, en el caso del quinto '9' (disponibilidad del 99,999%), el tiempo máximo de parada es de 5 minutos y 26 segundos al año. Todo ello, lógicamente, sin contar los problemas asociados a los problemas generados por los técnicos que son habitualmente mucho mayores, bien por fallos o bien por paradas planificadas.
Obsérvese el eje de simetría vertical, es decir, el clúster de sistemas |
Lo sé, aún falta añadir la Ley de Murphy al cóctel (todo lo que pueda fallar, indefectiblemente fallará y si puede hacerlo a la vez, lo hará) pero esta Ley aplica por igual para todos los modelos que podamos plantear.
El ecosistema
Un aspecto enormemente importante, tanto o más que la resiliencia de la máquina, es la capacidad de sobreponerse a fallos del ecosistema. Y por ecosistema se entiende todo lo que rodea a las máquinas y que tiene que ver con su funcionamiento. En definitiva, todo aquello en lo que su no existencia implique pérdida de servicio.
Hay elementos vitales como el suministro eléctrico o la refrigeración, la ubicación del CPD, la probabilidad de desastres naturales en función del emplazamiento, el sabotaje,... Muchas de las grandes compañías del entorno comenzaron a percibir este hecho y a proteger su ecosistema a raíz de las inundaciones de Donostia afectando al Banco Guipuzcoano o el incendio eléctrico en Barajas dejando sin servicio todo el CPD de Iberia.
Por tanto desde el punto de vista de ecosistema parece más razonable pensar que es mejor tener un clúster con nodos geográficamente distantes y diferentes proveedores de energía a tener todo en una única ubicación.
Rendimiento
Supercomputador Mare Nostrum de IBM Barcelona Supercomputing Center |
El primero es que la lista Top 500, en la que se sitúan los 500 súper-computadores más potentes del mundo, está basada al 100% en mega-clústeres. Estos clústeres funcionan haciendo creer al software que todos los servidores que lo integran conforman una única máquina aunque realmente no es así. Por ejemplo, el número uno actual, el súper-computador chino Tianhe-1A, está basado en procesadores Intel x64, pero en cantidades ingentes (14.336 procesadores). Por cierto, es la primera vez que China dispone de un súper-ordenador en la primera posición de la lista.
Habrá quien piense que estos súper-computadores solo sirven en el ámbito científico, que suele ser muy diferente del mundo real. Pues el otro aspecto que invita a creer que el rendimiento es superior en los clústeres es que la mayor parte, por no decir todos, los sitios Web de Internet situados en el Top 20 respecto a visitas basan su infraestructura en clústeres hadoop. Estos clústeres basan su potencia de cálculo no en dos, tres o diez nodos sobre servidores sino en cientos o miles de nodos basados en hardware, habitualmente, más cercano al entorno doméstico; en muchos casos simples PCs. Da igual que se rompan los discos de 50 PCs al día, siempre habrá otros cien mil funcionando. El número de compañías que apoyan esta tecnología va en aumento porque parece que les salen las cuentas de coste-rendimiento. Ahí va la lista, aunque la verdad, me parece que a medio plazo no es la solución.
Coste
El coste es, probablemente, la clave de todo. Durante años el gasto en TI ha estado aumentando el doble que el PIB mundial. Este desfase puede justificarse en cierto modo desde la óptica de aportación al negocio, y desde ese punto de vista es posible encontrar una explicación razonable a ese incremento durante los 20 últimos años. Pero esta justificación es aplicable únicamente a las aplicaciones dado que, salvo honrosísimas excepciones, las inversiones en infraestructura de TI raramente aportan valor al negocio.
Es decir, la obligación de cualquier responsable de TI es intentar reducir al máximo las inversiones y el gasto corriente en infraestructuras para dedicar el máximo esfuerzo inversor al desarrollo de aplicaciones que se ajusten y potencien al máximo el modelo de negocio. Eso sí es crear valor.
Y en este punto es donde los mainframes están encontrando mayores dificultades. Los costes de bajada de bandera son significativamente más altos que los que se dan en los modelos basados en clústeres de servidores.
La mejor defensa es un buen ataque. Y quizá por ello, dado que los servidores están amenazando la hegemonía del mainframe, lo mejor es atacar donde les duele. IBM ha planteado su nuevo mainframe z196 de forma que, gracias al virtualizador de hardware KVM, puede ejecutar máquinas virtuales x86 basadas en Linux (ya disponible) y próximamente también Windows (previsto para finales de 2011). Es un paso lógico y muy acertado en el que únicamente falta saber qué éxito tendrá en un mercado dominado por VMWare con Hyper-V a cierta distancia.
Nunca es tarde, pero es increíble que IBM haya tardado tantos años -incluso décadas- en acercar la virtualización de hardware a la plataforma x86 teniendo en cuenta que fue ella quien inventó y desarrollo esta tecnología hace casi cuarenta años con el sistema operativo MVS (1974) en sus mainframes.
Tecnología
En relación a la tecnología, centrando la tecnología en el microprocesador, no parece haber diferencias significativas. El rendimiento de cada procesador se sitúa a la cabeza en función del mes en que se mida y dependiendo del tiempo que haya pasado desde el último lanzamiento de producto de cada fabricante.
Respecto a la proyección a futuro, los equipos basados en Intel y AMD parecen tener el futuro garantizado dada la enorme cuota de mercado y, con ello, la gran capacidad de inversión en I+D. Por su parte, IBM, a sabiendas de que el mercado de mainframes no era suficiente para mantener la masa crítica necesaria para fabricar procesadores, ha sabido llegar a acuerdos en un mercado de consumo, el de los fabricantes de consolas. Así, tanto la PlayStation 3 de Sony como la Xbox 360 de Microsoft incorporan exactamente los mismos chips con tecnología Cell que lleva el mejor y más avanzado de los mainframes. Por eso no debería sorprender que el Departamento de Defensa de EEUU haya creado un súper-computador (ocupa el puesto 33 en el ranking Top500) a base de interconectar 1.700 PlayStation 3.
Sin embargo, el futuro de HP Integrity con sus procesadores Itanium no parece estar tan claro dado que HP se ha quedado solo en su utilización. Itanium se desarrolló con la mente centrada en la sustitución de x86 y x64 pero la realidad ha sido otra bien diferente. Y lo mismo le ocurre a Oracle con su tecnología Sparc dado que tendrá que recuperar los últimos años de declive tecnológico de Sun.
Hay un aspecto diferenciado del coste pero que repercute directamente en él y es la complejidad en el manejo de las infraestructuras de TI. Lógicamente, repercute en el coste dado que a mayor complejidad mayor número de personas para gestionar los sistemas y, no olvidemos, el coste de personal de TI es una de las partidas más importantes -y necesarias- de gasto en la gestión de un CPD.
El siguiente gráfico muestra la previsión realizada en 2007 por IDC respecto a cómo aumentan los gastos de TI a medida que aumenta la base instalada, es decir, el número de servidores. Se observa que tanto el gasto en servidores como el gasto en energía permanecen relativamente constantes mientras que el gasto de gestión y administración (personal, básicamente) aumentan de forma muy importante.
Sin embargo, la previsión de IDC no era del todo acertada dado que la virtualización de hardware ha conseguido contener esos incrementos de forma muy notable.
Del mismo modo, el buen hacer de los responsables de infraestructuras han hecho que los servidores, lejos de proliferar, hayan reducido su número de forma drástica en los CPDs. Es muy habitual hoy en día tener entornos de base de datos o servidores de aplicaciones totalmente centralizados sobre una única infraestructura para toda la organización.
Un ejemplo muy evidente del cambio hacia la centralización en el entorno de servidores es el paso dado por Oracle con su Database Machine (Exadata). Oracle centró su estrategia durante años en los sistemas basados en grid. Todo debía estar en muchos nodos, pequeños, pero abundantes en número. Ahora propugna un cambio de paradigma con Exadata según el cual toda la gestión de BBDD debe estar centralizada en una única máquina en la que la propia Oracle provee el software, capacidad de procesamiento, almacenamiento y comunicaciones. Cualquiera diría que Oracle está intentando reinventar el mainframe sobre hardware de servidores.
Aunque a IBM no le gusta demasiado dar las cifras del número de mainframes que están en línea, algunos estudios apuntan a que el número de máquinas se sitúa en torno a las 10.000 a nivel mundial. Nunca hubo tantas como ahora..., ni tan pocas como ahora. Básicamente, porque el número está estancado desde hace casi dos décadas.
El concepto de resiliencia unido a los enormes costes de arrastre en forma de migraciones masivas de aplicaciones hace que los proyectos de migración de los mainframes se encuentren en muchos casos en lo que un físico denominaría equilibrio inestable.
Los servidores son cada vez más estables y seguros. Es cierto, los mainframes lo son aún más pero cualquier organización mide los riesgos y después elige la posición más óptima respecto a ellos. Y en esa elección los costes son una de las piezas clave a la hora de determinar qué riesgos se pueden asumir y cuáles no.
Los servidores son cada vez más estables y seguros. Es cierto, los mainframes lo son aún más pero cualquier organización mide los riesgos y después elige la posición más óptima respecto a ellos. Y en esa elección los costes son una de las piezas clave a la hora de determinar qué riesgos se pueden asumir y cuáles no.
Los mainframes no van a desaparecer. Todos los profetas (IDG, Gartner, Forrester, ...) anunciaron su muerte durante años y, obviamente, se equivocaron. Pero creo que a día de hoy hay hardware y software que puede competir de igual a igual con la seguridad y resiliencia de los mainframes igualando o superándoles en el resto de valoraciones. La batalla por el mercado de los mainframes menores de 2.000 MIPS, donde están probablemente más del 50%, ya ha comenzado.
www.tonsofit.com
www.tonsofit.com
Leyendo muy por encima el artículo, solo puedo estar de acuerdo con la conclusión que aportas, pero creo que como ha ocurrido desde el principio, la batalla a ganar no es abaratar costes sino entrar por los ojos del usuario, es decir, un buen GUI.
ResponderEliminarMe explico parafraseando a un profesor de cobol que tuve:
Programa una aplicación que sea la pera limonera haciendo cálculos y otra que sea mediocre pero con un aspecto fácil de entender (en este caso un GUI amigable) y esta última es la que te pedirán como rosquillas.
Ahí tenemos a Apple y Microsoft.
Alberto, el que haya un mainframe no implica, necesariamente, que la aplicación sea 3270 (GUI pobre). Puede ser una aplicación Web en Websphere sobre zOS o zLinux o incluso cualquier otra tecnología (con interface tan rico como se desee) que utiliza el mainframe como servidor de BBDD (DB2) o gestor de transacciones (CICS o IMS).
ResponderEliminarEs decir, mainframe no es necesariamente interface de usuario pobre, aunque en muchas ocasiones se asocie por las pantallas verdes de emulación de las clásicas aplicaciones Cobol.
He repasado varias ocasiones lo que comentas y en general te diré que me gusta, te felicito por ello, pero... hay cosas que no estoy de acuerdo, otras que si, lógicamente. Solo hablaré de las que no estoy contigo en sintonía y te daré mi punto de vista:
ResponderEliminar1.- Nos pides que nos posicionemos ante el asesoramiento de tipo de sistemas y nos das a elegir entre Mainframe vs Servidores X86.
A nuestro supuesto cliente no hay que asesorarle un tipo de sistemas hay que darle una solución para su problemática.
Quizas para un banco un Mainframe es lo lógico, no lo se, …yo tengo mis dudas…, pero para una empresa que su negocio pasa por tener una logística ágil capaz de llenar sus tiendas con rapidez y reponer su mercancía rápidamente para que el cliente final no compre en otro sitio, lo que necesita no es un Mainframe o unos X86, realmente lo que necesita es una comunicación segura y después ya hablaremos que servidores debemos poner, por que su Core es la comunicación ya que si no hay comunicación no vende, y este coste en comunicaciones es muy grande, mucho más que comprar un cluster de servidores X86, por que la seguridad no me la dará mi cluster X86, si no el proveedor de la comunicación.
2.- Como dices en tu articulo “Habrá quien piense que estos súper-computadores solo sirven en el ámbito científico, que suele ser muy diferente del mundo real” Yo soy uno de ellos, nadie pone un supercomputador para llevar las BBDD de la empresa, ni el correo, ni … es que no creo que debamos comparar el rendimiento de un Mainframe con un supercomputador.
Sabes tan bien como yo que un servidor X86, por ejemplo, un Proliant DL980 es más rápido y cuesta infinitamente menos que un Mainframe.
Tenemos que tener en cuenta que este tipo de servidores tienen capacidades de 1TB de memoria y noventaytantos cores, es decir, podemos trabajar con nuestras bases de datos corporativas en memoria sin ir a disco para nada, insisto, con un coste muy bajo.
3.- Seguro que tienes una experiencia dilatada en este mundo y me sorprende mucho esta frase literal que dice…
"las inversiones en infraestructura de TI raramente aportan valor al negocio"
Una incorporación, por mínima que sea, a nuestro CPD, en infraestructura, siempre tiene que ir con una aportación directa a dar valor a tu negocio, de lo contrario algunos no esta haciendo bien su trabajo.
4.- Todos sabemos por que aparecerá un Mainframe con capacidad virtual, estos equipos son una fuente de ingresos muy golosa. Habrá quien virtualice en un Mainframe, pero muy lógico no es…. tendras un mundo virtual con poco rendimiento y con un coste excesivo, y sobre todo, una solución completamente cerrada y en este mundo hay que ir a soluciones abiertas que seas capaz de cambiar de proveedor en cuanto veas comportamientos anómalos por parte de dicho proveedor de IT, ademas estos sistemas abiertos te darán menor complejidad, y me voy a atrever a meter en estos mundos abiertos todos los Unix, incluidos, AIX, HP-UX y Solaris.
5.- La batalla por todos los Mainframes, sin distinción de número de MIPS, comenzó hace más de cuatro años, otra cosa es que las empresas ( Bancos sobre todo) no están por la labor de cambiar, en general, hay mucho miedo, y muchas personas que no quieren complicarse en una migración,… y no es criticable.
Txemi
Hola Txemi,
ResponderEliminarRespecto al primer punto, totalmente de acuerdo contigo. Lo lógico es centrarse primero en la necesidad del cliente y después plantear una solución global, pero entonces el post hubiera sido de 250 páginas. La simplificación era necesaria. ;-)
No obstante, la comparación no era mainframe vs x86 sino mainframe vs servidores donde en servidores también se incluyen los Integrity, Sparc, Power y x86/64.
Donde no estoy de acuerdo es en la aportación de valor. En mi opinión, las infraestructuras, salvo contadísimas excepciones, no crean valor o no al menos lo que yo entiendo por aportación de valor.
Por ejemplo, ¿qué aporta sustituir una cabina de discos por otra con FC de 8Gb en lugar de 4Gb? En el 99% de los casos nada. Los procesos de negocio irán un 10% o un 20% más rápidos pero eso no implica aportar valor. ¿Y un switch de core a 10 GbE? ¿Y un chasis de blades un 50% más potente y ampliable?
El otro día, en una presentación de Exadata, el ponente citó una referencia portuguesa en la que, según él, esa máquina por sí misma había aportado valor. Según parece había un tipo de consultas en tiempo real que eran muy importantes para ellos (para dar un servicio concreto) y hasta ahora no habían podido hacerlo por falta de potencia. Esa máquina (según el comercial) aporta tantísima potencia que ahora si pueden. En ese caso, estoy al límite de creer que la infraestructura aporta valor pero ese escenario no suele ser lo más habitual.
Las infraestructuras son habilitadores pero eso no suele ser crear valor aunque, repito, hay veces que casi me convencen. ;-))
Respecto a la virtualización sobre mainframe puedo hasta estar de acuerdo contigo ;-) pero solo el tiempo dirá que pasará.
Y respecto a cuando ha empezado la guerra de los mainframes es cierto que las grandes compañías (salvo IBM) llevan ya unos años intentando arañar mercado. Échale un ojo a esta web:
http://www.mainframemigration.org
Pero hasta ahora con resultados absolutamente nulos. Es ahora cuando se empiezan a ver movimientos en este mercado, quizá porque la crisis obliga a agudizar el ingenio y este es un mercado que mueve mucho dinero.
¿Que tal Manu?
ResponderEliminarEs cierto el ataque al Mainframe no ha tenido mucho exito, no se si como dices tu, es un cero absoluto, o algo más, creo que una empresa de seguros hizo algún cambio, pero no puedo asegurarlo.
En cuanto a la aportación de valor, este tema nos separa :-). Pero solo decirte que si alguien no necesita una SAN a 8GB, no la compre, y si no necesita 4Gb de ancho de banda...hay otras soluciones más asequibles económicamente.
Ya que tienes conocimiento del tema de Exadata te animo a que nos expliques de que va esto con profundidad por que yo no lo veo.
Txemi
Hi Txemi,
ResponderEliminarNo digo que la SAN de 8Gb o de 4Gb no sirvan de nada. Digo que son habilitadores para que otros (normalmente quienes diseñan las aplicaciones) puedan crear valor. Pero esa infraestructura, en sí misma, y en contra de todo lo que afirman quienes venden hardware, no crea ningún valor.
Lógicamente, hay excepciones cuando la infraestructura sea suficientemente disruptiva como para marcar un antes y un después y/o permita hacer cosas que la competencia, que aún no la tiene, no puede hacer.
También pueden crear valor, por ejemplo, cuando los actores de un mercado tiene máquinas muy deficientes y la nueva infraestructura permitirá dar servicio 24x7, cosa que, a lo mejor, la competencia aún no puede hacer.
En esas situaciones, y algunas otras, si hay aportación de valor al negocio pero de verdad creo que son el 1% de las veces que se invierte en nuevas máquinas.
Por ejemplo, ¿cuántos préstamos o seguros más crees que venderá un banco o una compañía de seguros tras renovar su mainframe? o ¿crees que un centro comercial venderá más productos porque el proceso de pago tarde un 10% menos?
No digo que la informática no sea buena (faltaría más). Digo que aporta valor cuando lo aporta y la mayor parte de las veces se queda en mero habilitador.
Respecto al Exadata, voy a intentar que lo explique alguien que sabe mucho más que yo. ;-)
Saludos, Manu
Cuando se tiene que tomar una decisión, con todas las ofertas en la mano y con los omnipresentes costes encima de la mesa, no podemos olvidarnos del equilibrio y es que la virtud esta en el medio.
ResponderEliminarCreo que la batalla por el entorno ideal la ganara el sistema mas versátil y escalable, seguro y confiable, y con unos costes contenidos -derivados de la migración y especialmente de la formación de los empleados-, que no tienen porqué ser los más baratos.
Tan importante como la elección, resulta la otra asignatura pendiente que es la de conocer las necesidades reales presentes y futuras de nuestra organización.
Creo que es difícil equivocarse, porque si tomar una decisión resulta complicado, más lo es reconocer el error. Es como el día después de las elecciones, cuando llegan las valoraciones y en el que ningún partido reconoce haberlas perdido.
Y sino siempre podemos quedarnos como estamos y apoyarnos en el sabio refranero y aceptar como propio lo del mas vale malo conocido…
Efectivamente Manu, lo que pretendía decir era eso último que has mencionado.
ResponderEliminarPero, y repito, por muy potente que sea el motor de cálculo de un "S.O. - entorno", si no tiene un buen "escaparate - GUI", el usuario final (que al fin y al cabo es quien suele decidir y marcar las directrices del mercado) no va a pasar por el aro que marquen las empresas del sector (al menos ponen infinidad de trabas hasta que se asientan).
Esto último suele dar infinidad de quebraderos de cabeza a los que intentamos "venderles la moto-implementarles el sistema". No dudo que conocerás la típica frase "es que en mi casa..., mi ordenador portátil....., y la que más me gusta, es que un conocido que sabe de informática me ha dicho........."
De todos modos y en mi limitada experiencia, todas las aplicaciones que conozco que está basadas en los entornos que has mencionado, están muy por debajo de lo que pide el usuario final, ya que están a años luz de un GUI del tipo de apple y microsoft, que es a lo que les han "acostumbrado - anestesiado - drogado".
Vamos, que si pudieran disponer de esta tecla (seguir el link ya que no lo he sabido pegar en el post),
http://img189.imageshack.us/i/lateclaquetodosesperaba.jpg
serían felices.
Señores, conozco mucha gente que lleva toda su vida trabajando en ambos lados de la moneda (Open System/Z/os) y me incluyo, tengo 30 años trabajando en Mainframe y 10 años en paralelo en la parte Open system, No hay mucho en que pensar, Z/os es por demás mucho mas robusto, Su arquitectura no tiene comparación y continua evolucionando a tal grado que actualmente existe la arquitectura necesaria para que se migre a tecnología Z/os el Open System, la cual muchas empresas de gran complejidad la están adoptando.
ResponderEliminarCon esto nos olvidamos de los cientos de servidores vs unos cuantos ZBX, lo importante de todo esto es que Z/os nos aporta mas con menos, una mayor velocidad de procesamiento, cientos de servidores virtualizados en un solo chasis.......
Podríamos escribir cientos de líneas comparando HW y SW y llegaríamos al mismo punto Mainframe es mejor.
Its such as you read my mind! You appear to grasp so much about this, such as you wrote the ebook in it or something. I think that you could do with some p.c. to force the message home a little bit, but instead of that, that is wonderful blog. A fantastic read. I'll definitely be back. paypal mastercard login
ResponderEliminar