EMC Forum 2014: Entrevista con Carlos Marconi

Durante la semana pasada, en el desarrollo del EMC Forum 2014, en Santiago de Chile, realizamos una serie de entrevistas a los ejecutivos de la compañía, para conversar de diversos temas. Aquí, una entrevista con Carlos Marconi, consultor de Soluciones Tecnológicas de EMC.

emc-marconiEn el Forum 2014 de EMC tuvimos la oportunidad de conversar con Carlos Marconi, consultor de Soluciones Tecnológicas de EMC, para conocer un poco más sobre las soluciones de EMC en cuanto a storage y virtualización.

Por ello a continuación, los dejamos con el desarrollo de la entrevista que tuvimos con el, desde Santiago de Chile.

1.- Cuéntenos sobre las nuevas soluciones de almacenamiento masivo de EMC.

El 8 de julio se anunció la plataforma Vmax 3, la nueva generación de sistemas de almacenamiento de rango alto, en Symetrix, que básicamente tiene una capacidad de consolidación, operaciones por segundo y de performance, realmente, sin precedentes. Pero, más allá de la cantidad de discos, de la cantidad de conexiones que soporta y las capacidades que soporta, respecto a la familia anterior, ha tenido un conjunto de cambios fundamentales, que para mí, son la clave de esta nueva familia.

El primer punto está relacionado con que tiene una matriz virtual dinámica de recursos, en cuanto a procesamiento y memoria. ¿Qué queremos decir con esto? La máquina más grande llega hasta los 384 cores, y estos cores pueden ser asignados en forma dinámica a atender los puertos que van a ser los servidores, los discos u otros procesos de protección de datos que vamos a conectar en forma dinámica en la medida que las aplicaciones lo necesiten.

Por ejemplo, si tú tienes una aplicación que es de transacciones, o alguna base de datos que está necesitando mucha actividad de front-end, el sistema evoluciona y tiene la capacidad de mover recursos de procesamiento hacia el front-end. Si estás utilizando aplicaciones orientadas a business inteligent, donde hay mucho más trabajo sobre los discos, puede mover procesadores, en forma dinámica, hacia los controladores de discos para dar la performance que corresponde y readaptarse en forma automática y dinámica.

El segundo punto, que considero es realmente revolucionario, es el hecho de la posibilidad de tener HyperMax OS, que permite emular un servidor Intel, básicamente. Entonces, como tiene tanta potencia de procesamiento, no solamente utiliza esa potencia para acometer a la performance que tienen las aplicaciones, sino que se puede correr adentro otras aplicaciones. Por ejemplo, una aplicación de NAS, uno podría armar una máquina virtual que corra dentro de este sistema operativo, y darle funcionalidad de NAS.

Hay muchas cosas que se hacen con dispositivos externos, como por ejemplo, una replicación a través de recover points. Se colocan appliances externos, y hoy el sistema operativo está pensado para poder correr estas appliances internamente, porque permite correr servicios de datos dentro del sistema de almacenamiento que no están orientados solamente a la provisión de almacenamiento, sino a procesos que, normalmente, se hacían con dispositivos externos.

Otro de los puntos importantes es que tiene una característica nueva con respecto a cómo se dimensiona. Antes se dimensionaba de acuerdo con cuántos discos flash, discos de ciertas características, discos de bajo costo, pero hoy en día se dimensiona por Server Level Objectives. Es decir, si yo tengo mi aplicación de producción más importante en la empresa, requiero un milisegundo de tiempo de respuesta, a eso le llamamos aplicación de tipo platino. Después tengo aplicaciones que necesitan 5 milisegundos de tiempo de respuesta, como un correo, a la que le asigno otro objetivo. Después tengo aplicaciones relacionadas con mi directorio de usuarios, con archivos que no requieren tiempo de respuesta tan bueno, le aplico otra política, de 8 a 10 milisegundos de respuesta, y así sucesivamente.

Entonces, la máquina se dimensiona por Server Level Objectives, y lo que hace el sistema es, basado en unas funciones llamadas Fast Fully Automative Storage Tiering, ir moviendo los bloques de información hacia capas de discos más rápidos o bajando a los discos más lentos, en función de la necesidad con el objeto de garantizar que se cumple el objetivo.

El último punto es que dentro de las aplicaciones que se pueden correr dentro del sistema de almacenamiento, hay aplicaciones que se pueden estar corriendo de back-up, y que antes se corrían fuera del sistema de almacenamiento, con hardware adicional. Ese producto se llama Protect Point, que a través del sistema de almacenamiento conoce claramente qué bloques van cambiando, entonces solo empuja los bloques que cambian a través de un puerto canal de fibra, y eso se guarda directamente en las soluciones, que pueden ser Data Domain, que son las soluciones de back-up. Esto ahorra el servidor de back-up, y ahorra colocar el sistema en modo back-up con todo lo que ese problema genera, y el restore es instantáneo.

Con estas funcionalidades se permite bajar mucho el costo total de propiedad, soporta mucha mejor en consolidación en lo que es el espacio del data center, pues tiene menos requerimientos en cuanto a consumos y ese espacio en el ambiente es mucho más eficiente, y el hecho que mucho hardware, que antes estaba distribuido fuera del storage, pueda empezar a correr dentro del sistema de almacenamiento aún genera muchos ahorros importantes.

2.- ¿Cuáles son las ventajas de un sistema de discos magnéticos, discos de estado sólido, y la mezcla de ambos?

El disco de estado sólido que hace un direccionamiento electrónico, con lo cual tiene un tiempo de acceso que es muy rápido. Un disco magnético tiene que reposicionar la cabeza magnética, con lo cual es más lento. Un disco de estado sólido no tiene partes móviles, con lo cual la durabilidad es importante, consume mucho menos y la cantidad de transacciones versus el costo, obviamente, genera un ecuación genial. El disco magnético es más barato desde el punto de vista de capacidad que un disco de estado sólido, pero tiene menos performance. La ventaja de todo esto es que cuando armo un sistema de almacenamiento, todos van a ser híbridos. Es decir, cuando yo tengo un volumen que presentar, no todo el volumen está castigado con la misma necesidad de operaciones por segundo, sino que hay pequeñas áreas que están muy castigadas con AIO, y otras que no precisan tanta capacidad de AIO. Entonces, los sistemas inteligentes, como el caso de Fast VP, que es nuestro que lo comentamos hace un momento, lo que hace es detectar bloques que requieren mayor performance y mover esos pedacitos de bloques a discos de estado sólido, y los bloques que requieren menos performance bajarlos a discos magnéticos, logrando el mayor balance de costo-beneficio con la mejor performance.

3.- ¿Cuáles son los productos que actualmente ofrece EMC para la virtualización de escritorio?

El producto depende de la cantidad de puestos de trabajo de escritorio y del tipo del deployment. Por ejemplo, hasta 500,000 terminales se puede utilizar arreglos híbridos como pueden ser VNX, donde podemos consolidar los home directories y podemos utilizar fast caché para darle buena performance. Arriba de los miles de usuarios, en general, usamos XtremIO, un arreglo que es puro FLASH, y tiene una capacidad de duplicación embebida muy importante, soporta miles y miles de terminales virtuales con un tiempo de muteo comparable al de un Tablet, específicamente. Así que las soluciones dependen un poco del porte de la aplicación.

4.- ¿Cuáles son los retos actuales de toda empresa que desea tener un entorno virtualizado?

Para mí, para generar un ambiente virtual necesitan una capa de abstracción, que en general está basada en función de hipervisores, necesita un sistema de almacenamiento bajo y necesita, de alguna manera, estandarizar los servicios de IT, estandarizar los servicios basados en virtualización, tener servidores Intel, y sobre esas máquinas virtuales, ya sean Windows o Linux, generar un catálogo de servicios sobre las cuales el usuario pueda decir ‘yo necesito una máquina Windows, con tal capacidad de disco, pero necesito de un tiempo de respuesta de tipo bronce, no de alta performance, porque es para desarrollo, y pueda saber cuál es el costo de esa máquina y que la capa de virtualización orqueste todo el armado de ese entorno virtual y pueda entregarlo al usuario.

El segundo punto, es que esa plataforma virtual permita monitorear y necesita ser chargeback, o sea, hacer cobro revertido a los usuarios que están utilizando, con el objetivo de proveer el IT como un servicio, dejar de ser una unidad donde si yo tengo un proyecto, coloco un servidor, un sistema operativo, la base de datos, la aplicación, en uno, y en el otro hago lo mismo. La idea es proveer un servicio, que IT sea un bróker de servicios de computación, básicamente. Finalmente, educar a la gente, para que pueda absorber todas estas nuevas tecnologías, incorporarlas y que no sean un freno a su utilización.

5.- ¿Cuál es la perspectiva que se tiene sobre el futuro del storage en las empresas?

Hay una gran demanda todavía de almacenamiento en lo que llamamos la segunda plataforma, que son estos arreglos que están pensados para ambientes transaccionales. Hablamos de VMax3 como el high end más alto que tenemos, hablamos de VNX con arreglos de rangos medios, pero hay otro almacenamiento que está empezando a emerger, producto de la tercera plataforma y las aplicaciones basadas en la nube y basadas en la movilidad, que son almacenamientos donde realmente tienen muy pocas características en cuanto a funcionalidades avanzadas de datos, como pueden ser snapshots o de duplicación y muchas cosas que notamos son arreglos de alto rango, no están orientados a transacciones y están orientados, en general, al guardado de objetos, básicamente.

Entonces, hoy en día, la segunda plataforma está creciendo mucho, porque siguen habiendo aplicaciones transaccionales, pero el gran movimiento, el gran cambio en el almacenamiento lo vamos a ver en el almacenamiento que está basado en la nube. En nuestro caso tenemos Atmos, que es nuestro almacenamiento en la nube, y ViPR, que tiene interfaces o APIs que permiten almacenar formatos Hadoop, de objeto, de bloques sobre hardware, que puede ser de EMC o un hardware commodity.

6.- ¿Le gustaría compartir algo más con nosotros?

El software está redefiniendo la manera de hacer negocios. Las aplicaciones móviles y web nos generan un conjunto de negocios adicionales, que de otra manera tradicional no podríamos tener. Entonces, yo creo que toda empresa debe empezar a prepararse para encontrar valor en cuanto a, digamos, que se pueda sacar a través del software y que no se saque de forma tradicional, del hardware.

Big Data y aplicaciones en la nube, así como el deployment rápido son puntos fundamentales que cualquier empresa debiera empezar a mirar, a efectos de poder ser cada vez más competitiva y poder mantenerse como empresa. Hay empresas que no vieron esta tendencia y hace 10 años eran exitosas, pero ahora no existen; y por otro, lado hay empresas que no existían hace 10 años pero que han encontrado puntos de contacto haciendo negocio a través del software y que ahora tienen una vigencia importantísima.

Compartir noticia

Imprimir - Enviar a Email

Autor: Antonio Paredes - Fecha: 13/09/2014

Lo último en tecnología

Noticias relacionadas Noticias recientes Noticias nacionales
Noticia sobre: Empresas, Entrevistas

:

: