domingo, 22 de diciembre de 2013

Propósitos para el 2014

Es complicado encontrar un rato durante la semana para poner el freno de mano y pensar en nosotros, en las cosas que hemos hecho, como nos han hecho sentir y que vamos hacer al respecto. Los meses pasan rápido y es por eso que con suerte lo hacemos durante los últimos días de diciembre, antes de que acabe el año.

New Year Sparkle
Para mi el 2011 fue el año en el que pase de la Gestión de Proyectos a la "Artesanía de Sistemas", y desde entonces vivo mejor. Durante el 2012 volví al mundo de la Virtualización (los caminos de la crisis) y me encontré con certificaciones actualizadas de Cisco, Oracle y VMware. No podía seguir viviendo por encima de mis certificaciones y abandoné el mundo Cisco después de 11 años.

El 2013 no sólo ha sido el año del BigData, sino de otras muchas cosas que me obligan a hacer previsiones para el 2014.

Pero esta vez, creo que nos afectan a todos:

Cloud DBA

Hay una clara tendencia a hacer más con menos, automatizar, optimizar, convertirnos en operarios de una linea de montaje de servicios de la información, para conseguir a base de ITIL y similares que seamos hiper-productivos.

Pero luego los departamentos de selección les da por pedir gente con competencias no técnicas, cosas como la innovación o la comunicación que poco tienen que ver con una linea de montaje.

Al resultado de estas discusión la he acabado llamando el camino hacia el Cloud DBA, y no es opcional.

Formación

Durante el 2014 formarse tampoco será una opción.

New Year's Resolution Coasters by Lucky Bee Press
Durante el 2013 además de atender a un MOOC de Data Scientist y asistir a 4 sesiones de introducción a VMware vCO, me he certificado en Oracle 11g, ITIL y MongoDB. Pero toda esta formación tiene un punto en común: ha sido gratuita.

Los exámenes hay que pagarlos, pero creo que es una gran noticia que podamos acceder a formación de calidad de forma gratuita.


Ya no hay excusas para no estar formado...

Big Data

Hace tiempo decidí emprender un experimento en el que tendría que sumergirme en el mundo del BigData, ahora ya se que no es ningún experimento, y no debería serlo para nadie. Las pocas empresas que todavía no ofrecen soluciones para los datos de sus clientes se encontrarán irremediablemente con una pregunta incómoda: "¿y vosotros que tenéis de BigData?".

Necesitamos meditar cual será nuestro siguiente paso en el BigData. Quizás el mio sea ayudar a decidirlo.

The Slow Way

Vivir en el quizás sea el territorio del mundo con más diversidad en menos extensión tiene sus consecuencias. Sin duda un objetivo para el 2014 será SOBREVIVIR ésas consecuencias.

Burbujas. Un buen comienzoSiempre he pensado que esa diversidad se podría vender como un producto. Conseguir convertirla en un reclamo para personas, empresas o incluso países. Pero no.

Yo me creí lo de la Unión Europea, pero curiosamente en Europa pasa algo parecido. Incluso parece que la presidenta de toda Europa es la que gobierna una única región. Quizás es que lo entendí mal.

Puede que la solución sea invertir en los programas espaciales para encontrar vida extraterrestre. Cuando tengamos que competir con otros planetas no nos quedará otro remedio que remar al unísono.

Mientras tanto las alternativas pasan por la apatía, emigrar, provocar o el camino lento...

El camino lento es el de los que no entendemos de blancos o negros, pero si de grises. No se cuantos somos, algunos se pasan a la apatía... unos se radicalizan acabando más blancos o negros que nadie... otros se pasan al rojo o simplemente se van. Es duro verlos caer.

Durante el 2014 no caigas!


Feliz año nuevo

Imagen: New Year Sparkle
Imagen: New Year's Resolution Coasters by Lucky Bee Press
Imagen: Burbujas. Un buen comienzo

lunes, 9 de diciembre de 2013

Software Defined Storage (Flex ASM vs vSAN)

Hace unos días escribí una pequeña disertación sobre el Software Defined Storage intentando poner en relieve que ya hay existen multitud de capas de SOFTWARE en el camino que hacen nuestros datos desde la controladora hasta el disco.

Pero si SDS está en boca de todos es por el intento de varios fabricantes de hacernos olvidar la gestión del almacenamiento. Para conseguirlo será necesario crear una capa de abstracción.

Capas

layers
Imagina una capa de SOFTWARE que gestione nuestro almacenamiento entre varios nodos de un cluter, utilizando la red para la señalización y bloqueos o incluso para enviarse bloques de datos. Que además pretenda abstraernos de temas físicos y que con sólo decirle lo que necesitamos ya se preocupará de dónde.

Imagina también que ese lugar donde guardará los datos, no será cualquier lugar. Se preocupará de la disponibilidad replicando nuestros datos según  convenga y se adaptará al rendimiento según las necesidades del servicio en cada momento.

¿Suena bien? 


Pues aquí presento no una, sino dos capas de SOFTWARE que cumplen con la descripción que hemos imaginado:

Flex ASM (el PDF)

Tal y como explicaba en mi anterior post, Oracle se adelantó a su tiempo con Exadata, y creo que con ASM también logró. Oracle presentó su capa de abstracción de almacenamiento con la base de datos 10g en el año 2003, se llamaba Automatic Storage Management (ASM).

Esta capa consiste en una instancia de base de datos Oracle dedicada a gestionar discos, y lo hace bastante bien. Balanceo de carga, añadir y quitar discos en caliente, gestionar replicas, uso compartido entre varios nodos de cluster... operaciones ligadas a una limitación: debemos tener una instancia de ASM en cada nodo de la base de datos. Hasta 12c

Con Oracle 12c se presenta Flex ASM, donde definiremos un numero mínimo de instancias de ASM y Oracle se encargará de mantenerlo. En el caso de que la instancia de ASM se caiga, la base de datos se conectará a otra instancia de ASM por un segmento de red dedicado. El servicio de base de datos no caerá y el cluster iniciará otra instancia de ASM en otro nodo.

Todavía no lo he probado pero me parece una característica de disponibilidad impresionante que junto a los Heat Maps y el Tiering conforman un producto llamado Automátic Data Optimization, y parte de la estrategia Cloud de Oracle.

vSAN (el PDF)

Todavía en fase beta, vSAN se presento en la pasada VMworld 2013. Se trata de la evolución de VSA donde olvidamos el Appliance y trabajamos con un módulo del kernel. En este caso hay que destacar que los discos SSD ya no son una opción, sin dos tiers de disco (SSD y mecánicos) no podrás usar vSAN.

Este cambio les ha llevado a abandonar los perfiles de almacenamiento para pasar a políticas (SBPM). Puede sonar a lo mismo, pero lograr una gestión de concurrencia en disco no parece tan sencillo como con la CPU o la memoria, que menos que un par de intentos. 

Dos Diferencias

#9: difference La principal diferencia es que ASM requiere almacenamiento compartido entre todos los nodos del cluster (si es que montamos un cluster RAC) y vSAN trabaja con almacenamiento local. Con vSAN lograr disponer de almacenamiento compartido (virtual SAN) sin disponer de la costosa infraestructura que conlleva.

Usar  almacenamiento local y volver a equipos independientes huyendo de los blades y SAN es una tendencia muy interesante. Vivir una época donde no nos podemos permitir inversiones iniciales disparatadas convierte el escalado a base de Commodity Servers en una opción muy apetecible y el salto a 10GB en las redes lo ha puesto fácil.

En los últimos años se ha vivido algo parecido con las bases de datos, donde todas las tecnologías relacionadas con el BigData van en esa dirección: grandes granjas de Commodity Servers y comunicación por red.

Otra diferencia es la gestión del rendimiento, mientras con vSAN las políticas las definiremos nosotros y los cambios serán manuales, ASM pretende adaptarse a las necesidades de cada momento para cualquier dato de la instancia.

Este ultimo punto es una de las críticas de Multitenant en 12c, ya que muchas características son globales a la instancia cuando en realidad se vende una separación entre PDBs.

Aunque sobre este tema tendré que hablar otro día.

Imagen: layers
Imagen: #9 difference

miércoles, 4 de diciembre de 2013

Software Defined Storage

Creo que la primera vez que vi Software Defined Storage en acción fue en el año 2000, cuando me tocó gestionar algunos equipo UNIX y descubrí los gestores de volúmenes de AIX.

En los últimos 13 años las cosas han cambiado y los Arquitectos de Sistemas están de enhorabuena: se puede elegir. Puede elegir entre varias opciones para adaptarse a las necesidades del cliente y la coyuntura (también llamada crisis) escogiendo entre una gran variedad de opciones.

Muchas de estas opciones son las que nos harán decidir entre una u otra cabina de discos ( EMC vs HP vs NetApp ). Y si es lo que buscas, te recomiendo esta guía de compra y dejar de leer. 

No se trata tanto de saber que es el SDS, sino de saber elegir la mejor opción.

Escojamos un Disco

Storage
Una de las opciones más llamativas es SANsymphony de DataCore, una empresa de SOFTWARE con la que montar un metro-cluster de storage activo-activo parecerá de lo más normal del mundo. Pero con esta solución además nos independizarnos del fabricante en futuras renovaciones de plataforma. La primera vez que lo vi me pareció ciencia ficción.



Curiosamente una de las críticas que los competidores de NetApp alegaban eran problemas de rendimiento. Decían que aunque ofrecían funcionalidades impresionantes (deduplicación, gestión avanzada de snapshots, ...) con una solución basada en SOFTWARE (el Sistema Operativo Data ONTAP de NetApp) era imposible dar el mismo rendimiento que con sus soluciones Hardware.

Ahora esos mismo fabricantes han añadido a su portfolio soluciones en la linea de DataCore, como los VPLEX de EMC o los V-Series y MetroCluster de NetApp. Dicen que es de sabios rectificar.

EMC Blueprint:  Software-Defined Storage

No hay que olvidar que las cabinas de discos actuales no sólo se limitan a servir LUNs, un buen ejemplo es la API de VMware VAAI, un servicio SOFTWARE que tendremos que asegurarnos de no perder antes de poner una capa sobre nuestro almacenamiento.

Del Disco Al Servidor

Del disco al servidor va un cable, ¿no? ¿Qué pinta aquí el software?

Si estamos diseñando un CPD tendremos que decidir si queremos converger las redes de datos y de almacenamiento. Una decisión muy relacionada con el SDN, veamos si hay señales que ayuden a responder...

Hard Disk Rack (showing power and IDE connections)
Los primeros fueron Cisco con Nexus, equipos que podemos encontrar:

Una solución, que particularmente también me gusta, son los Virtual Connect de HP. Bajo una APARIENCIA DE HARDWARE nos encontramos con toda una capa de abstracción donde podemos dividir cada conexión de 10GB del servidor en combinaciones de puertos de red y almacenamiento FC over Ethernet de la velocidad que más nos convenga. 



Toda una tendencia que se consolida con el soporte de SR-IOV en las tarjetas de interconexión y por los fabricantes como VMware.

Esto último no es estrictamente SOFTWARE, pero me cuesta llamar hardware a un elemento con puertos virtualizables en sub-puertos convertibles en red o SAN a gusto del consumidor y con soporte para iSCSI (protocolo sobre Ethernet) integrado como guinda del pastel.

A Oracle se le Quedó Pequeño

A partir de la versión 10g, es posible instalar un SOFTWARE gestor de volúmenes de disco propio de Oracle: ASM. Pero en el 2009 sacó al mercado Exadata, la avanzadilla de sus Engineered Systems, con los que intenta hacer rentable la compra Sun.

De repente los 4-8 GB de SAN se le quedaban cortos y que su estándar sería InfiniBand de hasta 40G, y además los discos SSD dejaban de ser una opción para convertirse en una obligación.

Pero la auténtica revolución de Exadata fue el Storage Server, un SOFTWARE que al igual que DataCore se anticipó a su tiempo:

Smart Scan Smart Flash Cache Hybrid Columnar Compression




No contentos con eso, hace tiempo que nos enviaron otra señal añadiendo el cliente de Direct NFS, para acceder al almacenamiento por Ethernet, directamente en los binarios de la base de datos.

Conclusión

El mercado todavía esta reaccionando al impresionante avance de Exadata.

Por por fin usar disco SSD empieza a ser la norma, aparecen tecnologías de deduplicación en cabina de discos comparables a HCC y creo haber visto a un par de técnicos analizando el rendimiento de un proceso MapReduce en Hadoop frente a Smart Scan. Una competencia que traerá muchos beneficios a los usuarios.

Poner capas de SOFTWARE o utilizar Ethernet para acceder al almacenamiento ha dejado de ser un tema tabú y ha paso a ser una norma, las mejoras en rendimiento, flexibilidad, disponibilidad e incluso ahorro de costes superan a los porcentajes ínfimos de rendimiento que puedan llegar a perderse y permite a los fabricantes ofrecer muchas más opciones. Así que...

si eres un Arquitecto de Sistemas

ENHORABUENA!




PD: Para los que se hayan quedado con ganas de SDS, lo siguiente que escribiré en el blog será: "vSAN vs Flex ASM", aunque en realidad no tengan mucho que ver... ;)


Imagen: Storage
Imagen: EMC Blueprint: Software-Defined Storage
Imagen: Hard Disk Rack (showing power and IDE connections)

sábado, 30 de noviembre de 2013

Vídeo Emprendedores [OFFTOPIC]

¿Que tienen en común un Game Designer, un experto en Microsoft Intune, un Administrador de Sistemas y el Director de una empresa?

La respuesta es que son Vídeo Emprendedores, todos han apostado por el vídeo como formato para aparecer en escena. Y no, no se trata de "youtubers", me refiero a profesionales que además de difundir contenido en un blog, en la radio o en las redes sociales, han decidido hacerlo con vídeos. Ya hablé en el blog de la gestión del cambio cuando me saqué el VCP5, pero difundir contenido en vídeo es un cambio total de chip.

Creo que no necesito explicar el potencial del generar contenido en vídeo, lo mejor es que veáis los 4 ejemplos que presento, cada uno de ellos con su propio estilo:

@FuKuy se llama a si mismo youtuber por accidente pero, tal y como le he dicho en alguna ocasión, se nota el trabajo de fondo. Si os gustan los videojuegos os aconsejo que os suscribáis a su canal y le sigáis en twitter.

Os dejo su último comentario sobre Oculus Rift:



@josepros tiene la apuesta más fuerte, no sólo por la inversión que le debe suponer tener un cámara, reportera y montador. Sino por que ha decidido lidiar con entrevistas y mesas redondas, dando un punto de calidad extra a los vídeos pero añadiendo varios puntos de complejidad. Os recomiendo seguirlo en twitter y visitar la web de NcoraTV para descubrir una visión muy personal del VMworld 2013 que se celebró en Barcelona.

Todavía más sorprendente fue ver como se alejó de los temas técnicos para lograr el todavía más:




@hmartineztobar destaca por sus maratonianas jornadas de trabajo que comenta en su cuenta de twitter y por su nombramiento como Intune Expert. Producto del que ha decidido publicar toda una serie de vídeos en su blog.

Aquí tenéis por donde empezar con un producto no apto para mentes pequeñas:




@pipoe2h es el profesor de un curso de vCenter Orchestrator del que yo mismo soy alumno. Hace relativamente poco que lo sigo en twitter pero quizás por haber probado las amargas mieles de ser profesor valoro todavía más que haya logrado montar un curso de hasta 100 personas con patrocinio de Veem incluido.

Aquí tenéis el primer día del curso al que asistí.




¿Qué hago recomendando el vídeo cuando yo no tengo nada parecido? Os aseguro que no es falta de ganas, y es por eso que todavía admiro más a los que lo logran.

¿Ya estáis pensando en montar un canal de youtube? necesitaréis algo más que una buena webcam HD, pero siempre podéis preguntar a los profesionales...

lunes, 25 de noviembre de 2013

vSphere Big Data Extensions

Cuando tienes entre tus intereses VMware y BigData, es complicado resistirse a que aparezca esta opción en tu cliente de vSphere...
 

A finales de Septiembre VMWare publico la versión 1.0 de vSphere Big Data Extensions (a partir de ahora BDE), una interfaz con la que podremos crear clusters de Hadoop en cuatro clicks (y no, no es una exageración).
Queremos hacer más con menos, queremos automatizar, queremos flujos de trabajo automáticos que nos agilicen nuestros procedimientos... es el camino hacia el CloudDBA.

BDE no es más que un appliance de gestión y una o varias plantillas que servirán para desplegar los nodos de nuestros clusters Hadoop. El despliegue se consigue mediante la integración con vSphere y Chef, el competidor de Puppet en el mundo de los SCM.

Sin entrar en detalles sobre sus características voy a destacar dos:
  • Flexibilidad, se pueden instalar la mayoría de distribuciones de Hadoop: 
    • Apache (http://hadoop.apache.org/)
    • Greenplum/Pivotal (http://www.gopivotal.com)
    • Hortonworks (http://hortonworks.com/)
    • Cloudera (http://www.cloudera.com/)
    • MapR (http://www.mapr.com/)
  • Elasticidad, las BDE se basan en un proyecto de software libre llamado Serengeti que además de un despligue sencillo, permite que nuestro cluster crezca o se reduzca en función de las necesidades de cada momento, no sólo conteniendo cada cluster en un Pool de Recursos sino que además gestión de la memoria y vCPUs asignadas.

Una vez acabado el resumen ejecutivo, pongamonos manos a la obra:

Instalación de las vSphere Big Data Extensions

Como veréis instalación rápida y directa al grano, el único pre-requisito es disponer de un entorno de vSphere con un mínimo de recursos.

1. Descargar y desplegar el Appliance

Tan sencillo como descargar y desplegar un OVA. Además de los datos sobre la configuración IP o el Datastore donde lo vamos a instalar tenemos que asegurarnos de dejar activo el check "Initialize Resources?" e introducir la URL del servicio de Single Sing-On de vCenter:

2. Instalar el plug-in de BDE en nuestro Web Client

Una vez desplegada la vApp de Serengeti tendremos que acceder mediante el navegador para instalar el plug-in de BDE:

http://management-server:8080/register-plugin

Indicamos servidor de vCenter, usuario y clave y le damos a Submit.


 

3. Conectar el plug-in con el servidor de Serengeti

Una vez instalado el plug-in, entramos en el apartado de Big Data Extensions del Web Client, le damos a "Connect Server" y selecionamos el management-server.

4. Command-Line Interface

En el Getting Started hay un enlace a un zip con el cli, no lo he probado pero os dejo un screenshoot:

5. Cambiar la clave de acceso

Quizás ya existe en otros productos, pero yo todavía estoy asombrado por la sencillez de la solución que han implantado en el management-server contra las claves de usuario por defecto.

La primera vez que inicias el equipo se genera una clave aleatoria que aparece en la consola. Al ser una consola virtual deberían entrar en tu vCenter y de un plumazo ha desaparecido el tema del password por defecto que se resiste a ser cambiado. Eso si, aquí esta el comando para cambiarlo:

/opt/serengeti/sbin/set-password -u root

6. Configurar nuestra distribución favorita

Se trata de una de las ventajas del software libre, VMware puede ofrecer flexibilidad a sus usuarios permitiendo que instalen cualquier distribución de Hadoop. Además ha dedicado sus esfuerzos algo más importante: integrar esos productos con su plataforma.

Para configurar la integración lo primero es revisar si tiene repositorios para YUM o tendremos que descargar directamente los TAR. Que son los dos tipos de instalación soportados. Para el ejemplo usaré Hortonworks con TAR.

Lo siguiente revisar las versiones compatibles, entramos en el management-server y abrimos el archivo de "mapeos":

/opt/serengeti/www/specs/map

Una vez revisado, buscamos en la web de Hortonworks las URLs de descarga indicadas para la versión que hayamos decidido instalar y construimos un comando como el siguiente:

# config-distro.rb --name HortonWorksHDP13 --vendor HDP --version 1.3 --hadoop http://public-repo-1.hortonworks.com/HDP/centos5/1.x/GA/1.3.0.0/tars/hadoop-1.2.0.1.3.0.0-107.tar.gz --pig http://public-repo-1.hortonworks.com/HDP/centos5/1.x/GA/1.3.0.0/tars/pig-0.11.1.1.3.0.0-107.tar.gz --hive http://public-repo-1.hortonworks.com/HDP/centos5/1.x/GA/1.3.0.0/tars/hive-0.11.0.1.3.0.0-107.tar.gz --hbase http://public-repo-1.hortonworks.com/HDP/centos5/1.x/GA/1.3.0.0/tars/hbase-0.94.6.1.3.0.0-107-security.tar.gz  --zookeeper http://public-repo-1.hortonworks.com/HDP/centos5/1.x/GA/1.3.0.0/tars/zookeeper-3.4.5.1.3.0.0-107.tar.gz --hve true

Se que es un comando feo, pero no todo el mundo ofrece repositorios para YUM. El último paso, reiniciar tomcat para que el servidor tenga en cuenta la nueva distribución:

service tomcat restart

7. Asignar recursos

Antes de poder desplegar clusters como churros tendremos que indicar a Serengeti los recursos que queremos utilizar, tan sencillo como entrar en el apartado "Resources" del plug-in y configurar los Datastores y pools de IPs. 

8. Crear un cluster de Hadoop

Entramos en el apartado de Big Data Extension del Web Client (1er click) y en el apartado de "Big Data Clusters" (2o click) pulsamos en "New Big Data Clusters" (3er click) y si todo ha ido bien aparecerá una ventana donde podremos el nombre y dimensionaremos el cluster:


Cuarto click en OK y dará inicio el proceso de creación de nuestro cluster Hadoop.

¿Ya soy un CloudDBA?

No tenemos que olvidar que hace apenas unos meses aparecía la primera Beta de BDE, pero tiene todos los ingredientes para triunfar: software libre, libertad para escoger distribución de Hadoop, integración más que correcta, valor añadido en la gestión de recursos...

Últimamente me dedico a hacer experimentos de este estilo: lo miro por encima y decido que voy a ser capaz de montarlo en 1, 2 o 3 horas, según el caso. A la mínima que me quede encallado, ya sea por falta de conocimientos o documentación, lo dejo, ya lo miraré...

En este caso no hubo problemas, documentado, rápido, apenas sin complicaciones... incluso creo que he tardado más en escribir estas líneas =)

Y tu ¿ya has montado tu cluster?


martes, 19 de noviembre de 2013

Licenciamiento de Oracle en VMware

AVISO: este artículo es una opinión sin valor legal.

A principios de año un compañero, Sebastian Greco, escribió varios artículos sobre virtualización de Oracle. Un gran trabajo que me consta que sirve de referencia a empresas del sector, sobretodo el que hizo sobre licenciamiento. Es por eso que ha sido todo un reto escribir sobre este tema intentando aportar. Para conseguirlo he pedido ayuda: he consultado a auditor de licenciamiento de Oracle y a un abogado especialista en temas de TI a los que me gustaría dar las gracias desde aquí.

confusion
Licenciar Oracle sobre VMware es un tema confuso, ya que no trata simplemente de leer la documentación para aplicar la opción correcta, sino que no enfrentamos a una auténtica lucha entre dos multinacionales. Oracle no puede permitir que su producto estrella se virtualice más con otros Hypervisores (VMware) con el suyo propio (Oracle VM). Para colmo, al sur de los Pirineos nos encontramos con otra piedra en el camino, una cultural: está mal visto reclamar nuestros derechos.



Factores que han complicado todavía más escribir sobre este tema intentando ayudar. De todas formas espero que sirva incluso para aquellos que no quieren meterse en "líos".

De Menos a Más

Empezaremos con el licenciamiento por CPU de una maquina con Oracle en un único HOST ESXi.

CPU Affinity
Tal como aclaró Sebastian, vSphere es considerado como una tecnología de Soft Partitioning por Oracle, por lo que es necesario licenciar todas las CPUs del Host, aunque a la VM Oracle sólo presentemos una vCPU. Y no sólo eso, sino que VMware parece darlo por bueno en el documento donde intenta aclarar su postura sobre el licenciamiento de Oracle sobre su plataforma:


Y es que aunque defiende que su tecnología de CPU Affinity consigue que una máquina virtual sólo utilice ciertas CPUs, parecen haberse rendido al documento de Oracle sobre tecnologías de Partitioning. Documento que por otro lado no parece tener validez legal, como podemos ver en su pie de página:


Tal y como me comentó el abogado, no está tan claro que estos documentos no tengan validez legal, pero quizás en este caso sea menos relevante. Llegado el caso se podría interpretar que el software está "instalado o ejecutandose" en el Host (independientemente de maquinas virtuales), y por lo tanto será necesario licenciarlo por completo igualmente. 

"Instalado o ejecutandose" es la única aclaración que encontraremos en el contrato que firmamos con Oracle (de validez legal) llamado OLSA (Oracle License Service Agreement):


Sin entrar en opiniones sobre si la tecnología de CPU pinning de VMware es Soft o Hard, parece bastante claro que será necesario licenciar todas las CPUs del Host ESXi.

Host Affinity
¿Qué pasa si se trata de un cluster? Aquí las posturas no son tan uniformes, tal y como pude hablar con el auditor de Oracle su posición es simple: 

Para clusters VMware es necesario licenciar TODAS las CPUs de TODOS los Hosts 

Intenté discutir los detalles técnicos sobre que significa "software instalado" cuando nos movemos en un entorno SAN donde es sencillo presentar o despresentar LUNs o que pasaría si presentamos las LUNs con el software de Oracle a un subconjunto de Hosts del cluster, pero no hubo ni atisbo de discusión. Para Oracle se trata de una postura comercial firme, sin discusión.

Algo muy distinto a lo que nos dice VMware, que aclara que su tecnología DRS es capaz de limitar la ejecución de un equipo virtual a un subconjunto de nodos del cluster, algo que para ellos no tiene nada que ver con las tecnologías de Partitioning a las que hace referencia Oracle. Por lo tanto, para VMware será suficiente con licenciar el subconjunto de nodos del cluster que queramos utilizar para Oracle.

¿Cuál es mi opinión? además de utilizar DRS deberíamos presentar el disco donde esta instalado el software ÚNICAMENTE al los Hosts que queramos licenciar. Quizás estemos rizando el rizo pero, a falta de un mayor análisis, mi abogado de referencia parecía estar de acuerdo.

El Factor Cultural
Se trata de un conflicto comercial entre dos grandes empresas que no hace más que volver más interesante nuestros intentos de obtener lo mejor de sus productos.

Diversity quilt Un pugna que en otros países podría acabar en los juzgados sin que ello se perciba como un problema, sino un trámite como cualquier otro. Pero aquí las cosas son diferentes, un conflicto de este tipo no esta bien visto, además de que nos encontraríamos con unas consecuencias extremadas con respecto a otros países. 

Si estamos trabajando para un cliente local Oracle gana y si queremos reducir el coste de licenciamiento será necesario tirar de creatividad. Si trabajas para un cliente internacional infórmate de sus preferencias o directamente pregunta. 

Existen productos en el mercado que pretenden ayudarnos a saber si somos legales o no como el plugin para EM de Bluemedora, pero al final ya no se trata de una decisión de diseño sino de las preferencias del usuario final.

Licenciamiento Creativo

Cualquier piedra en el camino es una oportunidad para reinventarse, si ya hemos decidido que no queremos meternos en "lios" legales tendremos una de esas grandes oportunidades.

Volver a lo Básico
Cambiar a licencias por usuario o cambiar el hardware por uno más potente pero con menos cantidad de CPUs pueden parecer opciones muy evidentes, pero no podía obviarla. Un buen plan de capacidad puede sorprendernos y darnos las claves de como reducir costes, logrando dejar de vivir por encima de nuestras posibilidades de procesamiento o usuarios concurrentes.

Descartar el Cluster de VMware
Dependiendo de nuestras necesidades de disponibilidad es posible que las ventajas de tener un Hardware Virtual ya sean suficientes:
  • Escalabilidad, podremos cambiar el servicio a un Host más potente manteniendo la instalación, además de que podremos añadir CPUs y memoria en caliente.
  • Simplificación, llevando las migraciones a un simple vMotion sin corte de servicio.
  • Consolidación, es posible que existan varias instalaciones en la empresa, al unificarlas en un único Host y aprovecharnos de las características de gestión de recursos de ESX es posible que logremos reducir el coste de licenciamiento manteniendo la calidad del servicio.
Descartar el Cluster de Oracle (RAC)
Decantamos por la solución de Oracle sólo se justifica por motivos de disponibilidad, por lo que es muy posible que además estemos pagando licencias de RAC, lo que supone duplicar costes.

Hasta que VMware no publique Multiprocessor Fault Tolerance que pude ver en el VMworld, no existe alternativa a RAC. Pero es muy complicado que los clientes tengan el nivel de integración necesario con la base de datos para obtener todas sus ventajas, por lo que en la mayoría de ocasiones nos quedamos en que reiniciando los clientes volveremos a tener servicio.

Playing CardsSi es nuestro caso quizás disponer del  HA de los clusters ESXi sea suficiente. Ya que en caso de caída de uno de los Hosts, iniciará nuestra servicio en cualquier otro de los Host disponibles. Y por lo tanto podremos prescindir de las licencias de RAC.

En este punto es cuando un buen comercial de Oracle debería sacar un AS de la mangaRAC One Node, pero sinceramente no estoy seguro de que valga la pena...



Otras Aclaraciones
  • Tal y como he comentado, si el software esta instalado será necesario licenciarlo, por lo que tenemos que tener cuidado con los entornos de recuperación, incluso si se trata de replicación entre cabinas. Es necesario licenciar los equipos de recuperación como si fueran los de producción.
  • La regla de los 10 días tiene un gran hándicap, han de ser días alternos. Por lo que ya podéis asegurar un buen soporte hardware si queréis aprovecharos de estos días.
  • En uno de los grupos de discusión de VMworld del 2012 se comentaba que podíamos demostrar en que Hosts se habían ejecutado las instancias con logs. No hay nada como consultar un abogado para que te aclare que han de ser los auditores los que demuestren que incumples la licencia y no tu el que recopile logs para defenderte. Eso si, pueden pedirte ejecutar instrucciones especiales, programas o lo que necesiten.

Conclusión

Repito: lo que he escrito es una simple opinión y no tiene ninguna validez, lo mejor en caso de dudas es que consultéis a vuestros técnicos o consultores de confianza.

Dar las gracias al miembro de Oracle y al abogado que me han ayudado a completar mis dudas, por desgracia no he conseguido hablar con nadie de VMware =(

Pero si me preguntan, creo que la mejor opción es respetar las políticas de licenciamiento de los productos con los que elijamos trabajar. Pero no por evitar el conflictos, sino por que al tratarse de nuestras infraestructuras básicas deberíamos tratar de llevar la relación con estos fabricantes a otro nivel.

Esto a primera vista puede parecer que beneficia a Oracle, pero creo que sólo esta consiguiendo que muchos clientes se cuestionen uno de sus opciones estrella: Real Application Cluster. Y si a la amenaza de Multiprocessor FT le añadimos un problema de costes, es posible que la discusión esté cerrada más rápido de lo previsto.

¿Habéis decidido ya si vais a virtualizar vuestro Oracle?


Imagen: confusion
Imagen: Diversity quilt
Imagen: Playing Cards

jueves, 14 de noviembre de 2013

COMO desplegar un OVA de VirtualBox como OVF en vSphere

Oracle está promocionando mucho el uso de VirtualBox distribuyendo Appliances preconfigurados en formato OVA (Open Virtual Appliance) como solución para probar sus productos o incluso dar pequeñas sesiones técnicas guiadas a partir de estos Appliance. 

Pero la tentación de montar el Appliance en vSphere es demasiado grande.

En multitud de ocasiones hemos podido ver como las empresas se peleaban por conseguir que sus formatos se convirtieran en el estándar del mercado (HD-DVD vs BLUE RAY)   . Pero tengo la impresión que con OVF todo ha sido mucho más sencillo. Quizás por que se presentó muy pronto, en el 2007 o quizás por que la pelea no estaría ahí, sino en el Hardware virtual.

Si queremos importar un OVA de VirtualBox en vSphere el problema será que VMware no reconoce el Hardware de VirtualBox

Lo maravilloso del Hardware virtual es que no es más que una etiqueta en un archivo XML que podemos cambiar nosotros mismos, lo malo es que en comparación con otros procedimientos, éste es bastante manual.

Lo primero es desempaquetar el archivo OVA, que no es más que un TAR de una maquina en formato OVF. Para hacerlo lo mejor usar una herramienta gratuita de VMware: Open Virtualization Format Tool 

ovftool --lax [archivo.ova] [archivo.ovf]

La opción --lax no es para "facilitar" la que salga el OVF (único chiste del artículo, lo prometo) sino para ser más laxos con las comprobaciones, sobre todo las de hardware virtual, y conseguir el OVF igualmente.

Una vez desempaqueta el OVA aparecen 3 tipos de archivo:
  • Archivo descriptor OVF, un archivo de texto en formato XML
  • Imagen de los discos en formato VMDK
  • Archivo MF, un archivo de texto con el HASH en SHA1 de los archivos OVF y VMDK

Una vez llegados a este punto si intentamos incorporar el OVF aparecerá el siguiente error:

Unsupported hardware family 'virtualbox-2.2'.

Es necesario editar el archivo OVF, y buscar una entrada parecida a:





Y cambiarla por:


  


También será necesario cambiar las controladoras SATA por otras de tipo SCSI, cambiando apartados como éste:












Por otro como éste:












Una vez cambiado sólo falta volver a calcular el HASH del archivo OVF. En el caso de estar con Linux seguramente ya tendremos disponible la utilidad sha1sum, para Windows tendremos que descargar otra utilidad gratuita: File Checksum Integrity Verifier utility

fciv.exe -sha1 [archivo.ovf]

En cuanto actualicemos el archivo MF ya estaremos en disposición de incorporar el Appliance a vSphere.


miércoles, 6 de noviembre de 2013

Presentación de Oracle 12c en Barcelona (Multitenant Trick or Treat?)

El pasado 29 de Octubre se presentó en el Palau de la Música de Barcelona el nuevo Oracle 12c

Una ubicación singular marcada para siempre por un caso de corrupción, para un evento excesivamente comercial para algo tan técnico como un cambio de versión en un SGBD.

Pero eso no significa que no puedas llevarte sorpresas.

Multitenant


La característica estrella de Oracle 12c es la arquitectura Multitenant. La cual permite crear una nueva estructura llamada Pluggable Databases (PDB) que contendrá tanto los datos de la aplicación como los metadatos asociados. Dispondremos así una estructura mucho más flexible que los actuales esquemas. 


Con una única funcionalidad Oracle simplifica migraciones, actualizaciones y cualquier movimiento relativo a una nueva realidad llamada Cloud Computing. Ventajas que dejaron muy claras, no así el pequeño detalle de que Multitenant es una opción.

Las opciones de Oracle son características de pago, licenciadas de forma parecida a las licencias normales (por procesador o usuario) que en ocasiones suponen multiplicar los costes de licenciamiento. Hay que añadir que lo más sencillo es instalar algunas sin darse cuenta y sufrir luego para quitarlas. Muchos recordamos las controversias que causó la primera versión web del Enterprise Manager con varias opciones activadas por defecto. Y todavía es fácil encontrar con personas que no saben que el Partitioning se volvió una opción en 10g.

Parece que con Multitenant acabará pasando algo parecido.

Nadie duda del esfuerzo que hay tras la nueva arquitectura, no sólo está integrada con el EM 12c, con RMAN y con otras opciones de pago como Active Data Guard, sino que han pensado en facilitarnos la migración a Multitenant con nuevas funcionalidades de Real Application Testing, otra opción.

Mientras estaba haciendo cuentas e intentaba confirmar que ya había llegado a las 6 cifras, casi se le escapa a uno de los ponentes el nombre prohibido, y luego otra vez...

¡¡¡ SQL Server!!! se escucho de fondo...

Presente, Pasado y Futuro

Multitenant es el presente de Oracle, pero no debemos de olvidar que su mayor competidor SQL Server dispone de esta característica desde que salió al mercado.

Y es que para mi no se trata de funcionalidades, sino del pasado de cada producto. La arquitectura básica de ambos productos facilita ciertas funcionalidades en Oracle y otras en SQL Server. Esto no hace mas que añadir valor al trabajo de los ingenieros de Oracle,  pero hace incomprensible que se venda como una opción.

Por la sencilla razón de que Multitenant también debería ser el futuro. Olvidar el sistema tradicional de esquemas y pasar a trabajar con la nueva arquitectura de PDBs podría dejar sin argumentos a ese nombre que sobrevoló varias veces por el escenario del Palau.

Hay quien dice que Multitenant no es más que una evolución de los tan poco flexibles Tablespaces Transportables, pero entre eso y relegarlo a una solución que vivirá en las nubes había un punto intermedio. Punto donde algunos usuarios dejaríamos de evaluar otros productos para ciertos proyectos.

Una explicación posible sería el modelo Apple, un modelo de exclusividad donde sólo con cierto poder adquisitivo se pueda optar a un Oracle. Con el impulso correspondiente a MariaDB o PostgreSQL, del mismo modo que sucedió con Android.





¿Qué nos queda sin Mulltitentant? 
mucho, sobretodo en mejoras a las opciones:
  • Application Continuity, una nueva funcionalidad de todas las opciones de alta disponibilidad (RAC, Active DG, etc).
  • Global Data Services, gestión de la carga mejorada para opciones de replicación.
  • ILM, o gestión del ciclo de vida del dato con mejoras en Partitioning, y la presentación comercial de los Heat Maps y el Automatic Data Optimization.
  • Advanced Security, que incluye en la versión 12c Data Redaction, tal como se dijo en la presentación, lo último que nos miraremos.
¿Y si obviamos las opciones? toca rebuscar entre las más de 500 nuevas funcionalidades:
  • Flex ASM, una funcionalidad por la que siempre digo que recomendaría pagar es ASM, en la versión 12c lo han desvinculado del equipo local permitiendo que instancias remotas se conecten. Cuando ACFS sea multipropósito, muchos gestores de almacenamiento temblarán.
  • Recuperar tablas desde RMAN, con la tecnología Flashback Oracle dió un gran paso a evitar recuperaciones completas de la base de datos, pero nada como usar RMAN.
  • Data Guard, con mejoras como Fast Sync para replicaciones de larga distancia y un nuevo asistente para realizar el procedimiento de Rolling Upgrade (actualización de producción migrando el servicio a un Data Guard).
  • y espero que muchas más de las que hablar en el blog!
Hace poco me aclararon que el Cloud todavía no había despegado, quizás le faltaba una pequeña c al final del número 12...

domingo, 27 de octubre de 2013

COMO Instalar vCenter + Update Manager 5.5 de la Peor Forma Posible

Ahora mismo tengo un artículo en el horno, pero necesita algo más de tiempo para estar esponjoso. Es por eso que he decidido parar y contaros como Instalar vCenter de la pero manera posible, es decir, como lo hice yo

¿Qué hace un DBA preparando un vCenter 5.5?

Como parte del camino que tengo que recorrer para ser un Cloud DBA, por que es lo que tocaba, por que si no lo hago yo no lo hace nadie...

El problema es que no podía dedicar mucho tiempo en esta tarea. Así que intenté buscar la manera más rápida de tener un vCenter 5.5 funcionando y actualizar como mínimo un Host. Mi primer error.



En ocasiones, si tienes un conocimiento suficiente, lanzarse de cabeza puede ir bien. Avanzas rápido, aprendes más rápido todavía (Learn-by-Doing) y si tener algún error durante el proceso no supone una catástrofe, suele ser una buena opción. Pero en esta ocasión decidí que en lugar de actualizar el vCenter actual, desplegaría un Appliance, si todo iba bien, tendría un vCenter funcionando en menos de 1 hora sin haber tocado el vCenter actual.

En realidad fueron menos de 30 minutos y ya estaba navegando por el WebClient. Lo siguiente instalar el vSphere Update Manager 5.5, y es que mi objetivo era parchear, poco a poco hasta ver si podía llegar a la ESX 5.5. Segundo error.

Update Manager es un producto separado del vCenter, aunque venga en el mismo CD de instalación. Siempre entendí que iban de la mano, pero no. El Appliance basado en SLES 11 es incapaz de soportar VUM que necesita Windows. Reflexioné y decidí hacer una copia de mi vCenter actual en Windows, base de datos Oracle incluida, y actualizar de 5.0 a 5.5. Sin problemas volvía a estar a punto de instalar VUM 5.5. Tercer error.

FAIL!

Durante la actualización de VUM 5.5 vi que podía escoger entre un SQL Server Express u Oracle. Ya había perdido más tiempo del que esperaba, mi orgullo estaba herido y por ahí no pasaba, sería Oracle!. Cuarto error.

Aunque el vCenter ya tenía instalado el cliente de 64 bits, VUM necesitaba la versión de 32 bits del ODBC. Me tocaba pasar por el MOS y descargar el cliente y el último parche. Era más tiempo, pero se trataba del cliente de Oracle y no podía permitir que no estuviera a la altura del resto de la instalación. Lo siguiente preparar el tablespace y el esquema con los privilegios que manda la documentación de VMware... pero intentando no dar privilegios del tipo ANY o RESOURCE. Quinto error.

El instalador dio error... y tras 5 "facepalm" decidí que ya tenía suficiente, aplique los GRANTs de la documentación y volví a probar. El instalador siguió hacia adelante, pero se trataba de una actualización, por lo que en cuanto llego el momento de decidir Oracle como SGBD, el proceso de instalación de VUM detectó el SQL Server Express instalado y no dio opción: actualizó lo que había instalado, como era evidente.

Ya sólo quedaba actualizar el ESX. Sexto error.

Vinegar! Había ido tan "rápido" que olvide revisar la matriz de compatibilidad de los hosts, como era evidente los primeros en probar era los equipos del entorno de desarrollo, unos flamantes BL 460c G1 con algunos años y que sólo soportan ESX 5.1. Tras descargarme la iso e intentar incorporarla, descubrí que VUM sólo acepta actualizaciones para la misma versión del producto: VUM 5.5 sólo puede actualizar un host a ESXi 5.5. Tocaba presentar la iso de la 5.1 a los hosts y actualizar a mano.



En computo general la instalación se completó en un tiempo aceptable y con un buen resultado. 

Pero el sabor agrio no me lo quita nadie.

Imagen: FAIL!
Imagen: Vinegar!

miércoles, 23 de octubre de 2013

El Mejor PC para un Profesional de las TI ¿Mavericks? [OFFTOPIC]

En los últimos tiempo he podido escuchar o leer recomendaciones sobre los equipos de Apple, pero la única a la que he prestado atención es que son los mejores equipos para trabajar en TI.

La razón es sencilla, cuando tienes una pequeña o mediana empresa y envías a alguien al cliente, lo que menos esperas es que le falle su herramienta de trabajo: el portátil. Problemas hardware, problemas software... da igual, el precio hora es sagrado y hay cosas que no se pueden asumir.

Es fácil ver como salen los números si tras gastarse un 50% o 75% más en un Apple dura el doble o el triple. O eso dicen. Para mi los problemas son otros y la única forma de que compre un Mac es que me hijo me coaccione, algo altamente probable.

Ayer se presentó Mavericks, la nueva versión de MacOS. 

Mavericks Surf 2010-296La novedad más llamativa fue que era GRATIS, pero lejos de discutir las bondades de Mac o las políticas económicas de Apple ante el anuncio  me paso algo curioso: pensé que Apple publicaba su free OS, y la confusión que tienen los ingleses por tener una misma palabra para libre y gratis... la sufrí a la inversa, llegando a imaginar un Sistema Operativo que ya no estaba acotado a hardware de Apple.


¿Podría instalar Maverick en mi portátil? ¿Supondría eso que acabaríamos todos, independientemente de los factores económicos, con el SO de Apple? ¿Reventará Apple de una vez por todas el mercado de los escritorios domésticos?¿Cuánto tardará VMware en soportarlo en Horizon? ¿Qué le ha pasado a Apple para cambiar de filosofía?

Lo que había pasado es que en ningún momento había cambiado y todo fue una confusión por mi parte.

Tengo claro lo de que no hay nada mejor como un software diseñado para un hardware... eso también lo anuncia Oracle desde que compró Sun. Pero durante unos minutos (lo que tardé en llegar a la web para descargar Mavericks) imaginé una auténtica revolución en nuestros escritorios.

Ahora ya os dejo que os riais de mi confusión, pero yo es que en esto de Apple soy un auténtico profano... o newbie, como prefieras. 

PD: Por si a alguien le pica la curiosidad y no tiene un Mac, hay gente que no pierde el tiempo:

sábado, 19 de octubre de 2013

Un DBA en el Barcelona VMworld 2013

La semana pasada se celebró en Barcelona el VMworld 2013, seguramente el segundo evento tecnológico más importante que se celebra en el país después del Mobile World Congress.

Sin duda lo mejor del VMworld fue encontrar a varios compañeros e intercambiar impresiones con ellos, además estoy seguro que podrán explicar el evento en si mejor que yo. En mi caso me limitaré a dar un punto de vista muy particular, el punto de vista de un DBA de Oracle.

VMware empezó virtualizando servidores y ha acabado cambiado la vida del Administrador de Sistemas por completo. Escritorios, aplicaciones virtuales, red virtual, almacenamiento virtual... desde casa y entrando en una web podemos gestionar un CPD en cualquier lugar del mundo. Es fácil imaginar las OPORTUNIDADES que pueden llegarse a plantear ante una situación así.

Creo que ese el objetivo del nuevo hype del "Software Defined": multinacionales con administradores de sistemas remotos, SysAdmins as a Service. Pero en el mundo de las bases de datos ese paso ya se dio hace algunos años, el máximo exponente lo tenemos con Phytian con personal repartido por todo el mundo, pero a nivel local también podemos encontrar ejemplos (esta vez evitaré la publicidad).


Así que ¿cual debería ser el objetivo de un DBA en el VMworld? creo que mejor os dejo la tabla que presentó Charles Kim (Oracle ACE Director) en el mismo VMworld:

CLI DBA
Early 90' DBAs
GUI DBA
Late 90' and Dot Com
Google DBA
Dot Com and 2000's
iDBA
Dot Com, IOUG DBA Master Curriculum
RAC DBAs
2000+ after 9.2 (but major spike with 10.2)
DMA
2010+ Database Machine Administrator
vDBA/vRAC DBA
2010+ Evolving role of a DBA in the virtual world
Cloud DBA
2011+ Database Consolidation with Private Database Cloud Oracle Database 12c Launches June 2013

Su presentación fue "Virtualizing Mission Critical Oracle RAC with vSphere and vCOPs" y presentaba el objetivo de un Cloud DBA:

Aprovisionar servidores Oracle RAC de forma eficiente.

La eficacia se presupone y lo importante es aprovechar las herramientas disponibles para conseguir desplegar una instalación en el menor tiempo posible. A través de instalaciones pre-cocinadas  y aprovechando -como no- el Oracle 12c Multitenant, una opción que completa una de las FORTALEZAS de Oracle: su flexibilidad. Lo único que falta es la consola de vCOPs para que el cliente pueda ver con un simple semáforo si su base de datos (que tantos dolores de cabeza le da siempre) va bien o no.



Este es el mundo de un DBA o un SysAdmin remoto cuando se desplieguen los Software Defined Datacenters, trabajar bien pero sobre todo rápido.

Completando el DAFO
Una de las formas de tener una visión completa de la situación en la que nos encontramos es realizar una análisis DAFO y sólo me faltan dos puntos:

Parece que nadie se cuestiona montar Oracle RAC sobre VMware, y es que aunque podamos hacer un vMotion de una instancia sin demasiado problemas, RAC sigue siendo la única solución que nos asegura una protección real contra la caída de un servidor físico (en este caso el host ESX). Pero hace tres años que se espera una funcionalidad para vSphere: Multiprocessor Fault Tolerance de la que se hicieron algunas demostraciones con una versión beta, y diría que está al caer.

Con el FT que disponemos en la actualidad conseguimos alta disponibilidad de forma independiente a la aplicación que queramos proteger. El coste es alto, ya que estaremos ejecutando una copia de nuestra máquina que además se estará sincronizado "online". Pero en la actualidad se trata de un servicio muy restrictivo, es posible que el más restrictivo que tenga VMware.

Con Multiprocessor FT se pierden esas restricciones:


Uniprocessor FTMultiprocessor FT
# of vCPUs1>= 1
Cluster interoperabilityPractically identical CPUs, ESX versionsEVC compatible (CPUs, ESX versions)
HW assisted memory virtualizationNoYes
Hot enable FTNoYes
VMDK redundancyNoYes
VADP VM backupNoYes
FT network1 Gbps10 Gbps

Básicamente se convierte en un servicio que no dudaremos en activar en nuestros equipos críticos (si tenemos recursos claro). Si tienes RAC por la disponibilidad y tu instalación es virtual... creo que tenemos una gran AMENAZA a la vista. El otro motivo para instalar RAC es la escalabilidad, pero con el hardware virtual y la posibilidad de migrar tu equipo a un Host con más potencia o la capacidad de añadir memoria y vCPUs en caliente... algo se nos ocurrirá.

Sobre las licencias hablaremos otro día.

Me faltan las DEBILIDADES, y en este caso creo que hay una y muy grande: la copia de seguridad.

No estoy hablando que las copias de seguridad de Oracle sean malas, si tuviera que pagar por una de las funcionalidades de Oracle como opción tengo claro que sería RMAN. Todavía me sorprenden sus funcionalidades y sencillez (una vez las conoces), pero falla en su integración con terceros.




Ya he tenido el "placer" de pelearme con varios productos que lo pretenden sin alcanzar ese "algo más" que observo en las integraciones con SQL Server, donde se simplifican las copias de seguridad y la recuperación a niveles extremos. Durante el VMworld pude disfrutar de una pequeña demo de Veeam con SQL Server y la verdad... creo que sentí envidia...

Conclusión
Si el futuro del DBA de Oracle pasa por el Cloud, la flexibilidad que ofrece el producto y las nuevas funcionalidades de la versión 12c ayudar mucho. Pero con poco de perspectiva nos damos cuenta que quizás cosas que hoy en día nadie ponen en duda en breve se convertirán, como mínimo, en una gran duda.