22 nov 2012

Gartner: 10 tendencias críticas de TI para los próximos cinco años



Tratar de mantenerse a la vanguardia cuando se trata de problemas de TI no es un trabajo para los débiles de corazón. Ese fue el punto que trajo el foro anual IT Symposium de Gartner, donde el analista, David Cappuccio, describió lo que él llamó “las nuevas fuerzas que no son fácilmente controladas por TI y que están empujando a la vanguardia de la inversión en TI”.

Las fuerzas de la computación en la nube, los medios/redes sociales, la movilidad y la gestión de la información están evolucionando a un rápido ritmo. Esta evolución ocurre a pesar de los controles que TI normalmente sitúa en el uso de tecnologías, indicó Cappuccio. “TI se vio obligado a dar soporte a las tablets, y los usuarios finales les obligaron a soportar las redes de mensajería instantánea e inalámbrica hace unos años. Y más de esas tecnologías están en el horizonte”, comentó.

La presentación de Cappuccio señaló las siguientes como las “Diez tendencias y tecnologías críticas que impactarán a TI en los próximos cinco años”. Lo que sigue se ha tomado del informe de Cappuccio:

1. Interrupción
Los usuarios de negocios esperan el mismo nivel de desempeño y soporte de TI, a medida que experimentan con aplicaciones y servicios basados en el consumidor. La demanda de los usuarios de negocios por la satisfacción de los clientes está por encima de los recursos de los departamentos de TI. Las organizaciones de TI deben invertir en el desarrollo de habilidades y atributos de un analista de mesa de ayuda TI, y organizarse apropiadamente para aumentar la percepción del valor de TI para el resto de la organización.

La satisfacción del usuario de negocios puede ser un objetivo cambiante, pero al permitir mayores niveles de productividad en el nivel de servicio de mesa de ayuda de TI, demuestra que la organización de TI se preocupa por la empresa, y que está comprometida a asegurar que los usuarios cumplan sus metas y objetivos. Si bien están garantizados los enfoques en la capacitación tradicional, los procedimientos de acceso de seguridad, gestión del conocimiento y scripts, un enfoque en habilidades de soporte de nueva generación será de vital importancia para satisfacer las necesidades y expectativas de la empresa de una manera más eficiente.

2. Software Defined Networks (Redes definidas por software)
Las SDN son un medio para abstraer la red, así como la virtualización de servidores abstrae el servidor. Transforma la topología de red de una configuración de caja/puerto por vez, a una configuración de flujo por tiempo relacionado con la aplicación. Abstrae la red del modo en que un hipervisor abstrae el servidor y proporciona un control programático. Con SDN el controlador tiene una vista de la topología de toda la red, tanto los componentes físicos y virtuales de la misma, incluyendo switches, firewalls, ADC, etc, y proporciona la visión resumida para aprovisionar y gestionar las conexiones y servicios de red que las aplicaciones y el operador requieren.

OpenFlow es un gran ejemplo de ese protocolo de red generalizada en túnel, que proporciona una API genérica que cualquier operador de red puede utilizar para crear sus propios esquemas de control y gestión basados en los requisitos de las aplicaciones de su organización. Y habrá otros protocolos SDN del tipo OpenFlow que estén diseñados desde cero con una lógica de nivel de aplicación, en vez del paradigma tradicional de protocolo, dispositivo y pensamiento basado en el enlace.

Cuando se utiliza junto con encapsulados como OpenFlow SDN, puede servir para extender dinámicamente una nube privada hacia un modelo híbrido, con el fin de enmascarar las direcciones IP específicas de la infraestructura del proveedor de nube. SDN también promete permitir que los proveedores de servicios ofrezcan servicios dinámicos aprovisionados de WAN, potencialmente a través de redes multi-proveedor/multi-vendedor. Por supuesto, existe la posibilidad de una perturbación significativa de la organización a medida que las habilidades de red tradicionales comiencen a cambiar, y la alineación con los productos o plataformas específicas del proveedor se vuelva menos rígida.

3. Datos y almacenamiento más grandes
Un hecho con el que los centros de datos han vivido durante muchos años, sigue siendo cierto hoy en día: el crecimiento de datos no ha disminuido. Desde una perspectiva de TI, uno de los principales problemas no es estar consciente del problema, sino priorizar los temas. Hemos pasado tantos años tratando con esto, y sobreviviendo, que los proyectos de gestión de almacenamiento suelen iniciarse desde el principio, en lugar de arriba hacia abajo, relegándolos en gran medida a ser ‘trabajos menores’ con poco financiamiento a largo plazo.

Las empresas de vanguardia se han dado cuenta del problema y están comenzando a centrarse en la utilización y administración del almacenamiento como medio para reducir el uso de espacio y consumo de energía, mejorar el cumplimiento y mejorar los controles del crecimiento en el centro de datos. Ahora es el tiempo para hacerlo, porque la mayor parte del crecimiento en los próximos cinco años será en datos no estructurados -los más difíciles de manejar desde el punto de vista de un proceso o herramienta. Las tecnologías que se volverán críticas en los próximos años son la deduplicación en línea, estratificación automática de los datos para obtener los patrones de uso más eficientes por kilovatio, y discos flash o SDD para optimizar el rendimiento de gama alta, pero con costos de energía significativamente reducidos. Los precios NAND continúan mejorando a un ritmo rápido, pasando de 7.870 dólares por gigabyte en 1997 a 1,25 dólares por gigabyte en la actualidad -y esta tendencia continuará.

4. Las nubes híbridas
Los vendedores utilizan cada vez más la computación en la nube como una etiqueta de marketing para muchas tecnologías y ofertas antiguas, conllevando a la devaluación de la palabra y la tendencia. A pesar de que la computación en la nube es una evolución natural para la empresa y diversas tecnologías y tendencias basadas en Internet, es un error volver a etiquetar estas tecnologías antiguas como “computación en la nube”. Este nuevo modelo de computación impulsa cambios revolucionarios en la forma en que las soluciones están diseñadas, construidas, entregadas, aprovisionadas y administradas.

La computación en la nube está fuertemente influenciada por la Internet y los vendedores que han surgido de ella. Empresas como Google ofrecen diversos servicios construidos sobre una masiva arquitectura paralela que está altamente automatizada, con una fiabilidad proporcionada a través de técnicas de software, en lugar de hardware altamente confiable. Aunque el costo es un beneficio potencial para las pequeñas empresas, los mayores beneficios de la computación en la nube están incorporados en la elasticidad y la escalabilidad, lo que reducirá las barreras y permitirá que estas empresas crezcan rápidamente. Un servicio de nube híbrida está compuesto por servicios que combinan, ya sea una mayor capacidad que va más allá de lo que cualquiera de ellos tiene (agregación de servicios, su personalización, o la integración de dos juntos), o capacidad adicional.

Existe una tendencia emergente en los centros de datos híbridos mediante la cual el crecimiento se mira desde el punto de vista de la criticidad y localidad de las aplicaciones. Por ejemplo, si un centro de datos se acerca a la capacidad, en lugar de comenzar con el proyecto para definir y construir otro sitio, se evalúan las cargas de trabajo sobre la base de su criticidad para el negocio, el riesgo de pérdida, facilidad de migración, y se toma la decisión de mover algunos cargas de trabajo a las instalaciones de co-ubicación, hospedaje, o incluso a un servicio tipo nube. Esto libera espacio en el sitio existente para el crecimiento futuro, resolviendo el problema de escala y aplazando el gasto de capital por varios años. Una alternativa a esto es que los centros de datos más antiguos empiecen a migrar trabajo crítico fuera de la planta, reduciendo así los riesgos de tiempo de inactividad y las interrupciones del negocio, a la vez que se libera el viejo centro de datos para el trabajo adicional (no crítico), o para un lento proceso de modernización.

5. Servidor del cliente
En el mundo de la PC del último cuarto de siglo, tanto el sistema operativo como la aplicación residían principalmente en el escritorio (algunas aplicaciones grandes y complejas, como ERP, se encuentran en servidores que pueden estar alejados de los clientes). Hoy en día, todo vale. El sistema operativo así como la aplicación, se puede ejecutar en la PC o en un servidor. La elección de la arquitectura depende de las necesidades del usuario y los plazos para su ejecución. Ya no vale eso de que un tamaño sirve para todos.

En cuanto a las implementaciones de Windows 8, el 90% de las empresas pasará por alto el despliegue a gran escala, y se centrará en la optimización de las implementaciones Windows 8 en plataformas específicas (por ejemplo, móviles, tablets) solamente. Los servidores han sido sometidos a un proceso evolutivo a largo plazo. Ellos han pasado de ser pedestales autónomos para tener factores de forma de rack montados en un armario rack. El último paso en la evolución del hardware de servidor x86 es el servidor blade. Solo ha tomado hardware de servidores individuales con periféricos internos en un armario rack para un número de servidores más densos en un solo chasis con el plano posterior, enfriamiento y recursos de poder comunes. Un verdadero diseño de componente permite la adición independiente de piezas aún más granulares como procesadores, memoria, almacenamiento y elementos de E/S.

Así como han crecido los servidores blade, también lo ha hecho la campaña de mercadeo de proveedores de servidores para posicionar a los blades como el siguiente paso técnico más avanzado en la evolución del servidor; e incluso, en algunos casos, como la solución de servidor final. Siempre requiere un examen más detallado de los múltiples factores -la densidad requerida, requisitos de eficiencia en alimentación/refrigeración, alta disponibilidad, carga de trabajo, etc- para revelar donde es que realmente tienen ventajas las celdas, el rack y ‘skinless’. En el futuro esta evolución se dividirá en múltiples direcciones a medida que aumente el uso de aparatos y los servidores especializados comiencen a surgir (por ejemplo, las plataformas de análisis).

6. La Internet de las Cosas
Este es un concepto que describe cómo la Internet se ampliará como elementos físicos, tales como los dispositivos de consumo y bienes físicos conectados a Internet. La visión y el concepto han existido durante años; sin embargo, ha habido una aceleración en el número y los tipos de cosas que están siendo conectadas y en las tecnologías para la identificación, detección y comunicación.

Los avances clave incluyen:
Sensores incorporados: Sensores que detectan y comunican los cambios (por ejemplo, los acelerómetros, brújulas, GPS, cámaras) están siendo incorporado no solo en los dispositivos móviles, sino también en un número creciente de lugares y objetos.

Reconocimiento de imagen: Las tecnologías de reconocimiento de imágenes se esfuerzan por identificar los objetos, personas, edificios, sitios, logotipos y cualquier otra cosa que tenga valor para los consumidores y las empresas. Los teléfonos inteligentes y las tablets equipadas con cámaras han hecho que esta tecnología de aplicaciones industriales, sean principalmente para consumo general y aplicaciones empresariales.

Pago NFC: NFC permite que los usuarios hagan pagos agitando su teléfono móvil delante de un lector compatible. Una vez que NFC esté incrustada en una masa crítica de teléfonos de pago, industrias como el transporte público, las líneas aéreas, minoristas y de atención médica podrán explorar otras áreas en las que la tecnología NFC puede mejorar la eficiencia y el servicio al cliente.

7. Locura por los aparatos
Las organizaciones generalmente se ven atraídas por los aparatos cuando ofrecen soluciones de manos libres para los requisitos de aplicación y funcionamiento, pero las organizaciones también son repelidas por los aparatos cuando se requieren inversiones adicionales (tiempo o software) para las funciones de gestión. Por lo tanto, los aparatos exitosos no solo deben proporcionar una solución de aplicación costo-efectiva, deben producir una sobrecarga mínima de gestión.

A pesar de la histórica bolsa mixta de éxitos y los fracasos, los vendedores siguen introduciendo aparatos al mercado debido a que el modelo de la máquina representa una oportunidad única para que un proveedor tenga un mayor control de la pila de soluciones y obtenga un mayor margen en la venta. En resumen, los aparatos no van a desaparecer en el corto plazo. Pero, lo que es nuevo en los aparatos es la introducción de dispositivos virtuales. Un dispositivo virtual permite que un proveedor de servidor ofrezca una solución de pila completa en un entorno controlado, pero sin la necesidad de proporcionar ningún tipo de hardware real. Vemos que los dispositivos virtuales están ganando popularidad y esperamos ver que surja una amplia gama de ofertas de dispositivos virtuales durante los próximos cinco años. Sin embargo, el crecimiento de dispositivos virtuales no matará a los dispositivos físicos; las cuestiones tales como la seguridad física, los requisitos especializados de hardware y las relaciones de los ecosistemas seguirán impulsando los requisitos físicos.

El mismo uso de la terminología de los aparatos genera gran angustia para algunos vendedores y usuarios -especialmente para los aparatos físicos. Estrictamente hablando, una plataforma altamente integrada como Exadata de Oracle o Vblock VCE no es un aparato verdadero; son sistemas integrados de fábrica que requerirán algún tipo de configuración y afinación, incluso cuando la pila de software está integrada, nunca encaja en el concepto clásico de una “caja de pizza”. Sin embargo, si bien tales sistemas no serán consumidos como electrodomésticos, ciertamente están empaquetados y son vendidos en una forma muy similar. Muchos otros dispositivos físicos será más fieles al concepto -serán dispositivos plug & play que solo pueden ofrecer un conjunto de servicios muy prescrito.

8. Complejidad
Las fuentes de complejidad en TI son fáciles de detectar. Éstas incluyen el número de parámetros de inicialización para la entrada de partida en una base de datos Oracle (1.600) y el número de páginas (2.300) de los manuales para utilizar un interruptor de Cisco. La complejidad aumenta, sin embargo, cuando nos fijamos en la combinación de varios elementos, como Microsoft Exchange que se ejecutan en VMware. Lo que hace que esta complejidad sea peor, sin embargo, es el hecho de que no estamos recibiendo nuestro dinero: los estudios históricos sugieren que las organizaciones de TI utilizan realmente solo aproximadamente el 20% de las características y funciones de un sistema. Esto se traduce en grandes cantidades de deuda de TI, cuyos elevados costos de mantenimiento para “dejar las luces encendidas” desvían fondos necesarios de proyectos que pueden mejorar la competitividad de las empresas.

9. Evolución hacia el centro de datos virtual
Al entrar en la tercera fase de la virtualización (fase 1: MF / Unix, fase 2: x 86 básico), vemos que cuanto mayor sea la proporción de instancias virtualizadas, mayor será la movilidad de la carga de trabajo a través de nodos de redes distribuidos y conectados, validando los tejidos y arquitecturas de computación en la nube como viables. A medida que se virtualiza más infraestructura, estamos remodelando la infraestructura de TI. Vamos a ver más posibilidades en el futuro, en donde la “tela” con el tiempo tendrá la inteligencia para analizar sus propiedades de acuerdo a las reglas de las políticas que crean caminos óptimos, cambiarlos para adaptarse a las condiciones cambiantes y hacerlo sin necesidad de laboriosos ajustes de parámetros. La virtualización X86 es efectivamente la innovación tecnológica más importante detrás de la modernización del centro de datos. Con ella veremos un cambio radical en nuestra forma de ver las funciones de computación, red y elementos de almacenamiento -desde el cableado físico hasta aplicaciones lógicas y disociadas.

10. La demanda de TI
Con una mayor conciencia sobre el impacto ambiental que pueden tener los centros de datos, se ha producido una intensa actividad en torno a la necesidad de una medida de la eficiencia del centro de datos. La mayoría de las que se han propuesto, incluyendo la efectividad del uso de la energía (PUE por sus siglas en inglés) y la eficiencia de la infraestructura central (DCiE por sus siglas en inglés), intentan trazar una relación directa entre la potencia total de la instalación y la energía disponible de los equipos de TI. Aunque estas métricas proporcionarán un punto de referencia de alto nivel para fines de comparación entre los centros de datos, lo que no proporcionan es ningún criterio para mostrar las mejoras incrementales de la eficacia en el tiempo. No permiten seguir la utilización eficaz de la potencia suministrada -solo las diferencias entre potencia suministrada y consumo de energía.

Por ejemplo, un centro de datos puede ser clasificado con un PUE de 2,0, una calificación promedio, pero si dicho administrador del centro de datos decidió comenzar a utilizar la virtualización para aumentar la utilización de su servidor promedio de 10% a 60%, mientras que el centro de datos en sí se haría más eficiente con el uso de los recursos existentes, entonces el PUE general no cambiaría en absoluto. Una forma más eficaz de ver el consumo de energía es analizar el uso eficaz de la energía en los actuales equipos informáticos de TI, en relación con el rendimiento de esos equipos. Si bien esto puede parecer obvio, un servidor x86 típico consume entre el 60% y el 70% de su carga total de energía cuando funciona a niveles de utilización muy bajos. El aumento de los niveles de utilización solo tiene un impacto nominal en la potencia consumida, y sin embargo, un impacto significativo en el rendimiento efectivo por kilovatio.

Empujar los recursos de TI hacia un mayor rendimiento efectivo por kilovatio puede tener un doble efecto de mejorar el consumo de energía (al poner ésta energía a trabajar) y prolongar la vida de los activos existentes a través de un mayor rendimiento. La métrica PPE está diseñada para capturar este efecto.

TelexTorage presentó soluciones de NComputing y Citrix


TelexTorage lanzó las soluciones de NComputing y Citrix, para la Virtualización de Escritorios con HDX.

“La soluciones de NComputing en alianza con Citrix, proporcionan escritorios virtualizados con potencia HDX y simpleza para su empresa a 1/3 del costo respecto a una solución tradicional”, explicó Mariano Denaro, presidente de TelexTorage. “La virtualización de escritorios permite a las empresas contar con una infraestructura de TI, escalable, poderosa y segura con un ahorro de costos significativo mientras se cumple con las demandas tecnológicas de un negocio en crecimiento”.

Aspectos claves de las tecnologías de Citrix y NComputing:

Nuevo Thin Clients Serie N para Citrix HDX

Thin Client HDX fue construido exclusivamente para implementaciones con Citrix XenDesktop, Citrix XenApp, y Citrix VDI-in-a-Box. Ofrece capacidad de gestión total, soporte al cliente y una importante reducción del costo comparado con otros dispositivos alternativos.

Los nuevos dispositivos de NComputing Serie N transforman la economía de virtualización de escritorios, permitiendo a las organizaciones ampliar sus implementaciones de escritorios virtualizados de Citrix.

Beneficios de las aplicaciones sobre la plataforma de NComputing:

Optimizado para HDX
Simplificado y diseño confiable
Numo 3 System-on-Chip
Pantalla completa HD video
Utiliza menos de 5 vatios de consumo eléctrico
Administración centralizada a través de la consola vSpace Management Center y Soporte Premium
“Tenemos gran expectativa con estas nuevas soluciones que estamos ofreciendo ya que son el resultado de la combinación de escuchar las necesidades de nuestros clientes y la busqueda permanente de tecnologías de punta”, dijo Denaro. “Somos referentes a la hora de colaborar en la toma de decisiones más convenientes para el desarrollo actual y futuro del negocio de las empresas y les ofrecemos soluciones a sus problemas, para un buen respaldo de la información y del negocio”.

Como parte de la estrategia de la compañía de capacitar a sus clientes, el pasado jueves 8 de noviembre, TelexTorage realizó un desayuno para empresas, denominado: Virtualización de Escritorios. Potencia HDX y simpleza por 1/3 del costo en el Hotel Faena, Salón Bístro. Allí estuvieron: Mariano Denaro fue el encargado de dar la bienvenida. Gustavo Dominguez de Citrix, fue el expositor encargado de explicar ¿Por qué Citrix? ¿Qué es HDX? Cristian Llodra, gerente Comercial de NComputing, se refirió a ¿Cómo reducir el presupuesto al usuario de PC? y Oscar Castellanos, ingeniero de Soluciones, NC realizó una demostración de la solución.

VMware mejora sus herramientas de administración de aplicaciones de datos



Buscando afirmar su posición en el campo de la administración de aplicaciones de datos, VMware lanzó el más reciente upgrade de su producto vFabric GemFire el cual mejora los controles administrativos, proporciona una nueva interfase y apunta a hacer más sencillo que las aplicaciones manejen grandes cantidades de datos más rápido que las versiones previas.

VMware es quizás una empresa que se conoce más por sus productos de virtualización como vSphere y su hipervisor ESX. Dave McJannet, director de VMware, afirma que el grupo de servicios de aplicaciones en nube de la empresa es otra área de interés para VMware. La actualización a vFabric GemFire 7.0 se complementa con las otras iniciativas de administración de aplicaciones de la compañía, como Project Serengeti, que se enfoca en la optimización de clusters Hadoop para correr en ambientes virtualizados, y alrededor de su producto vFabric SQLFire, que es una herramienta que acompaña al vFabric GemFire. “Realmente apuntala las inversiones que VMware está haciendo en la administración de datos, la cual vemos como muy significativa para el foco de nuestro grupo de negocios”, sostuvo McJannet.

VMware adquirió la línea de productos GemFire de Gemstone Systems en el 2010. Está clasificada como una in-memory data grid (IMDG), que es básicamente una herramienta de administración de bases de datos NoSQL in memory distribuida y completamente de software. Lo principal acerca de las IMDG es que los datos son almacenados en la memoria principal en una o varias de las múltiples computadoras en una red. “Todo esto se basa principalmente en la forma en que introducimos o sacamos los datos de las aplicaciones con rapidez”, afirmó McJannet. “Es muy bueno para procesar datos rápidamente”.

Obtener muchos datos rápidamente es exactamente lo que necesita la analítica de big data, así como aplicaciones que almacenen grandes cantidades de datos pasajeros que pueden ser sensibles a la latencia. Las aplicaciones de procesamiento de las tarjetas de crédito usan IMDG, al igual que las aplicaciones de comercio electrónico para almacenar la información del ‘carrito de compra’ de los usuarios. También se usa en los juegos, banca, detección de fraude y “otras aplicaciones con un desempeño demandante y requerimientos de escalabilidad”, afirmó Massimo Pezzini, vicepresidente de Gartner. Puede pasar de ser un mercado de 260 millones de dólares a los mil millones de dólares para el 2016 o 2017, predice.

VMware no se encuentra sola, sin embargo. Oracle con Coherence, IBM con WebSphere eXtreme Scale, Software AG y otras compiten en el mercado. Sin embargo, la herramienta IMDG predominante, señala Pezzini, es Memcached de código abierto, que es una versión bare bones que no proporciona replicación de datos en una red de computadoras o capacidades de administración de las transacciones.

Es ahí donde empresas como VMware y otras buscan ingresar y ofrecer versiones propietarias de las herramientas de IMDG que proporcionen una interfase simple, herramientas administrativas y servicios de monitoreo. Éstas son dos de las más grandes áreas en donde VMware ha mejorado en el release 7.0 de GemFire, afirma Pezzini. La administración simplificada “es importante porque el monitoreo, la gestión y la administración son pesadillas en los despliegues de gran escala de IMDG”.

El release 7.0 también proporciona soporte mejorado para la replicación en WAN, afirma Pezzini. “Esto es crítico para disaster recovery en múltiples centros de datos, sincronización entre on premises y la nube, y para soportar operaciones a toda hora y en todo lugar”, señaló. VMware también añadió mejor soporte para JSON y Spring, que son usados ampliamente en las comunidades de desarrollo de aplicaciones móviles. Y quizás lo más impresionante. VMware ha aumentado la capacidad de GemFire. “Realmente queríamos atender los requerimientos de escala”, señaló McJannet, anotando que algunos usuarios preguntan su IMDG es ideal para usos de datos a gran escala. GemFire 7.0 ha sido evaluado con hasta 4 TB de datos en memoria, afirma.


CISCO AMPLÍA SU OFERTA CLOUD COMPUTING CON LA COMPRA DE MERAKI



CISCO SIGUE APOSTANDO FUERTE POR LA NUBE Y ANUNCIÓ SU INTENCIÓN DE COMPRAR MERAKI, FIRMA ESPECIALIZADA EN GESTIÓN DESDE LA NUBE DE DISPOSITIVOS MÓVILES, WI-FI Y DE SEGURIDAD, POR 1.200 MILLONES DE DÓLARES.

La adquisición de Meraki, complementa y amplia la estrategia de Cisco para ofrecer más soluciones centradas en el software dirigidas a simplificar la gestión de redes, ayudar a los clientes a dar soporte a sus fuerzas de trabajo móvil y a generar nuevas oportunidades de ingresos para sus partners, según explica la compañía en un comunicado. La tecnología de Meraki permitirá a Cisco ofrecer soluciones de redes gestionadas en cloud para empresas de tamaño medio de todo el mundo.

Meraki fue fundada en 2006 por tres estudiantes de doctorado del Massachusetts Institute of Technology (MIT). Los tres seguirán como directivos del Cloud Networking Group en Cisco manteniendo su objetivo de conseguir ingresos anuales por valor de 1.000 millones de dólares, asegura el CEO de Meraki, Sanjit Biswas. El nuevo grupo continuará los desarrollos ya previstos por Meraki y además adaptarán a la nube otros productos de Cisco.

Cuando Cisco ofreció a Meraki un acuerdo de compra hace unas semanas, la reacción inicial de los fundadores de la firma fue rechazarla y continuar con sus planes de salir a bolsa, según Biswass. “Pero tras varias semanas considerando la oferta, decidimos unirnos a Cisco como el mejor camino para realizar los planes de Meraki y conseguir nuestros objetivos con el máximo impacto”.

Además de un precio atractivo, Cisco ofreció a Meraki la oportunidad de seguir realizando sus desarrollos y de respetar su cultura corporativa en el Cloud Networking Group creado en San Francisco, explica Biswas.

Meraki prevé facturar 100 millones de dólares este año, pasar de 120 a 330 empleados y conseguir un cash-flow positivo. Se espera que la operación se complete en el segundo trimestre del año fiscal 2013 de Cisco.

La semana pasada Cisco anunció la compra de Cloupia, una compañía de software que desarrolla productos para automatizar las operaciones del centro de datos y permitir a las empresas y proveedores de servicios automatizar el despliegue y configuración de infraestructuras físicas y virtuales desde una única consola.