Tratar de mantenerse a
la vanguardia cuando se trata de problemas de TI no es un trabajo para los
débiles de corazón. Ese fue el punto que trajo el foro anual IT Symposium de
Gartner, donde el analista, David Cappuccio, describió lo que él llamó “las
nuevas fuerzas que no son fácilmente controladas por TI y que están empujando a
la vanguardia de la inversión en TI”.
Las fuerzas de la
computación en la nube, los medios/redes sociales, la movilidad y la gestión de
la información están evolucionando a un rápido ritmo. Esta evolución ocurre a
pesar de los controles que TI normalmente sitúa en el uso de tecnologías,
indicó Cappuccio. “TI se vio obligado a dar soporte a las tablets, y los
usuarios finales les obligaron a soportar las redes de mensajería instantánea e
inalámbrica hace unos años. Y más de esas tecnologías están en el horizonte”,
comentó.
La presentación de
Cappuccio señaló las siguientes como las “Diez tendencias y tecnologías
críticas que impactarán a TI en los próximos cinco años”. Lo que sigue se ha
tomado del informe de Cappuccio:
1. Interrupción
Los usuarios de
negocios esperan el mismo nivel de desempeño y soporte de TI, a medida que
experimentan con aplicaciones y servicios basados en el consumidor. La demanda
de los usuarios de negocios por la satisfacción de los clientes está por encima
de los recursos de los departamentos de TI. Las organizaciones de TI deben
invertir en el desarrollo de habilidades y atributos de un analista de mesa de
ayuda TI, y organizarse apropiadamente para aumentar la percepción del valor de
TI para el resto de la organización.
La satisfacción del
usuario de negocios puede ser un objetivo cambiante, pero al permitir mayores
niveles de productividad en el nivel de servicio de mesa de ayuda de TI,
demuestra que la organización de TI se preocupa por la empresa, y que está comprometida
a asegurar que los usuarios cumplan sus metas y objetivos. Si bien están
garantizados los enfoques en la capacitación tradicional, los procedimientos de
acceso de seguridad, gestión del conocimiento y scripts, un enfoque en
habilidades de soporte de nueva generación será de vital importancia para
satisfacer las necesidades y expectativas de la empresa de una manera más
eficiente.
2. Software
Defined Networks (Redes definidas por software)
Las SDN son un medio
para abstraer la red, así como la virtualización de servidores abstrae el
servidor. Transforma la topología de red de una configuración de caja/puerto
por vez, a una configuración de flujo por tiempo relacionado con la aplicación.
Abstrae la red del modo en que un hipervisor abstrae el servidor y proporciona
un control programático. Con SDN el controlador tiene una vista de la topología
de toda la red, tanto los componentes físicos y virtuales de la misma,
incluyendo switches, firewalls, ADC, etc, y proporciona la visión resumida para
aprovisionar y gestionar las conexiones y servicios de red que las aplicaciones
y el operador requieren.
OpenFlow es un gran
ejemplo de ese protocolo de red generalizada en túnel, que proporciona una API
genérica que cualquier operador de red puede utilizar para crear sus propios
esquemas de control y gestión basados en los requisitos de las aplicaciones de
su organización. Y habrá otros protocolos SDN del tipo OpenFlow que estén
diseñados desde cero con una lógica de nivel de aplicación, en vez del
paradigma tradicional de protocolo, dispositivo y pensamiento basado en el
enlace.
Cuando se utiliza
junto con encapsulados como OpenFlow SDN, puede servir para extender
dinámicamente una nube privada hacia un modelo híbrido, con el fin de
enmascarar las direcciones IP específicas de la infraestructura del proveedor
de nube. SDN también promete permitir que los proveedores de servicios ofrezcan
servicios dinámicos aprovisionados de WAN, potencialmente a través de redes
multi-proveedor/multi-vendedor. Por supuesto, existe la posibilidad de una
perturbación significativa de la organización a medida que las habilidades de
red tradicionales comiencen a cambiar, y la alineación con los productos o
plataformas específicas del proveedor se vuelva menos rígida.
3. Datos y almacenamiento
más grandes
Un hecho con el que
los centros de datos han vivido durante muchos años, sigue siendo cierto hoy en
día: el crecimiento de datos no ha disminuido. Desde una perspectiva de TI, uno
de los principales problemas no es estar consciente del problema, sino
priorizar los temas. Hemos pasado tantos años tratando con esto, y
sobreviviendo, que los proyectos de gestión de almacenamiento suelen iniciarse
desde el principio, en lugar de arriba hacia abajo, relegándolos en gran medida
a ser ‘trabajos menores’ con poco financiamiento a largo plazo.
Las empresas de
vanguardia se han dado cuenta del problema y están comenzando a centrarse en la
utilización y administración del almacenamiento como medio para reducir el uso
de espacio y consumo de energía, mejorar el cumplimiento y mejorar los
controles del crecimiento en el centro de datos. Ahora es el tiempo para
hacerlo, porque la mayor parte del crecimiento en los próximos cinco años será
en datos no estructurados -los más difíciles de manejar desde el punto de vista
de un proceso o herramienta. Las tecnologías que se volverán críticas en los
próximos años son la deduplicación en línea, estratificación automática de los
datos para obtener los patrones de uso más eficientes por kilovatio, y discos flash
o SDD para optimizar el rendimiento de gama alta, pero con costos de energía
significativamente reducidos. Los precios NAND continúan mejorando a un ritmo
rápido, pasando de 7.870 dólares por gigabyte en 1997 a 1,25 dólares por
gigabyte en la actualidad -y esta tendencia continuará.
4. Las nubes híbridas
Los vendedores
utilizan cada vez más la computación en la nube como una etiqueta de marketing
para muchas tecnologías y ofertas antiguas, conllevando a la devaluación de la
palabra y la tendencia. A pesar de que la computación en la nube es una
evolución natural para la empresa y diversas tecnologías y tendencias basadas
en Internet, es un error volver a etiquetar estas tecnologías antiguas como
“computación en la nube”. Este nuevo modelo de computación impulsa cambios
revolucionarios en la forma en que las soluciones están diseñadas, construidas,
entregadas, aprovisionadas y administradas.
La computación en la
nube está fuertemente influenciada por la Internet y los vendedores que han
surgido de ella. Empresas como Google ofrecen diversos servicios construidos
sobre una masiva arquitectura paralela que está altamente automatizada, con una
fiabilidad proporcionada a través de técnicas de software, en lugar de hardware
altamente confiable. Aunque el costo es un beneficio potencial para las
pequeñas empresas, los mayores beneficios de la computación en la nube están
incorporados en la elasticidad y la escalabilidad, lo que reducirá las barreras
y permitirá que estas empresas crezcan rápidamente. Un servicio de nube híbrida
está compuesto por servicios que combinan, ya sea una mayor capacidad que va
más allá de lo que cualquiera de ellos tiene (agregación de servicios, su
personalización, o la integración de dos juntos), o capacidad adicional.
Existe una tendencia
emergente en los centros de datos híbridos mediante la cual el crecimiento se
mira desde el punto de vista de la criticidad y localidad de las aplicaciones.
Por ejemplo, si un centro de datos se acerca a la capacidad, en lugar de
comenzar con el proyecto para definir y construir otro sitio, se evalúan las
cargas de trabajo sobre la base de su criticidad para el negocio, el riesgo de
pérdida, facilidad de migración, y se toma la decisión de mover algunos cargas
de trabajo a las instalaciones de co-ubicación, hospedaje, o incluso a un
servicio tipo nube. Esto libera espacio en el sitio existente para el
crecimiento futuro, resolviendo el problema de escala y aplazando el gasto de
capital por varios años. Una alternativa a esto es que los centros de datos más
antiguos empiecen a migrar trabajo crítico fuera de la planta, reduciendo así
los riesgos de tiempo de inactividad y las interrupciones del negocio, a la vez
que se libera el viejo centro de datos para el trabajo adicional (no crítico),
o para un lento proceso de modernización.
5. Servidor del
cliente
En el mundo de la PC
del último cuarto de siglo, tanto el sistema operativo como la aplicación
residían principalmente en el escritorio (algunas aplicaciones grandes y
complejas, como ERP, se encuentran en servidores que pueden estar alejados de
los clientes). Hoy en día, todo vale. El sistema operativo así como la
aplicación, se puede ejecutar en la PC o en un servidor. La elección de la
arquitectura depende de las necesidades del usuario y los plazos para su
ejecución. Ya no vale eso de que un tamaño sirve para todos.
En cuanto a las
implementaciones de Windows 8, el 90% de las empresas pasará por alto el
despliegue a gran escala, y se centrará en la optimización de las
implementaciones Windows 8 en plataformas específicas (por ejemplo, móviles,
tablets) solamente. Los servidores han sido sometidos a un proceso evolutivo a
largo plazo. Ellos han pasado de ser pedestales autónomos para tener factores
de forma de rack montados en un armario rack. El último paso en la evolución
del hardware de servidor x86 es el servidor blade. Solo ha tomado hardware de
servidores individuales con periféricos internos en un armario rack para un
número de servidores más densos en un solo chasis con el plano posterior, enfriamiento
y recursos de poder comunes. Un verdadero diseño de componente permite la
adición independiente de piezas aún más granulares como procesadores, memoria,
almacenamiento y elementos de E/S.
Así como han crecido
los servidores blade, también lo ha hecho la campaña de mercadeo de proveedores
de servidores para posicionar a los blades como el siguiente paso técnico más
avanzado en la evolución del servidor; e incluso, en algunos casos, como la
solución de servidor final. Siempre requiere un examen más detallado de los
múltiples factores -la densidad requerida, requisitos de eficiencia en
alimentación/refrigeración, alta disponibilidad, carga de trabajo, etc- para
revelar donde es que realmente tienen ventajas las celdas, el rack y
‘skinless’. En el futuro esta evolución se dividirá en múltiples direcciones a
medida que aumente el uso de aparatos y los servidores especializados comiencen
a surgir (por ejemplo, las plataformas de análisis).
6. La Internet de las
Cosas
Este es un concepto
que describe cómo la Internet se ampliará como elementos físicos, tales como
los dispositivos de consumo y bienes físicos conectados a Internet. La visión y
el concepto han existido durante años; sin embargo, ha habido una aceleración en
el número y los tipos de cosas que están siendo conectadas y en las tecnologías
para la identificación, detección y comunicación.
Los avances clave
incluyen:
Sensores incorporados:
Sensores que detectan y comunican los cambios (por ejemplo, los acelerómetros,
brújulas, GPS, cámaras) están siendo incorporado no solo en los dispositivos
móviles, sino también en un número creciente de lugares y objetos.
Reconocimiento de
imagen: Las tecnologías de reconocimiento de imágenes se esfuerzan por
identificar los objetos, personas, edificios, sitios, logotipos y cualquier
otra cosa que tenga valor para los consumidores y las empresas. Los teléfonos
inteligentes y las tablets equipadas con cámaras han hecho que esta tecnología
de aplicaciones industriales, sean principalmente para consumo general y
aplicaciones empresariales.
Pago NFC: NFC permite
que los usuarios hagan pagos agitando su teléfono móvil delante de un lector
compatible. Una vez que NFC esté incrustada en una masa crítica de teléfonos de
pago, industrias como el transporte público, las líneas aéreas, minoristas y de
atención médica podrán explorar otras áreas en las que la tecnología NFC puede
mejorar la eficiencia y el servicio al cliente.
7. Locura por los
aparatos
Las organizaciones
generalmente se ven atraídas por los aparatos cuando ofrecen soluciones de
manos libres para los requisitos de aplicación y funcionamiento, pero las
organizaciones también son repelidas por los aparatos cuando se requieren
inversiones adicionales (tiempo o software) para las funciones de gestión. Por
lo tanto, los aparatos exitosos no solo deben proporcionar una solución de
aplicación costo-efectiva, deben producir una sobrecarga mínima de gestión.
A pesar de la
histórica bolsa mixta de éxitos y los fracasos, los vendedores siguen
introduciendo aparatos al mercado debido a que el modelo de la máquina
representa una oportunidad única para que un proveedor tenga un mayor control
de la pila de soluciones y obtenga un mayor margen en la venta. En resumen, los
aparatos no van a desaparecer en el corto plazo. Pero, lo que es nuevo en los
aparatos es la introducción de dispositivos virtuales. Un dispositivo virtual
permite que un proveedor de servidor ofrezca una solución de pila completa en
un entorno controlado, pero sin la necesidad de proporcionar ningún tipo de
hardware real. Vemos que los dispositivos virtuales están ganando popularidad y
esperamos ver que surja una amplia gama de ofertas de dispositivos virtuales
durante los próximos cinco años. Sin embargo, el crecimiento de dispositivos
virtuales no matará a los dispositivos físicos; las cuestiones tales como la
seguridad física, los requisitos especializados de hardware y las relaciones de
los ecosistemas seguirán impulsando los requisitos físicos.
El mismo uso de la terminología
de los aparatos genera gran angustia para algunos vendedores y usuarios
-especialmente para los aparatos físicos. Estrictamente hablando, una
plataforma altamente integrada como Exadata de Oracle o Vblock VCE no es un
aparato verdadero; son sistemas integrados de fábrica que requerirán algún tipo
de configuración y afinación, incluso cuando la pila de software está
integrada, nunca encaja en el concepto clásico de una “caja de pizza”. Sin
embargo, si bien tales sistemas no serán consumidos como electrodomésticos,
ciertamente están empaquetados y son vendidos en una forma muy similar. Muchos
otros dispositivos físicos será más fieles al concepto -serán dispositivos plug
& play que solo pueden ofrecer un conjunto de servicios muy prescrito.
8. Complejidad
Las fuentes de
complejidad en TI son fáciles de detectar. Éstas incluyen el número de
parámetros de inicialización para la entrada de partida en una base de datos
Oracle (1.600) y el número de páginas (2.300) de los manuales para utilizar un
interruptor de Cisco. La complejidad aumenta, sin embargo, cuando nos fijamos
en la combinación de varios elementos, como Microsoft Exchange que se ejecutan
en VMware. Lo que hace que esta complejidad sea peor, sin embargo, es el hecho
de que no estamos recibiendo nuestro dinero: los estudios históricos sugieren
que las organizaciones de TI utilizan realmente solo aproximadamente el 20% de
las características y funciones de un sistema. Esto se traduce en grandes
cantidades de deuda de TI, cuyos elevados costos de mantenimiento para “dejar
las luces encendidas” desvían fondos necesarios de proyectos que pueden mejorar
la competitividad de las empresas.
9. Evolución hacia el
centro de datos virtual
Al entrar en la
tercera fase de la virtualización (fase 1: MF / Unix, fase 2: x 86 básico),
vemos que cuanto mayor sea la proporción de instancias virtualizadas, mayor
será la movilidad de la carga de trabajo a través de nodos de redes
distribuidos y conectados, validando los tejidos y arquitecturas de computación
en la nube como viables. A medida que se virtualiza más infraestructura,
estamos remodelando la infraestructura de TI. Vamos a ver más posibilidades en
el futuro, en donde la “tela” con el tiempo tendrá la inteligencia para
analizar sus propiedades de acuerdo a las reglas de las políticas que crean
caminos óptimos, cambiarlos para adaptarse a las condiciones cambiantes y
hacerlo sin necesidad de laboriosos ajustes de parámetros. La virtualización
X86 es efectivamente la innovación tecnológica más importante detrás de la
modernización del centro de datos. Con ella veremos un cambio radical en
nuestra forma de ver las funciones de computación, red y elementos de
almacenamiento -desde el cableado físico hasta aplicaciones lógicas y
disociadas.
10. La demanda de TI
Con una mayor
conciencia sobre el impacto ambiental que pueden tener los centros de datos, se
ha producido una intensa actividad en torno a la necesidad de una medida de la
eficiencia del centro de datos. La mayoría de las que se han propuesto,
incluyendo la efectividad del uso de la energía (PUE por sus siglas en inglés)
y la eficiencia de la infraestructura central (DCiE por sus siglas en inglés),
intentan trazar una relación directa entre la potencia total de la instalación
y la energía disponible de los equipos de TI. Aunque estas métricas
proporcionarán un punto de referencia de alto nivel para fines de comparación
entre los centros de datos, lo que no proporcionan es ningún criterio para
mostrar las mejoras incrementales de la eficacia en el tiempo. No permiten
seguir la utilización eficaz de la potencia suministrada -solo las diferencias
entre potencia suministrada y consumo de energía.
Por ejemplo, un centro
de datos puede ser clasificado con un PUE de 2,0, una calificación promedio,
pero si dicho administrador del centro de datos decidió comenzar a utilizar la
virtualización para aumentar la utilización de su servidor promedio de 10% a
60%, mientras que el centro de datos en sí se haría más eficiente con el uso de
los recursos existentes, entonces el PUE general no cambiaría en absoluto. Una
forma más eficaz de ver el consumo de energía es analizar el uso eficaz de la
energía en los actuales equipos informáticos de TI, en relación con el
rendimiento de esos equipos. Si bien esto puede parecer obvio, un servidor x86
típico consume entre el 60% y el 70% de su carga total de energía cuando
funciona a niveles de utilización muy bajos. El aumento de los niveles de
utilización solo tiene un impacto nominal en la potencia consumida, y sin
embargo, un impacto significativo en el rendimiento efectivo por kilovatio.
Empujar los recursos
de TI hacia un mayor rendimiento efectivo por kilovatio puede tener un doble
efecto de mejorar el consumo de energía (al poner ésta energía a trabajar) y
prolongar la vida de los activos existentes a través de un mayor rendimiento. La
métrica PPE está diseñada para capturar este efecto.
Gracias a: http://www.cwv.com.ve