18 ene 2013

Microsoft Office 2013 podría llegar el 29 de enero


La nueva versión de la suite ofimática de Microsoft parece estar más cerca de lo esperado. En un principio, la fecha de lanzamiento de Office 2013 se situaba en el primer tercio del año, en el mes de marzo, pero según varios rumores que corren por la red de redes, parece que esta fecha podría situarse mucho antes: el 29 de enero.

El diario abc publicó que Office 2013 incluye muchas mejoras y cambios a nivel de funcionalidades así como en su renovada interfaz gráfica, que aunque no llega a incorporar del todo la nueva interfaz Modern UI de Windows 8 sí que ha adaptado su imagen a ella.

Al igual que en sus últimas versiones, Office 2013 contará con el procesador de textos Word 2013, el gestor de hojas de cálculo Excel 2013, el gestor de diapositivas Powerpoint 2013, OneNote 2013 para tomar datos, Access 2013 como base de datos y el cliente de correo Outlook 2013 unido con Skype. Microsoft ha anunciado que la nueva versión de Office estará disponible en 277 países alrededor del mundo, y que en la mayoría de las tiendas de Europa y Estados Unidos estará disponible la PKC (Product Key Card) en lugar de la tradicional caja de DVD.

Se han incluido muchas novedades en el Office 2013. Sobre todo destacan el uso de la interfaz Metro de Windows 8. Compatibilidad con pantallas táctiles. Un nuevo modo de lectura en Word, pasando por el relleno rápido de celdas en Excel o la conexión de Outlook con Exchange ActiveSync, que nos permitirá acceder a nuestros correos, tareas y calendario de Hotmail o correo empresarial. Además apuesta por el guardado en la nube en SkyDrive o SharePoint y la unión en redes sociales y la edición mejorada de PDF.

Gracias a: http://www.panorama.com.ve

HP extiende su mercado y busca nuevas formas de innovación

hp HP extiende su mercado y busca nuevas formas de innovación

HP sigue bien posicionada según los analistas. En el último informe realizado por la agencia independiente Penteo, la empresa es uno de los principales proveedores de servicios de aplicaciones en España gracias a su solidez y sus elevadas prestaciones. Pero está claro que HP no solo tiene una buena posición en los servicios de outsourcing de aplicaciones, también es referente en los centros de procesamiento de datos (CDP). Por ello, junto a Intel, Microsoft y Vision Solution invitan a clientes y partners a conocer de la mano de sus expertos, en un roadshow por la geografía española, las soluciones que permitirán añadir más rendimiento, disponibilidad y eficacia para su infraestructura de TI.

De hecho, la multiplicación por todo el mundo de centros de datos, que dan soporte a toda la infraestructura tecnológica que nuestra sociedad demanda se ha convertido en una de las principales preocupaciones de HP. Por eso, a través de la investigación de los HP Labs, se ha establecido como una empresa pionera a la hora de crear centros de datos con “cero consumo de energía” (obviamente, es inevitable cierto consumo, pero se habla de “cero” porque el ahorro con respecto a otro tipo de data centers es espectacular). En esta línea, la del ahorro de energía y la conservación del medio ambiente, la empresa ha construido el nuevo Executive Briefing Center, un centro de más de 3.400 metros cuadrados donde ofrece una experiencia única de inmersión en todas las soluciones de HP, tanto productos como servicios.

Además HP tampoco deja atrás otras tendencias actuales tan importantes como el cloud. Así ha ayudado a ITX Enterprises, proveedor de servicios de escritorios virtuales para profesionales de la salud mental, para desarrollar su solución de  Infraestructura Convergente y albergar en ella su nube privada y ampliar las prestaciones de servicios a nivel nacional.

Gracias a: http://www.muycomputerpro.com

22 nov 2012

Gartner: 10 tendencias críticas de TI para los próximos cinco años



Tratar de mantenerse a la vanguardia cuando se trata de problemas de TI no es un trabajo para los débiles de corazón. Ese fue el punto que trajo el foro anual IT Symposium de Gartner, donde el analista, David Cappuccio, describió lo que él llamó “las nuevas fuerzas que no son fácilmente controladas por TI y que están empujando a la vanguardia de la inversión en TI”.

Las fuerzas de la computación en la nube, los medios/redes sociales, la movilidad y la gestión de la información están evolucionando a un rápido ritmo. Esta evolución ocurre a pesar de los controles que TI normalmente sitúa en el uso de tecnologías, indicó Cappuccio. “TI se vio obligado a dar soporte a las tablets, y los usuarios finales les obligaron a soportar las redes de mensajería instantánea e inalámbrica hace unos años. Y más de esas tecnologías están en el horizonte”, comentó.

La presentación de Cappuccio señaló las siguientes como las “Diez tendencias y tecnologías críticas que impactarán a TI en los próximos cinco años”. Lo que sigue se ha tomado del informe de Cappuccio:

1. Interrupción
Los usuarios de negocios esperan el mismo nivel de desempeño y soporte de TI, a medida que experimentan con aplicaciones y servicios basados en el consumidor. La demanda de los usuarios de negocios por la satisfacción de los clientes está por encima de los recursos de los departamentos de TI. Las organizaciones de TI deben invertir en el desarrollo de habilidades y atributos de un analista de mesa de ayuda TI, y organizarse apropiadamente para aumentar la percepción del valor de TI para el resto de la organización.

La satisfacción del usuario de negocios puede ser un objetivo cambiante, pero al permitir mayores niveles de productividad en el nivel de servicio de mesa de ayuda de TI, demuestra que la organización de TI se preocupa por la empresa, y que está comprometida a asegurar que los usuarios cumplan sus metas y objetivos. Si bien están garantizados los enfoques en la capacitación tradicional, los procedimientos de acceso de seguridad, gestión del conocimiento y scripts, un enfoque en habilidades de soporte de nueva generación será de vital importancia para satisfacer las necesidades y expectativas de la empresa de una manera más eficiente.

2. Software Defined Networks (Redes definidas por software)
Las SDN son un medio para abstraer la red, así como la virtualización de servidores abstrae el servidor. Transforma la topología de red de una configuración de caja/puerto por vez, a una configuración de flujo por tiempo relacionado con la aplicación. Abstrae la red del modo en que un hipervisor abstrae el servidor y proporciona un control programático. Con SDN el controlador tiene una vista de la topología de toda la red, tanto los componentes físicos y virtuales de la misma, incluyendo switches, firewalls, ADC, etc, y proporciona la visión resumida para aprovisionar y gestionar las conexiones y servicios de red que las aplicaciones y el operador requieren.

OpenFlow es un gran ejemplo de ese protocolo de red generalizada en túnel, que proporciona una API genérica que cualquier operador de red puede utilizar para crear sus propios esquemas de control y gestión basados en los requisitos de las aplicaciones de su organización. Y habrá otros protocolos SDN del tipo OpenFlow que estén diseñados desde cero con una lógica de nivel de aplicación, en vez del paradigma tradicional de protocolo, dispositivo y pensamiento basado en el enlace.

Cuando se utiliza junto con encapsulados como OpenFlow SDN, puede servir para extender dinámicamente una nube privada hacia un modelo híbrido, con el fin de enmascarar las direcciones IP específicas de la infraestructura del proveedor de nube. SDN también promete permitir que los proveedores de servicios ofrezcan servicios dinámicos aprovisionados de WAN, potencialmente a través de redes multi-proveedor/multi-vendedor. Por supuesto, existe la posibilidad de una perturbación significativa de la organización a medida que las habilidades de red tradicionales comiencen a cambiar, y la alineación con los productos o plataformas específicas del proveedor se vuelva menos rígida.

3. Datos y almacenamiento más grandes
Un hecho con el que los centros de datos han vivido durante muchos años, sigue siendo cierto hoy en día: el crecimiento de datos no ha disminuido. Desde una perspectiva de TI, uno de los principales problemas no es estar consciente del problema, sino priorizar los temas. Hemos pasado tantos años tratando con esto, y sobreviviendo, que los proyectos de gestión de almacenamiento suelen iniciarse desde el principio, en lugar de arriba hacia abajo, relegándolos en gran medida a ser ‘trabajos menores’ con poco financiamiento a largo plazo.

Las empresas de vanguardia se han dado cuenta del problema y están comenzando a centrarse en la utilización y administración del almacenamiento como medio para reducir el uso de espacio y consumo de energía, mejorar el cumplimiento y mejorar los controles del crecimiento en el centro de datos. Ahora es el tiempo para hacerlo, porque la mayor parte del crecimiento en los próximos cinco años será en datos no estructurados -los más difíciles de manejar desde el punto de vista de un proceso o herramienta. Las tecnologías que se volverán críticas en los próximos años son la deduplicación en línea, estratificación automática de los datos para obtener los patrones de uso más eficientes por kilovatio, y discos flash o SDD para optimizar el rendimiento de gama alta, pero con costos de energía significativamente reducidos. Los precios NAND continúan mejorando a un ritmo rápido, pasando de 7.870 dólares por gigabyte en 1997 a 1,25 dólares por gigabyte en la actualidad -y esta tendencia continuará.

4. Las nubes híbridas
Los vendedores utilizan cada vez más la computación en la nube como una etiqueta de marketing para muchas tecnologías y ofertas antiguas, conllevando a la devaluación de la palabra y la tendencia. A pesar de que la computación en la nube es una evolución natural para la empresa y diversas tecnologías y tendencias basadas en Internet, es un error volver a etiquetar estas tecnologías antiguas como “computación en la nube”. Este nuevo modelo de computación impulsa cambios revolucionarios en la forma en que las soluciones están diseñadas, construidas, entregadas, aprovisionadas y administradas.

La computación en la nube está fuertemente influenciada por la Internet y los vendedores que han surgido de ella. Empresas como Google ofrecen diversos servicios construidos sobre una masiva arquitectura paralela que está altamente automatizada, con una fiabilidad proporcionada a través de técnicas de software, en lugar de hardware altamente confiable. Aunque el costo es un beneficio potencial para las pequeñas empresas, los mayores beneficios de la computación en la nube están incorporados en la elasticidad y la escalabilidad, lo que reducirá las barreras y permitirá que estas empresas crezcan rápidamente. Un servicio de nube híbrida está compuesto por servicios que combinan, ya sea una mayor capacidad que va más allá de lo que cualquiera de ellos tiene (agregación de servicios, su personalización, o la integración de dos juntos), o capacidad adicional.

Existe una tendencia emergente en los centros de datos híbridos mediante la cual el crecimiento se mira desde el punto de vista de la criticidad y localidad de las aplicaciones. Por ejemplo, si un centro de datos se acerca a la capacidad, en lugar de comenzar con el proyecto para definir y construir otro sitio, se evalúan las cargas de trabajo sobre la base de su criticidad para el negocio, el riesgo de pérdida, facilidad de migración, y se toma la decisión de mover algunos cargas de trabajo a las instalaciones de co-ubicación, hospedaje, o incluso a un servicio tipo nube. Esto libera espacio en el sitio existente para el crecimiento futuro, resolviendo el problema de escala y aplazando el gasto de capital por varios años. Una alternativa a esto es que los centros de datos más antiguos empiecen a migrar trabajo crítico fuera de la planta, reduciendo así los riesgos de tiempo de inactividad y las interrupciones del negocio, a la vez que se libera el viejo centro de datos para el trabajo adicional (no crítico), o para un lento proceso de modernización.

5. Servidor del cliente
En el mundo de la PC del último cuarto de siglo, tanto el sistema operativo como la aplicación residían principalmente en el escritorio (algunas aplicaciones grandes y complejas, como ERP, se encuentran en servidores que pueden estar alejados de los clientes). Hoy en día, todo vale. El sistema operativo así como la aplicación, se puede ejecutar en la PC o en un servidor. La elección de la arquitectura depende de las necesidades del usuario y los plazos para su ejecución. Ya no vale eso de que un tamaño sirve para todos.

En cuanto a las implementaciones de Windows 8, el 90% de las empresas pasará por alto el despliegue a gran escala, y se centrará en la optimización de las implementaciones Windows 8 en plataformas específicas (por ejemplo, móviles, tablets) solamente. Los servidores han sido sometidos a un proceso evolutivo a largo plazo. Ellos han pasado de ser pedestales autónomos para tener factores de forma de rack montados en un armario rack. El último paso en la evolución del hardware de servidor x86 es el servidor blade. Solo ha tomado hardware de servidores individuales con periféricos internos en un armario rack para un número de servidores más densos en un solo chasis con el plano posterior, enfriamiento y recursos de poder comunes. Un verdadero diseño de componente permite la adición independiente de piezas aún más granulares como procesadores, memoria, almacenamiento y elementos de E/S.

Así como han crecido los servidores blade, también lo ha hecho la campaña de mercadeo de proveedores de servidores para posicionar a los blades como el siguiente paso técnico más avanzado en la evolución del servidor; e incluso, en algunos casos, como la solución de servidor final. Siempre requiere un examen más detallado de los múltiples factores -la densidad requerida, requisitos de eficiencia en alimentación/refrigeración, alta disponibilidad, carga de trabajo, etc- para revelar donde es que realmente tienen ventajas las celdas, el rack y ‘skinless’. En el futuro esta evolución se dividirá en múltiples direcciones a medida que aumente el uso de aparatos y los servidores especializados comiencen a surgir (por ejemplo, las plataformas de análisis).

6. La Internet de las Cosas
Este es un concepto que describe cómo la Internet se ampliará como elementos físicos, tales como los dispositivos de consumo y bienes físicos conectados a Internet. La visión y el concepto han existido durante años; sin embargo, ha habido una aceleración en el número y los tipos de cosas que están siendo conectadas y en las tecnologías para la identificación, detección y comunicación.

Los avances clave incluyen:
Sensores incorporados: Sensores que detectan y comunican los cambios (por ejemplo, los acelerómetros, brújulas, GPS, cámaras) están siendo incorporado no solo en los dispositivos móviles, sino también en un número creciente de lugares y objetos.

Reconocimiento de imagen: Las tecnologías de reconocimiento de imágenes se esfuerzan por identificar los objetos, personas, edificios, sitios, logotipos y cualquier otra cosa que tenga valor para los consumidores y las empresas. Los teléfonos inteligentes y las tablets equipadas con cámaras han hecho que esta tecnología de aplicaciones industriales, sean principalmente para consumo general y aplicaciones empresariales.

Pago NFC: NFC permite que los usuarios hagan pagos agitando su teléfono móvil delante de un lector compatible. Una vez que NFC esté incrustada en una masa crítica de teléfonos de pago, industrias como el transporte público, las líneas aéreas, minoristas y de atención médica podrán explorar otras áreas en las que la tecnología NFC puede mejorar la eficiencia y el servicio al cliente.

7. Locura por los aparatos
Las organizaciones generalmente se ven atraídas por los aparatos cuando ofrecen soluciones de manos libres para los requisitos de aplicación y funcionamiento, pero las organizaciones también son repelidas por los aparatos cuando se requieren inversiones adicionales (tiempo o software) para las funciones de gestión. Por lo tanto, los aparatos exitosos no solo deben proporcionar una solución de aplicación costo-efectiva, deben producir una sobrecarga mínima de gestión.

A pesar de la histórica bolsa mixta de éxitos y los fracasos, los vendedores siguen introduciendo aparatos al mercado debido a que el modelo de la máquina representa una oportunidad única para que un proveedor tenga un mayor control de la pila de soluciones y obtenga un mayor margen en la venta. En resumen, los aparatos no van a desaparecer en el corto plazo. Pero, lo que es nuevo en los aparatos es la introducción de dispositivos virtuales. Un dispositivo virtual permite que un proveedor de servidor ofrezca una solución de pila completa en un entorno controlado, pero sin la necesidad de proporcionar ningún tipo de hardware real. Vemos que los dispositivos virtuales están ganando popularidad y esperamos ver que surja una amplia gama de ofertas de dispositivos virtuales durante los próximos cinco años. Sin embargo, el crecimiento de dispositivos virtuales no matará a los dispositivos físicos; las cuestiones tales como la seguridad física, los requisitos especializados de hardware y las relaciones de los ecosistemas seguirán impulsando los requisitos físicos.

El mismo uso de la terminología de los aparatos genera gran angustia para algunos vendedores y usuarios -especialmente para los aparatos físicos. Estrictamente hablando, una plataforma altamente integrada como Exadata de Oracle o Vblock VCE no es un aparato verdadero; son sistemas integrados de fábrica que requerirán algún tipo de configuración y afinación, incluso cuando la pila de software está integrada, nunca encaja en el concepto clásico de una “caja de pizza”. Sin embargo, si bien tales sistemas no serán consumidos como electrodomésticos, ciertamente están empaquetados y son vendidos en una forma muy similar. Muchos otros dispositivos físicos será más fieles al concepto -serán dispositivos plug & play que solo pueden ofrecer un conjunto de servicios muy prescrito.

8. Complejidad
Las fuentes de complejidad en TI son fáciles de detectar. Éstas incluyen el número de parámetros de inicialización para la entrada de partida en una base de datos Oracle (1.600) y el número de páginas (2.300) de los manuales para utilizar un interruptor de Cisco. La complejidad aumenta, sin embargo, cuando nos fijamos en la combinación de varios elementos, como Microsoft Exchange que se ejecutan en VMware. Lo que hace que esta complejidad sea peor, sin embargo, es el hecho de que no estamos recibiendo nuestro dinero: los estudios históricos sugieren que las organizaciones de TI utilizan realmente solo aproximadamente el 20% de las características y funciones de un sistema. Esto se traduce en grandes cantidades de deuda de TI, cuyos elevados costos de mantenimiento para “dejar las luces encendidas” desvían fondos necesarios de proyectos que pueden mejorar la competitividad de las empresas.

9. Evolución hacia el centro de datos virtual
Al entrar en la tercera fase de la virtualización (fase 1: MF / Unix, fase 2: x 86 básico), vemos que cuanto mayor sea la proporción de instancias virtualizadas, mayor será la movilidad de la carga de trabajo a través de nodos de redes distribuidos y conectados, validando los tejidos y arquitecturas de computación en la nube como viables. A medida que se virtualiza más infraestructura, estamos remodelando la infraestructura de TI. Vamos a ver más posibilidades en el futuro, en donde la “tela” con el tiempo tendrá la inteligencia para analizar sus propiedades de acuerdo a las reglas de las políticas que crean caminos óptimos, cambiarlos para adaptarse a las condiciones cambiantes y hacerlo sin necesidad de laboriosos ajustes de parámetros. La virtualización X86 es efectivamente la innovación tecnológica más importante detrás de la modernización del centro de datos. Con ella veremos un cambio radical en nuestra forma de ver las funciones de computación, red y elementos de almacenamiento -desde el cableado físico hasta aplicaciones lógicas y disociadas.

10. La demanda de TI
Con una mayor conciencia sobre el impacto ambiental que pueden tener los centros de datos, se ha producido una intensa actividad en torno a la necesidad de una medida de la eficiencia del centro de datos. La mayoría de las que se han propuesto, incluyendo la efectividad del uso de la energía (PUE por sus siglas en inglés) y la eficiencia de la infraestructura central (DCiE por sus siglas en inglés), intentan trazar una relación directa entre la potencia total de la instalación y la energía disponible de los equipos de TI. Aunque estas métricas proporcionarán un punto de referencia de alto nivel para fines de comparación entre los centros de datos, lo que no proporcionan es ningún criterio para mostrar las mejoras incrementales de la eficacia en el tiempo. No permiten seguir la utilización eficaz de la potencia suministrada -solo las diferencias entre potencia suministrada y consumo de energía.

Por ejemplo, un centro de datos puede ser clasificado con un PUE de 2,0, una calificación promedio, pero si dicho administrador del centro de datos decidió comenzar a utilizar la virtualización para aumentar la utilización de su servidor promedio de 10% a 60%, mientras que el centro de datos en sí se haría más eficiente con el uso de los recursos existentes, entonces el PUE general no cambiaría en absoluto. Una forma más eficaz de ver el consumo de energía es analizar el uso eficaz de la energía en los actuales equipos informáticos de TI, en relación con el rendimiento de esos equipos. Si bien esto puede parecer obvio, un servidor x86 típico consume entre el 60% y el 70% de su carga total de energía cuando funciona a niveles de utilización muy bajos. El aumento de los niveles de utilización solo tiene un impacto nominal en la potencia consumida, y sin embargo, un impacto significativo en el rendimiento efectivo por kilovatio.

Empujar los recursos de TI hacia un mayor rendimiento efectivo por kilovatio puede tener un doble efecto de mejorar el consumo de energía (al poner ésta energía a trabajar) y prolongar la vida de los activos existentes a través de un mayor rendimiento. La métrica PPE está diseñada para capturar este efecto.