que paso con spei

Analítica para afrontar los desafíos de las aplicaciones en los Data Center

Muchas de las compañías hoy en día dependen del buen rendimiento de sus aplicaciones, pues se han convertido en la base fundamental para que las empresas funcionen día a día, sin embargo, la evolución que han tenido a lo largo de los años con las tecnologías de nube, automatización, portabilidad, virtualización, contenedores, micro-servicios y nubes híbridas entre otros, traen las siguientes inquietudes a los ingenieros y personal de negocio:

  • ¿Conoce exactamente las dependencias de cada uno de los componentes de su aplicación, quién se está comunicando contra quién?
  • ¿Conoce qué puertos está consumiendo y proveyendo cada carga de trabajo dentro de su Data Center para realizar una segmentación más segura?
  • Cuando toda la infraestructura está arriba y reportan lentitud dentro de sus aplicaciones, ¿tiene las herramientas necesarias para encontrar la causa raíz del problema?
  • ¿Cuánto tiempo tarda y a cuántas personas dentro de la organización involucra para resolver un problema dentro de las aplicaciones de su Data Center?
  • ¿Está usted optimizando los recursos de infraestructura sobre las que corren sus aplicaciones, sea en nube privada o pública?
  • ¿Cómo se ve afectado su negocio en cuanto a reputación e ingresos, un mal rendimiento de sus aplicaciones?

Preguntas como estas son los nuevos desafíos que tienen hoy en día las organizaciones y la gente de TI de cada compañía debido a que administrar un Data Center se vuelve cada vez más complejo.

La cantidad de cargas de trabajo y datos no para de crecer año tras año, los componentes de las aplicaciones interactúan entre ellos (tráfico de este a oeste) y estos componentes empiezan a estar ubicados entre nube pública y privada y en algunas ocasiones entre diferentes nubes públicas. A todo esto se le suma que el personal de TI tiene que afrontar estos desafíos con el mismo personal debido a que el presupuesto no crece a la misma velocidad de negocio ni a las demandas de las cargas de trabajo dentro del Data Center.

Muchas de las herramientas de monitoreo para tener visibilidad en la infraestructura de Data Center no están preparadas para afrontar este tipo de retos. Cuando un usuario reporta un problema en su aplicación, toca correlacionar los logs de infraestructura, networking, bases de datos, servidores… Nadie está visualizando el panorama completo y por lo tanto muchas de las decisiones para solucionar el problema se toman sin tener fundamentos.

Esto conlleva a otro problema, aprovisionamos de más la infraestructura, ¿cómo solucionamos el mal rendimiento de la aplicación sin saber exactamente la causa raíz del problema? La respuesta obvia puede ser “aprovisionar más infraestructura”, más CPU, RAM, almacenamiento más eficiente, mejorar los anchos de banda de los enlaces de red LAN y WAN, sin embargo en muchos de los casos esta no es la solución.

El inconveniente puede estar simplemente en una consulta a una base de datos que se está realizando de forma ineficiente o incluso el inconveniente puede estar en una entidad de terceros ajenos a nuestro Data Center en donde estamos realizando una llamada a un web service, por ejemplo. Ahora, si estamos aprovisionando más infraestructura de la necesaria cuando las cargas de trabajo están alojadas en la nube pública, ¿cuánto dinero estamos perdiendo? o mejor, ¿cuánto dinero nos podríamos estar ahorrando?

El desafío de permitir únicamente el tráfico necesario entre los distintos componentes de nuestras aplicaciones, bloquear el resto de tráfico para tener una seguridad mucho más transversal y tener una arquitectura Zero Trust, es sin lugar a dudas uno de los retos más grandes de las compañías, debido a que no tienen una herramienta que les dé visibilidad en tiempo real de cómo se están comunicando los componentes de sus aplicaciones.

Además la portabilidad y el hecho de que las aplicaciones son dinámicas generan que al equipo de TI le quede muy complejo conocer y mantener estas políticas actualizadas; es necesario que se apoyen en un software de analítica que los ayude con esa visibilidad.

En Ikusi Latam entendemos este tipo de desafíos que tienen hoy en día los Data Center y contamos con distintas soluciones que les va a facilitar afrontar cada uno de los retos descritos. Apóyense en las herramientas de analítica de Data Center para afrontar los desafíos que trae la evolución de las aplicaciones.

Escrito por:

Iván Sanchez
Iván Sanchez
Líder de Ingeniería y Preventa

Aficionado al deporte desde pequeño, especialmente al futbol, tenis y squash. Me gusta el plan de ver series con mi esposa, viajar, compartir con mi familia y salir de vez en cuando a comer y tomar unas cervezas con amigos.