Pin It

#Seguridad – ¿Cómo afectan los ‘bots’ el tráfico de Internet?

Los ‘bots’ constituyen una parte fundamental del ecosistema de Internet ya que brindan herramientas informáticas como agregadores, scrapers  y rastreadores que interactúan con los clientes y usuarios.

Al mismo tiempo, su utilización deriva en una gran cantidad de tráfico en la red, con lo que se reduce considerablemente el rendimiento de los sitios web, y se incrementan los costos de las organizaciones para optimizar las redes. Se estima que más del 50% del tráfico en la red está asociado a bots, operando con un grado excesivo de libertad, independientemente de su tipo o intención, lo que se traducirá en una degradación del rendimiento del sitio web, y como consecuencia, el tráfico legítimo se verá afectado negativamente.

Con el fin de solucionar esta problemática, Exceda, representante de Akamai en Latinoamérica, ha emitido una serie de recomendaciones sobre el impacto que pueden tener estos ‘bots’ en la red, muy especialmente las asociadas a las instituciones financieras. Exceda destaca que necesitan un marco flexible que les permita gestionar mejor sus interacciones con distintas categorías de bots (agregadores, scrapers y rastreadores) para interactuar con sus clientes y no influir negativamente en la actividad empresarial.

En un escenario típico del mercado financiero, los agregadores recopilan información de cuentas bancarias asociadas a tarjetas de crédito, personales o de empresa. Estos datos se reúnen mediante conexiones de datos directas o técnicas de ‘scraping’, en las que un usuario proporciona la información de acceso a la cuenta, que permite que un sistema automatizado extraiga o recopile la información desde una interfaz diseñada para usuarios. La finalidad no es otra que la de facilitar las lentas tareas de recopilación e introducción manual de datos. Además, los agregadores utilizados en este sector pueden eliminar la necesidad de transferir copias de los extractos y proporcionar una panorámica integral del patrimonio neto de un cliente, incluidos los activos, los pasivos y las inversiones. Y las instituciones pueden realizar un seguimiento del tráfico de usuarios en comparación con el de bots, reducir los riesgos y garantizar la fiabilidad de sus propiedades digitales.

Cuando una institución financiera detecta ‘bots’ maliciosos, el bloqueo es sólo una solución temporal que, a la larga, resulta ineficaz: los ‘bots’ bloqueados simplemente volverán de forma más rápida y más inteligente. Las dos soluciones más comunes consisten en la mera ralentización de estos ‘bots’, para reducir el valor y la pertinencia de la información de la que hacen acopio; o en el suministro de información alternativa, que los desvía a una página con un contenido intencionadamente impreciso.

Sin embargo, hay una tercera posibilidad para resolverlo de manera eficiente utilizando tecnología de nube/ tecnología de cloud computing.

“Desde Exceda y Akamai proponemos una solución basada en la identificación, clasificación y gestión de los bots (tanto los buenos como los malos) con el fin de lograr los objetivos del sitio web. El Bot Manager de Exceda y Akamai identifica las solicitudes generadas por los bots para separar el tráfico de estos del de los usuarios reales, lo que puede ayudar a mejorar los datos , el análisis de marketing y tomar mejores decisiones empresariales.

Además, ofrece gestión, análisis y elaboración de informes de la actividad de los “bots” para mejorar la visibilidad de lo que congestiona la red.”, afirma Hernan Coronel, Director de Operaciones de Exceda Argentina.

VENTAJAS del Bot Manager de Akamai  
– Aumento de la visibilidad de la cantidad y características del tráfico de bots que intentan acceder a su sitio web.
– Reducción de los costes al ralentizar el crecimiento de la infraestructura web y disminuir los recursos de TI generales necesarios para gestionar los bots.
– Experiencia de usuario mejorada al reducir el impacto de los bots en la infraestructura web durante las horas laborales habituales.
– Ventaja competitiva constante y control de las relaciones con los clientes al prevenir la filtración de información de precios y contenidos.
– Control de las actividades fraudulentas mediante la validación de comportamientos de clientes de acuerdo con los flujos de trabajo de usuarios legítimos.

Author: arielmcorg

Share This Post On
A %d blogueros les gusta esto: