Akamai Technologies, Inc. (NASDAQ : AKAM), el líder global en servicios de CDN (Content Delivery Network – Red de Entrega de Contenidos), ofrece algunos consejos para entender y gestionar los bots y así mejorar el rendimiento de los sitios web.
Hay muchas probabilidades de que un sitio web tenga un problema con bots. Los bots no deseados pueden reducir el rendimiento de un sitio web, incrementar los costes de ancho de banda y pueden brindar a sus competidores una injusta ventaja. Incluso si se pueden identificar con éxito los bots que intentan extraer datos de un sitio web, bloquearlos nunca es buena idea ya que evolucionarán para evitar que se les detecte más adelante. Akamai Bot Manager ofrece la capacidad de denegar en secreto (por lo tanto sin avisar al remitente), dar una respuesta en diferido (para priorizar a los usuarios humanos) o servir contenido alternativo (para dar de forma deliberada información errónea sobre precios), lo que da como resultado una reducción del ancho de banda y de los costes de infraestructura, una mejora de la experiencia de usuario y un posicionamiento competitivo más fuerte.
Los análisis del tráfico en la Plataforma Inteligente de Akamai (Akamai Intelligent Platform™), muestran que los bots pueden generar hasta el 60 por ciento del tráfico web de una organización. De hecho, durante pruebas llevadas a cabo con probadores beta en el Reino Unido, hemos observado casos en los que el tráfico de bots alcanzaba picos del 90% del tráfico total. Se pueden monitorizar la carga y el rendimiento, pero ¿se sabe cuánto de este tráfico son bots?
No todos los bots son malos e incluso algunos son imprescindibles, como los de los motores de búsqueda – son partes clave para estar seguro de que un sitio web esté bien posicionado en los resultados de una búsqueda. Otros pueden proceder de proveedores y partners comerciales y necesitan llegar al sitio web como parte normal de hacer negocio. Una solución de gestión de bots efectiva debería ofrecer la posibilidad de priorizar los “bots buenos”, ya que un rendimiento pobre del sitio web podría tener un impacto en las clasificaciones de los motores de búsqueda, por ejemplo.
Ya hemos mencionado antes la extracción de datos de un sitio web, pero los bots de web pueden simular que son clientes que están comprando, llenando sus cestas de la compra para que los compradores verdaderos piensen que la tienda online está en rotura de stock de un producto de moda, o que ya no hay ninguna habitación libre, lo que les obligaría a comprar en otro lugar. Existen también bots que intentan imitar a bots buenos, lo que dificulta todavía más la gestión de este tipo de tráfico de bots. La clave es que una solución sea capaz de identificar y categorizar correctamente cada tipo de bots que llegan al sitio web, para gestionarlos de la mejor manera posible.
Entender el tipo y volumen del tráfico de bots es muy arduo, ya que aparece como peticiones HTTP. Separar a los usuarios y bots legítimos de los bots grises y malos, puede ayudar a mejorar de forma significativa el rendimiento de un sitio web. Denegar los bots es sencillamente un error, para gestionar bots hay que entenderlos, y tomar decisiones sobre cada uno que se encuentre: denegar de forma secreta, enviar una respuesta en diferido, servir contenido alternativo, o permitir. En Akamai tenemos el mayor catálogo de bots buenos conocidos (1,300+), eso combinado con nuestro análisis heurístico significa que podemos eliminar los quebraderos de cabeza que supone gestionar bots de una manera que otras soluciones no pueden.
Eso es lo que significa la gestión de bots: hacerlos trabajar a nuestro favor, no solo aceptando los bots de web como un coste a pagar por hacer negocio online. Bot Manager de Akamai puede tener un impacto inmediato sobre el rendimiento de nuestro sitio web, y protegerle contra los bots que proporcionan a otros una ventaja competitiva.
No hay comentarios:
Publicar un comentario