texto:   A-   A+
eliax

El 61% del tráfico de la web en el 2013 fue de robots informáticos
eliax id: 10846 josé elías en dic 17, 2013 a las 12:10 AM (00:10 horas)
BotsSi les preguntaran que estimaran el porcentaje de todo el tráfico de la Web que representa el tráfico de aplicaciones dirigidas por seres humanos, versus el tráfico generado por "bots" (es decir, robots en software que manipulan el Internet), ¿qué cifras dirían?

Pues aunque no lo crean, en el 2013 el 61% de todo el tráfico en la Web fue productos de estos bots.

Y si se preguntan ¿qué hacen esos bots? Pues más de lo que se imaginan... Para empezar, gran parte de estos son en realidad herramientas automatizadas para generar contenido SPAM (contenido no deseado, como publicidad para vendernos todo tipo de medicinas u otros productos), mientras que otros son utilizados para fines criminales (como para infectar máquinas y robar datos personales).

Así mismo existen unos especializados diseñados para ataques a gran escala (del tipo DDoS), creados por hackers, instituciones y/o gobiernos con el fin de incapacitar a equipos conectados a redes, o incluso violarlos a fuerza bruta para varios fines (desde espionaje hasta guerra cibernética).

Mientras que otros son más benignos, como buscadores web (como el de Google, o los de Microsoft y otras empresas más especializadas), y otros se especializan en manipular publicidad y estadísticas de usuarios.

En fin, hay para todo uso y propósito, y es asombroso que en esencia ya dos terceras partes de todo el tráficos a páginas web provenga de estos bots automatizados (o manejados remotamente).

Y noten que la cifra apenas el año pasado era de un 51%, por lo que hablamos de un incremento de un 21% en apenas 12 meses, lo que nos da una idea de la tendencia...

fuente

autor: josé elías

Comentarios

  • Habia escuchado sobre el tema, aunque me parece que se refiere a interacciones...

    Aunque una reproduccion de una persona a 1080p digamos una pelicula en Netflix ocupa mas ancho de banda que la navegacion de miles de personas o bots, ya que los bots no ven videos, algunos creo que si "ven" fotos, aunque las fotos no son tanto como videos.

    Si se fijan en los foros online los usuarios registrados en linea suele ser el bot de yahoo o el bot de google, que se dedican a indexar nuevas paginas o contenidos.

    Aunque en terminos de gigabites por segundo no creo que los bots consuman mucho todavia.

    • No se trata sólo de virus. Por ejemplo, en mi trabajo tenemos procesos automatizados que realizan comunicaciones con otros sistemas. En casi todos los casos, se trata de aplicaciones web que "no colaboran", o sea que hay que conectarse a una página y hacer los pasos que haría una persona, y cuando son hechas en ASP.NET la cantidad de tráfico que generan es increíble. Los datos transmitidos a veces son muchísimos más que los que se ven en la parte visible de la página. En definitiva, tenemos casos de comunicaciones que realizan miles de pasos pidiendo página tras página durante media hora o más.

      Eso sin contar por ejemplo los buscadores que se descargan todas las pátinas del mundo (o casi), con imágenes incluidas regularmente.

      Así que no me extraña para nada que la comunicación entre máquinas sea un porcentaje tan alto.

    • Cuidado con el ejemplo de Netflix, ya que las estadísticas de este artículo se refieren a tráfico web (es decir, de páginas web), no el internet en sí. Si tomamos el Internet en general y todas las aplicaciones que corren en este, los principales responsables del ancho de banda son YouTube y Netflix.

  • esto fue grabado el 2012 e iba en aumento:
    http://www.youtube.com/watch?v=P6xSRuAUbto

    muchos de esos bot son para seguirte sin dudarlo y algunos son para grabar todo el trafico de internet, cuando digo todo es todo, el espía ese hablaba que la capacidad era de 3 dias de trafico.

  • Es increíble que hasta el espacio cibernetico de Internet sea victima de tal grado de contaminación y se haya llegado a tal punto de derroche de recursos.

    Muy característico de nuestra cultura del desperdicio.

    • ¿Y esto cómo se soluciona? Con el viejo truco de windows: sistemas más pesados, equipos más potentes. En el caso de internet se arregla... ¡Aumentando el ancho de banda para que no se note!

      • Existe o no existe el conocimiento, la tecnología, la técnica, los técnicos, los ingenieros, para lograr limitar el nivel de SPAM y el seguimiento (espionaje) comercial de nuestros hábitos de navegación sin autorización?

        Pues bien lo que falta es pura y dura voluntad política a favor de las personas por encima de la Dictadura comercial.

        • Eres activista? O solo despotricas contra el sistema que por cierto, permite que escribas desde algun lugar en el mundo y yo te pueda leer desde el otro lado... Si puedes contra el sistema no solo lo critiques, cambialo.

          • Soy victima y victimario, soy mercancia con código de barras y algunas de las reses reverencian el Matadero.

        • En Argentina estamos muy desprotegidos de parte de los políticos,excepto para cobrar impuestos y robarse el dinero,para eso si están.

    • lo has dicho muy bien , es una muestra clara, 61% del trafico, es decir 61% es basura

  • Hola José Elías, creo que hay un pequeño error en la cifra... donde dice que hace un año la cifra era del 51% y ahora es del 61%... pero dices que el incremento fue del 21%... ¿No será del 10%?

    • lo que sucede es que matematicamente el aumento de 10puntos a 51 equivalen a 19.5% de incremento.

Añadir Comentario

tu nombre
tu email
(opcional)
web personal
(opcional)
en respuesta a...
comentario de caracteres máximo
7 + 6 = requerido (control anti-SPAM)
¿De qué color es el cielo?: requerido (control anti-SPAM)
 

"[Leonardo] Davinci estaría orgulloso XD"

por "julio" en oct 10, 2013


en camino a la singularidad...

©2005-2017 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax