El 61% del tráfico de la web en el 2013 fue de robots informáticos


Si les preguntaran que estimaran el porcentaje de todo el tráfico de la Web que representa el tráfico de aplicaciones dirigidas por seres humanos, versus el tráfico generado por "bots" (es decir, robots en software que manipulan el Internet), ¿qué cifras dirían?

Pues aunque no lo crean, en el 2013 el 61% de todo el tráfico en la Web fue productos de estos bots.

Y si se preguntan ¿qué hacen esos bots? Pues más de lo que se imaginan... Para empezar, gran parte de estos son en realidad herramientas automatizadas para generar contenido SPAM (contenido no deseado, como publicidad para vendernos todo tipo de medicinas u otros productos), mientras que otros son utilizados para fines criminales (como para infectar máquinas y robar datos personales).

Así mismo existen unos especializados diseñados para ataques a gran escala (del tipo DDoS), creados por hackers, instituciones y/o gobiernos con el fin de incapacitar a equipos conectados a redes, o incluso violarlos a fuerza bruta para varios fines (desde espionaje hasta guerra cibernética).

Mientras que otros son más benignos, como buscadores web (como el de Google, o los de Microsoft y otras empresas más especializadas), y otros se especializan en manipular publicidad y estadísticas de usuarios.

En fin, hay para todo uso y propósito, y es asombroso que en esencia ya dos terceras partes de todo el tráficos a páginas web provenga de estos bots automatizados (o manejados remotamente).

Y noten que la cifra apenas el año pasado era de un 51%, por lo que hablamos de un incremento de un 21% en apenas 12 meses, lo que nos da una idea de la tendencia...

Fuente

Entradas populares de este blog

Linux Mango - las distribución Dominicana