An uns wurde die Frage herangetragen, wie es zu teilweise unerklärlich hohen Klickzahlen auf Auktionsartikel kommt.
Nun, das ist eigentlich recht einfach zu beantworten.
Roboter bzw. unseriöse Spider akzeptieren in der Regel keine Cookies, kein Scripting usw. . Daher lassen sich deren "Besuche" nur mit erhöhtem Ressourcen Aufwand aus Statistiken herausfiltern. Dem entgegen steht die Gesamtperformance der Anwendung.
Am Beispiel Klicks auf Artikel Detailseiten: es werden die Klicks hier gezählt, also auch wenn Suchmaschinen wie Google drüberbügeln oder
neuerdings nervige Spionage Roboter wie zb. :
"webmeup" und sein nichts nutzender und Ressourcen verbrauchender bzw. Statistik verfälschender Spider, den man verbieten kann per robotx.txt Datei und hinzufügen folgender Zeilen:
User-agent: BLEXBot
Disallow: /
Ob ein Spider tatsächlich für die Klicks verantwortlich war, lässt sich zeitnah im access.log eine Web Servers herausfiltern. OnSite.org Server Kunden finden dieses im Verzeichnis "logs".