Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wieso? Setze einen Honeylink auf die Seite, die beim Aufruf eine IP Sperre erzeugt und schon sperrst du alle Bots aus, ohne die Benutzer zu beeinträchtigen und auf gewisse Bots eingegrenzt zu sein
Ich habe das jetzt im Script selbst gemacht und es funzt super, zur Sicherheit stehen die ganzen BOTS auch in der htaccess. Wenn ich in meiner LOG schaue sehe ich lauter 301. Bis jetzt sehe ich nicht einen Spider der es geschafft hat, gut is. Danke.
@pcw
Mh, theoretisch ne Möglichkeit, aber würde fast behaupten, dass eine solche Funktion auf einem gewöhnlichen (Massen-)Webhost deaktiviert sein könnte, aus Sicherheitsgründen. Per PHP fummel ich ungern in der Prozessliste herum^^
@Renegade
Woher willste wissen, dass ein Bot darauf reinfällt oder nicht doch den richtigen Link aufruft? Mal abgesehen davon, das das ganze vieeeeel zu kompliziert ist für eine derart simple Aufgabe und einiges an Erfahrung und Testing bedarf.
Natürlich sagt keiner, das es eine 100% funktionsweise ist. Aber im Vergleich zu deiner Methode ist es eine Liste, die automatisch lernt und sich aktualisiert, daher in Zukunft wohl einen effektivieren Schutz bieten wird als eine statische Liste, die nur auf einigen aktuellen Spidern basiert.
Zudem sollten bei einer guten Implementierung ein Großteil der Spider darauf hereinfallen, denn was machen Spider schon großartig? Sie öffnen eine Seite, analysieren den Source Code, speichern die URLs die darin vorkommen und öffnen diese dann der Reihe nach, um weiter zu suchen. Wenn also die erste URL in der Liste der Honeylink ist, hat man schon gewonnen. Dazu sind mMn nach nicht gerade die größten Programmierkenntnisse erforderlich, zumal es dazu auch sicher gute Beispiele gibt, wie zu allem