Jethro schrieb:
Man findet damit auch nicht weniger als mit Google, seit Anfang des Jahres nutze ich Bing, bisher hab ich immer relativ schnell alles gefunden was ich gesucht hab.
Das kannst du mal gepflegt ins Klo spülen. Ich bin in der Position, das ganze von der technischen Seite her beleuchten zu können, da wir auf unseren Servern mehr als genug Webseiten betreiben. Hier fällt auf:
- Bing-Bot indiziert viel seltener als Google
- Änderungen am Content werden bei Bing viel langsamer übernommen
- Bing hat deutlich schlechteren Support für HTML Microdata (z.B. Schema.org oder OpenGraph) und semantisches HTML5. Das verschlechtert die Ergebnisse noch weiter
Teilweise braucht Bing sogar länger als Yandex...
F_GXdx schrieb:
Es ist schon gut, dass es Bing gibt. An dem Tag, an dem Google mal ausfällt, werde ich es benutzen.
Nä, dann eher Duckduckgo... Ok, warn Witz.
Crankson schrieb:
Ihr wisst schon warum die Ergebnisse bei Google so "Gut" sind, oder?!
Unter anderem, weil sie den mit Abstand besten Crawler haben. Keiner hält sich so gut wie der an die Robots.txt. Keiner navigiert die Sitemap.xml so effizient.
Weil ihr euch Jahrelang ausspionieren habt lassen und Google genau weiß, was ihr für Ergebnisse wollt und was eure Interessen sind. (basierend auf Suchanfragen und den Seiten die ihr besucht habt) Das wissen die bei Google mittlerweile nämlich sogar besser als ihr selbst. Wenn ihr die letzten 10 Jahre Bing genutzt hättet (angenommen das würde es schon so lange geben) dann würdet ihr zu 99% die genau gleichen Ergebnisse bekommen.
Die großen Betreiber, egal welchen du anguckst, arbeiten mit SCHWARM-Daten. Denen sind deine persönlichen Porno-Schlagworte scheißegal, das mischt sich in den Schwarm unter, denn nur so profitieren ALLE Mitglieder des Schwarms.
Auch mit anderen Suchmaschinen bekommt man durchaus akzeptable Ergebnisse. Ich persönlich kann jedem nur
https://duckduckgo.com/ empfehlen. Anonym und sicher, mit vielen Einstellungsmöglichkeiten noch dazu. (Bei Region/Language auf jeden Fall Deutsch/Deutschland einstellen)
Auch die müssen entweder mit Schwarmdaten arbeiten, oder die Suchergebnisse sind schlichtweg unbrauchbar. Das einfachste Maß für solche Schwarmdaten ist die CTR, und wenigstens die müssen die ach so anonymen Suchmaschinen erfassen.
Aber: so schlecht wie deren Crawler sind, kann da nichts rauskommen.
Ich hab grad mal eben auf einem unserer Server >200MB Access.log - Dateien nach dem DuckDuckBot durchsucht... 0 Hits. So "toll" ist dieser Bot.
Also Fazit für Dummies:
Wenn in >200 MB Logdateien ein Bot nicht auftaucht, dann hat dieser Bot zwischen abertausenden anderen Zugriffen (ein Zugriff löst vielleicht 1-200 Byte an Log aus) die Seite nicht besucht. Der Bot konnte keine Inhalte auslesen. Er konnte nicht erfassen, ob es neue Inhalte gibt. Er kann einem Suchenden schlichtweg NICHTS von dieser Seite anbieten.