habichtfreak
Captain
- Registriert
- Aug. 2006
- Beiträge
- 3.554
Hallo,
ich habe seit ca. Ende Januar eine Top-Level Domain für meine nicht-kommerzielle Webseite (akkutests.de). Die Seite gibt es schon etwas länger, war aber nur über eine recht sperrige URL zu meinem Webspace erreichbar. Jetzt wo es eine TLD hat, würde es mich natürlich freuen wenn man die Tests auch über Suchmaschinen findet (vorher war mir das egal). Also habe ich Ende Januar die Property in der Google Search Console eingerichtet:
Anfangs wurden auch mehrere Seiten indexiert, aber kurz darauf wieder entfernt. An dieser Stelle sollte ich vielleicht dazu sagen, ich schreibe die komplette Webseite in Notepad++ selbst ohne irgendwelche Hilfsmittel.
Da ich (offensichtlich) kein Webdesigner bin, habe ich mich jetzt einem Monat damit beschäftigt warum Google die Seiten immer wieder aus dem Index entfernt. Ich hatte zB keine sitemap.xml. Also habe ich diese erstellt, die kann google auch lesen und es scheint damit keine Probleme zu geben.
Dann hatte ich auch keine metadaten ob die seiten indexiert werden sollen oder nicht und auch keine <link rel="canonical" href="....." Einträge sowie keine robots.txt. Das habe ich nachgeholt, und scheint auch funktioniert zu haben, denn einige Seiten soll google gar nicht indexieren was auch erkannt wurde (der große knick in der grauen kurve nach unten war genau dieser Zeitpunkt).
Weil die Seiten aber noch immer nicht im Index aufgenommen wurden, habe ich mich damit weiter beschäftigt was ich tun kann. Keywords und Beschreibung in den Metadaten sollen helfen fand ich als Tipp. Keywords habe ich hinzugefügt, Beschreibungen nicht immer. Geholfen hat auch das nicht. Google indexiert nur zwei Seiten (index.html und akkus15.html).
ich habe daraufhin in der Google Search Console das indexieren neu initialisiert, was etwa 10 Tage dauerte. Anschließend bekam ich eine Mail, dass es Probleme gibt und das ganze fehlgeschlagen ist. Ich habe mich also wieder eingeloggt um zu schauen was das Problem ist:
Seite mit Weiterleitung: Erklärt sich recht einfach, Google hat erkannt das akkutest.de und akkutests.de/index.html identisch sind
Duplikat: sind 4 PDF Dateien die Google bereits in Netz gefunden hat und die aus diesen Grund als Duplikate einstuft (das ist ok, die soll er auch nicht indexieren)
Gecrawlt - zurzeit nicht indexiert: hier sind all die Unterseiten die er nicht indexieren will, aber warum Google sich weigert, verstehe ich nicht. Schaue ich dort hinein wird auch keine Begründung angezeigt, nur welche Seiten es betrifft:

Unter Details werde ich auch nicht schlauer:

OK, eine html ist fehlgeschlagen, die anderen sind "ausstehend". Ausstehend würde ich so interpretieren, dass die bald indexiert werden. Die Erklärung hinter dem (?) sagt aber, dass es ist eine Probleminstanz gibt und solange die vorhanden ist, werden die Seiten nicht dem Index hinzugefügt. Nur was diese "Probleminstanz" ist, wird nicht angezeigt/erklärt. Aber vielleicht hat ja jemand von euch einen Tipp für mich.
Ich habe aus Interesse mal bei anderen Suchmaschinen geschaut, ob die meine Seiten indexiert haben (zugegebenermaßen habe ich keine dieser Suche bisher je selbst verwendet)
bing: 21 Treffer (die eine die Google als fehlgeschlagen anzeigt, ist bei bing indexiert)
Yahoo: 21 Treffer (die eine die Google als fehlgeschlagen anzeigt, ist bei yahoo indexiert)
duckduckgo: 18 Treffer
ecosia: ein Treffer (die Startseite)
Anscheinend habe ich nicht alles falsch gemacht, denn manche Suchmaschinen können die Seiten indexieren (auch ohne mein zutun). Mir ist natürlich auch klar, Google ist die größte Suchmaschine. Nur was muss ich tun, damit sie meine Seiten indexieren? Das manuelle Anstoßen habe ich bereits mehrfach versucht, ohne Erfolg.
Gruß habichtfreak
ich habe seit ca. Ende Januar eine Top-Level Domain für meine nicht-kommerzielle Webseite (akkutests.de). Die Seite gibt es schon etwas länger, war aber nur über eine recht sperrige URL zu meinem Webspace erreichbar. Jetzt wo es eine TLD hat, würde es mich natürlich freuen wenn man die Tests auch über Suchmaschinen findet (vorher war mir das egal). Also habe ich Ende Januar die Property in der Google Search Console eingerichtet:
Anfangs wurden auch mehrere Seiten indexiert, aber kurz darauf wieder entfernt. An dieser Stelle sollte ich vielleicht dazu sagen, ich schreibe die komplette Webseite in Notepad++ selbst ohne irgendwelche Hilfsmittel.
Da ich (offensichtlich) kein Webdesigner bin, habe ich mich jetzt einem Monat damit beschäftigt warum Google die Seiten immer wieder aus dem Index entfernt. Ich hatte zB keine sitemap.xml. Also habe ich diese erstellt, die kann google auch lesen und es scheint damit keine Probleme zu geben.
Dann hatte ich auch keine metadaten ob die seiten indexiert werden sollen oder nicht und auch keine <link rel="canonical" href="....." Einträge sowie keine robots.txt. Das habe ich nachgeholt, und scheint auch funktioniert zu haben, denn einige Seiten soll google gar nicht indexieren was auch erkannt wurde (der große knick in der grauen kurve nach unten war genau dieser Zeitpunkt).
Weil die Seiten aber noch immer nicht im Index aufgenommen wurden, habe ich mich damit weiter beschäftigt was ich tun kann. Keywords und Beschreibung in den Metadaten sollen helfen fand ich als Tipp. Keywords habe ich hinzugefügt, Beschreibungen nicht immer. Geholfen hat auch das nicht. Google indexiert nur zwei Seiten (index.html und akkus15.html).
ich habe daraufhin in der Google Search Console das indexieren neu initialisiert, was etwa 10 Tage dauerte. Anschließend bekam ich eine Mail, dass es Probleme gibt und das ganze fehlgeschlagen ist. Ich habe mich also wieder eingeloggt um zu schauen was das Problem ist:
Seite mit Weiterleitung: Erklärt sich recht einfach, Google hat erkannt das akkutest.de und akkutests.de/index.html identisch sind
Duplikat: sind 4 PDF Dateien die Google bereits in Netz gefunden hat und die aus diesen Grund als Duplikate einstuft (das ist ok, die soll er auch nicht indexieren)
Gecrawlt - zurzeit nicht indexiert: hier sind all die Unterseiten die er nicht indexieren will, aber warum Google sich weigert, verstehe ich nicht. Schaue ich dort hinein wird auch keine Begründung angezeigt, nur welche Seiten es betrifft:

Unter Details werde ich auch nicht schlauer:

OK, eine html ist fehlgeschlagen, die anderen sind "ausstehend". Ausstehend würde ich so interpretieren, dass die bald indexiert werden. Die Erklärung hinter dem (?) sagt aber, dass es ist eine Probleminstanz gibt und solange die vorhanden ist, werden die Seiten nicht dem Index hinzugefügt. Nur was diese "Probleminstanz" ist, wird nicht angezeigt/erklärt. Aber vielleicht hat ja jemand von euch einen Tipp für mich.
Ich habe aus Interesse mal bei anderen Suchmaschinen geschaut, ob die meine Seiten indexiert haben (zugegebenermaßen habe ich keine dieser Suche bisher je selbst verwendet)
bing: 21 Treffer (die eine die Google als fehlgeschlagen anzeigt, ist bei bing indexiert)
Yahoo: 21 Treffer (die eine die Google als fehlgeschlagen anzeigt, ist bei yahoo indexiert)
duckduckgo: 18 Treffer
ecosia: ein Treffer (die Startseite)
Anscheinend habe ich nicht alles falsch gemacht, denn manche Suchmaschinen können die Seiten indexieren (auch ohne mein zutun). Mir ist natürlich auch klar, Google ist die größte Suchmaschine. Nur was muss ich tun, damit sie meine Seiten indexieren? Das manuelle Anstoßen habe ich bereits mehrfach versucht, ohne Erfolg.
Gruß habichtfreak