An wievielter Stelle taucht der Status "Crawled - currently not indexed" (oder Gecrawlt -- zurzeit nicht indexiert") in Deinem Coverage-Excluded-Report in der GSC auf? Lass mich raten - er ist auf jeden Fall in den Top 5 dabei?
Laut
Onely
sind diese URLs, die in diesem Bericht einlaufen, sehr verbreitet. Ich kann das nur bestätigen: 20 von 20 geprüfter Properties aus unserem Pool haben den Status "Crawled - currently not indexed" in den Top 5. Bei den meisten steht es an 3. oder 4. Stelle.
Die URLs werden also vom Googlebot gefunden und gecrawlt. Das ist schon mal gut. Aber in den Index packt Google sie leider nicht. Wieso?
Sicher hast Du Dir auch schon mal die in der GSC verlinkten weiteren Infos und folgende "hilfreiche"
Erklärung
durchgelesen:
"Crawled - currently not indexed: The page was crawled by Google, but not indexed. It may or may not be indexed in the future; no need to resubmit this URL for crawling."
Beziehungsweise auf Deutsch:
"Gecrawlt -- zurzeit nicht indexiert: Die Seite wurde von Google gecrawlt, aber nicht indexiert. Sie könnte jedoch in Zukunft indexiert werden. Sie brauchen diese URL nicht noch einmal zum Crawling einzureichen."
Und Dir gedacht... Ja okay... "it may or may not be indexed in the future"... was bringt mir diese Info jetzt? Soll ich was tun? Kann ich was machen? Und wenn ja: Was?
Ein schöner kleiner
Thread von Onely bei Twitter
nimmt die Ursachen, die zu diesen gefundenen, gecrawlten, aber nicht indexierten URLs führen, etwas genauer unter die Lupe. Und hat gleich noch Tipps parat, was Du unternehmen kannst, um die Auslöser zu beheben.
Indexing delay
Eine Verzögerung bei der Indexierung ist nicht außergewöhnlich. Nur gut die Hälfte aller URLs wird laut einer Studie innerhalb des ersten Tages nach ihrer Veröffentlichung indexiert.
Vielleicht braucht es also einfach etwas Geduld und ein wenig Nachhilfe. Zum Beispiel mittels optimierter XML-Sitemaps und interne Verlinkung.
Page doesn't meet quality standards
Wenn die Ursache dafür, dass Deine Inhalte nicht in den Index aufgenommen werden, auf ihre Qualität zurückzuführen sind, solltest Du schleunigst Deine Hausaufgaben machen.
Dieser kleine Guide von Google
hilft Dir dabei!
Übrigens haben die meisten Websites heutzutage technisch einen ausreichend guten Stand, weswegen es umso wahrscheinlicher ist, dass der Content - oder die von ihm abwesende Qualität - ein Auslöser ist.
Page got deindexed
Das ist natürlich schade, wenn Du es geschafft hast, eine URL in den Index zu bringen und dann wird sie einfach wieder rausgenommen. Also natürlich nicht einfach so - aber auch hier ist wieder Qualität ein wichtiges Stichwort.
Website architecture issues
Wenn der Bot sich nicht zurechtfindet, kann das ebenfalls Folgen haben.
Daher solltest Du unbedingt sicherstellen, dass es da keine Schwierigkeiten und Stolperfallen gibt. Nicht nur für den Googlebot, sondern auch und gerade für menschliche Besucher.
Duplicate content issues
Last but not least darf ein echter Klassiker nicht fehlen: Duplicate Content. Das dieser sich nicht immer vermeiden lässt, wissen wir ja.
Aber umso wichtiger, dass Du mit Hilfe von Canonicals, XML-Sitemaps und interner Verlinkung unmissverständlich kommuniziert, welches die richtige Variante ist.
Soweit die Kurzfassung. Wenn Du das alles noch mal ausführlicher nachlesen möchtest, schau mal in diesen
Artikel von Tomek Rudzki
.
|