Der Googlebot kann nicht auf CSS- und JS-Dateien auf xyz.de zugreifen

Google+Ich bin ziemlich erschrocken, als ich die Meldung in meinem Posteingang gesehen habe, dass der Googlebot nicht auf CSS- und JS-Dateien meiner Webseite zugreifen kann. Als die Meldung dann gleich für eine ganze Reihe meiner Webseiten eintrudelte, dachte ich schon an Server-Probleme. Aber auch Google ist wohl nicht perfekt.

Falscher Alarm?

Meine Webseiten laufen ganz normal, wie bisher sonst auch. Daher hab ich mir die Meldung in den Webmaster-Tools mal genauer angeschaut:

Google Search Console: CSS- und JS-Problem?

Beim „Abruf wie druch Google“ gab es keine Probleme. Daher kann man getrost von einem Fehlalarm ausgehen.

Trotzdem habe ich mir die robots.txt noch mal etwas eingehender angeschaut.

User-agent: *
Disallow: /wp-admin/

Im Prinzip wird nur der Admin-Bereich von WordPress gesperrt. Was soweit eigentlich der Standard ist.

admin-ajax.php ist schuld

Den „Schuldigen“ habe ich dann auch schnell entdeckt. WordPress bietet die Möglichkeit AJAX-Funktionen aufzurufen. Und da ich Wordfence einsetze, um meine Blogs abzusichern, gibt es hier natürlich auch den ein oder anderen Aufruf.

/wp-admin/admin-ajax.php?action=wordfence_logHuman

Warum Google hier jedoch eine Warnung verschickt, als ob das Abendland untergegangen wäre, ist mir dann doch ein Rätsel. Seither war es dem Googlebot scheinbar egal. Und nur weil Google keinen Zugriff auf meine Wordfence-Scripte hat, sollen nun „schlechtere Rankings“ kommen? Ich glaube eher nicht!

Interessant wäre nur, wie viele andere Webmaster heute eine solche Meldung bekommen haben. Beim Googeln nach dem Teilbegriff „Der Googlebot kann nicht auf CSS- und JS-Dateien“ habe ich bis jetzt nur eine Meldung erhalten. Scheint also so, als ob das eben erst losgegangen ist. Welche Erfahrungen habt ihr gemacht?



11 comments ↓

#1   Uwe on 07.28.15 at 18:06

Hallo Tobi,

ja, auch wir hatten die falsche Meldung von Google bisher für eine unserer Websites, http://www.Erfolgreiche-Gastgeber.de, erhalten. Und auch wir kamen zu der Erkenntnis, dass die Info lediglich heiße Luft darstellte.
Beste Grüße
Uwe

#2   Ralf on 07.28.15 at 18:08

Hi Tobias,

ich hab fast täglich HTTP-404-Errors in meinen Log-Dateien angeblich nicht vorhandener Dateien, Bilder, Verzeichnisse, die Google versuchte, aufzurufen.

Erst war ich auch sehr erschrocken. Aber immer wieder durchgeführte Tests zeigen, dass diese Dateien, Bilder, Verzeichnisse sehr wohl vorhanden und aufrufbar sind.

Seitdem gebe ich auf diese Google-Fehlermeldungen nichts mehr. Wenn Google zu bl…d ist, meine Seiten aufzurufen, dann haben sie halt Pech gehabt.

Liebe Grüße
Ralf

#3   Tobias on 07.28.15 at 18:16

@Uwe
Wann habt ihr denn die Meldung bekommen? Auch heute oder schon früher?

@Ralf
Die 404-Fehler haben mit der robots.txt erst mal nichts zu tun. Aber auch hier ist Google wohl nicht perfekt. Ich hatte da auch schon etliche unsinnige Meldungen. Teilweise hatte ich aber auch schon das Phänomen, dass WordPress sporadische 404-Fehler liefert. Die Ursache konnte ich hier leider noch nicht ermitteln.

#4   Michael on 07.28.15 at 18:41

Habe zu diversen WordPress-Seiten ebenfalls gerade die Email bekommen. Dort habe ich auch Wordfence im Einsatz.

Allerdings:
ich habe die Meldung auch zu einigen mit Joomla erstellten Seiten bekommen…

#5   Tobias on 07.28.15 at 18:47

Ich vermute Google hat hier intern was an der Benachrichtigung zum CSS- und JS-Zugriff angepasst. Aber wohl etwas zu streng. Neben Wordfence wird es noch viele weitere Scripte geben, die beim User-Zugriff geladen werden, die aber weder für den User noch für Google eine Rolle spielen, was den Inhalt betrifft und deshalb auch per robots.txt gesperrt werden können.

#6   Carl-Frederic Korn on 07.28.15 at 18:57

Ich habe heute die gleiche Meldung erhalten. Bisher aber erst für eine meiner Webseiten. Ich gehe davon aus, dass noch einige kommen werden. Die Meldung bei mir hat sich auch auf Wordfence bezogen. Ich werde diesbezüglich aber vorerst keine Änderungen durchführen.

#7   Michael on 07.28.15 at 18:59

Bei einer meiner Seiten wäre das unter WordPress z.B.:

/wp-includes/js/wp-emoji-release.min.js?ver=4.2.3

/wp-includes/js/jquery/jquery.js?ver=1.11.2

/wp-includes/js/jquery/jquery-migrate.min.js?ver=1.2.1

/wp-includes/js/jquery/ui/core.min.js?ver=1.11.4

/wp-includes/js/jquery/ui/widget.min.js?ver=1.11.4

/wp-includes/js/jquery/ui/button.min.js?ver=1.11.4

und

/wp-admin/admin-ajax.php?action=wordfence_logHuman&hid=D1C93F4A1286291…

#8   Tobias on 07.28.15 at 19:06

Ich denke, bei Wordfence ist es egal. Das Plugin ist ja nicht relevant für die Darstellung oder für’s Nachladen von Inhalten.

Bei jQuery sieht es schon wieder anders aus. Weil hiermit ja meist aktiv die Darstellung beeinflusst wird. Allerdings stellt sich die Frage, ob Google nicht nur das Resultat des endgültigen Renderings berücksichtigen sollte?

Im Prinzip braucht Google ja die Scripte nicht zu crawlen, bei jQuery ist das ja immer gleich und verursacht unnötigen Crawler-Traffic.

#9   Michael on 07.28.15 at 19:25

In den Webmaster Tools sieht es beim Rendering eigentlich gut aus… ich kann jedenfalls oberflächlich keinen Unterschied feststellen.

Beispiel wäre:
https://flowersonmyplate.de

#10   Tobias on 07.28.15 at 19:32

Vermutlich führt Google die Scripte beim Rendering trotzdem aus. Theoretisch dürfte das Google nicht, macht es aber trotzdem. Vielleicht deswegen die Meldung.

Wie gesagt, bei jQuery mag das ja noch Sinn machen. Aber bei reinen Security- und Statistik-Scripten halte ich das für überflüssig.

#11   Uwe on 07.29.15 at 09:31

@Tobias
Ich hatte die Meldung erstmals gestern erhalten. Später kamen auch noch weitere mit derselben Nachricht, jedoch für andere Websites (auch ohne das CMS WordPress).

Schreibe einen Kommentar

Benachrichtigung per Mail bei weiteren Kommentaren.