+ Antworten
Seite 2 von 3 ErsteErste 1 2 3 LetzteLetzte
Ergebnis 11 bis 20 von 25

Thema: Blockierte Ressourcen durch...?

  1. #11
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    128
    Bedankte sich
    35
    Erhielt 4 Danksagungen
    in 4 Beiträgen

    Standard

    Danke Faro.

    Wenn man nur Joomla lernt, lernt man nicht zwingend, warum wo was abgelegt und ggf. wieder (für den googlebot) freigeschaltet werden muss. Ich hab mirs jetzt wirklich für den Winter vorgenommen, zumindest alles was hinter den Zugriffen und Freischaltung der Pfade steckt, zu lernen.

  2. #12
    Verbringt hier viel Zeit Avatar von faro02
    Registriert seit
    06.03.2006
    Ort
    HRO
    Beiträge
    628
    Bedankte sich
    50
    Erhielt 69 Danksagungen
    in 69 Beiträgen

    Standard

    Das ist alles nicht so Problematisch. Wenn Du was nachinstallierst, schau einfach ab und zu in deine Google Search Console. Die Angemeckerten Ordner dann einfach Freigeben und Fertig. SEO ist halt auch etwas Arbeit.

    Gruß Faro

  3. Erhielt Danksagungen von:


  4. #13
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    128
    Bedankte sich
    35
    Erhielt 4 Danksagungen
    in 4 Beiträgen

    Standard

    O.k., stimmt eigentlich. Danke.

  5. #14
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    128
    Bedankte sich
    35
    Erhielt 4 Danksagungen
    in 4 Beiträgen

    Standard

    Hallo,
    noch eine Anmerkung:
    Für 95% meiner Artikel verwende ich die Komponente "Zoo".
    Am 18.11.2016 habe ich folgende robots.txt eingefügt:
    User-agent: *
    Disallow: /administrator/
    Disallow: /cache/
    Disallow: /cli/
    Disallow: /components/
    Disallow: /includes/
    Disallow: /installation/
    Disallow: /language/
    Disallow: /libraries/
    Disallow: /logs/
    Disallow: /modules/
    Disallow: /plugins/
    Disallow: /tmp/

    Allow: /plugins/system/jcemediabox/

    Jetzt zeigt der robots.txt-Tester folgende Fehlerzeilen:
    Disallow: /components/
    Disallow: /modules/
    Hab die Zeilen gelöscht.

    P.S.: Da der Fehler evtl. nicht nur im Inhalt, sondern beim speichern liegen könnte, habe ich hier noch eine Frage gestellt.
    Es geht ja dabei nicht mehr speziell um ein Plugin. Ist für einen robots.txt-Anfänger vermutlich das Beste.

  6. #15
    Wohnt hier Avatar von JoomlaWunder
    Registriert seit
    03.03.2010
    Ort
    Nordseeküste
    Beiträge
    3.748
    Bedankte sich
    184
    Erhielt 871 Danksagungen
    in 847 Beiträgen

    Standard

    Wenn du die robots.txt änderst, dann musst du erst warten, bis der bot vorbeikommt und diese übernimmt. Oder du nutzt die Webmastertools, um Google mitzuteilen, dass es eine neue robots.txt gibt. Dann wird diese <1 Minute übernommen.

    Die Fehlerzeilen kann ich mir aber nicht erklären, es sei denn, du hast da syntaxmäßig etwas falsch geschrieben.
    Geändert von JoomlaWunder (25.11.2016 um 10:49 Uhr)
    Gruß!
    JoomlaWunder
    Kein Support per PN!
    Konnte ich helfen? -> Dann bitte den "Danke"-Button klicken!

  7. Erhielt Danksagungen von:


  8. #16
    Verbringt hier viel Zeit Avatar von faro02
    Registriert seit
    06.03.2006
    Ort
    HRO
    Beiträge
    628
    Bedankte sich
    50
    Erhielt 69 Danksagungen
    in 69 Beiträgen

    Standard

    Setze die Zeile "Allow: /plugins/system/jcemediabox/" direkt unter Plugins. Vermeide Leerzeilen. Da es sich um eine Text Datei handelt, kann es sein, dass einige Robots eine Leerzeile als Ende der robots.txt deuten. (Ist nur meine eigene Erfahrung)

    Wenn auch Zoo Ordner angemeckert werden, schau in deine Search Console und gebe die Ordner frei.
    Geändert von faro02 (25.11.2016 um 10:51 Uhr)

  9. Erhielt Danksagungen von:


  10. #17
    Wohnt hier Avatar von JoomlaWunder
    Registriert seit
    03.03.2010
    Ort
    Nordseeküste
    Beiträge
    3.748
    Bedankte sich
    184
    Erhielt 871 Danksagungen
    in 847 Beiträgen

    Standard

    Mit Leerzeilen hatte ich selber googlemäßig noch keinerlei Probleme. Alle Angaben werden beachtet. Eventuell hast du (frieder) irgendwelche falschen Einstellungen in winSCP?
    Nutze eventuell mal einen anderen Editor!
    Gruß!
    JoomlaWunder
    Kein Support per PN!
    Konnte ich helfen? -> Dann bitte den "Danke"-Button klicken!

  11. Erhielt Danksagungen von:


  12. #18
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    128
    Bedankte sich
    35
    Erhielt 4 Danksagungen
    in 4 Beiträgen

    Standard

    Danke für eure Beiträge. Habe die Leerzeile mal "vorsorglich" entfernt.

    Bisher dachte ich, dass ich über robots.txt-Texter und den folgenden Senden-Button nur die r... ändern und hochladen kann. Dass dabei neu gecrawelt wird, war mit nicht klar.
    Habs gleich versucht. Die neue robots.txt ist jetzt im Tester hinterlegt.

  13. #19
    Verbringt hier viel Zeit Avatar von faro02
    Registriert seit
    06.03.2006
    Ort
    HRO
    Beiträge
    628
    Bedankte sich
    50
    Erhielt 69 Danksagungen
    in 69 Beiträgen

    Standard

    Zitat Zitat von frieder Beitrag anzeigen
    Danke für eure Beiträge. Habe die Leerzeile mal "vorsorglich" entfernt.

    Bisher dachte ich, dass ich über robots.txt-Texter und den folgenden Senden-Button nur die r... ändern und hochladen kann. Dass dabei neu gecrawelt wird, war mit nicht klar.
    Habs gleich versucht. Die neue robots.txt ist jetzt im Tester hinterlegt.
    Diese Eingabe ist nur Temporär. Du musst natürlich die geänderte ebenfalls per FTP in deinen Root laden. Sonst holt der bot einige Tage später wieder die alte robots.txt ab.

  14. Erhielt Danksagungen von:


  15. #20
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    128
    Bedankte sich
    35
    Erhielt 4 Danksagungen
    in 4 Beiträgen

    Standard

    Separat hochgeladen hatte ich die neue robots.txt.

    Jetzt wird mir erst klar, warum man Geduld braucht:
    • 24.11.2016 990 blockierte Seiten
    • 25.11.2016 neue robots.txt hochgeladen
    • 25.11.2016 lt. Crawlingstatistik 69 Seiten gecrawlt. (Schwankung bisher 18 - 2831)
    • 26.11.2016 979 blockierte Seiten

    Die Reduzierung der blockierten Seiten erfolgt nicht in einem Rutsch, sondern je nach Anzahl der gecrawlten fehlerhaften Seiten. Die hängt, und davon gehe ich aus, von meinen Einstellungen in der Sitemap und von der Menge der Änderungen auf meinen Seiten ab.
    Geändert von frieder (27.11.2016 um 08:31 Uhr)

+ Antworten
Seite 2 von 3 ErsteErste 1 2 3 LetzteLetzte

Stichworte

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein