+ Antworten
Seite 2 von 3 ErsteErste 1 2 3 LetzteLetzte
Ergebnis 11 bis 20 von 24

Thema: Blockierte Ressourcen durch...?

  1. #11
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    112
    Bedankte sich
    28
    Erhielt 3 Danksagungen
    in 3 Beiträgen

    Standard

    Danke Faro.

    Wenn man nur Joomla lernt, lernt man nicht zwingend, warum wo was abgelegt und ggf. wieder (für den googlebot) freigeschaltet werden muss. Ich hab mirs jetzt wirklich für den Winter vorgenommen, zumindest alles was hinter den Zugriffen und Freischaltung der Pfade steckt, zu lernen.

  2. #12
    Verbringt hier viel Zeit Avatar von faro02
    Registriert seit
    06.03.2006
    Ort
    HRO
    Beiträge
    602
    Bedankte sich
    50
    Erhielt 65 Danksagungen
    in 65 Beiträgen

    Standard

    Das ist alles nicht so Problematisch. Wenn Du was nachinstallierst, schau einfach ab und zu in deine Google Search Console. Die Angemeckerten Ordner dann einfach Freigeben und Fertig. SEO ist halt auch etwas Arbeit.

    Gruß Faro

  3. Erhielt Danksagungen von:


  4. #13
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    112
    Bedankte sich
    28
    Erhielt 3 Danksagungen
    in 3 Beiträgen

    Standard

    O.k., stimmt eigentlich. Danke.

  5. #14
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    112
    Bedankte sich
    28
    Erhielt 3 Danksagungen
    in 3 Beiträgen

    Standard

    Hallo,
    noch eine Anmerkung:
    Für 95% meiner Artikel verwende ich die Komponente "Zoo".
    Am 18.11.2016 habe ich folgende robots.txt eingefügt:
    User-agent: *
    Disallow: /administrator/
    Disallow: /cache/
    Disallow: /cli/
    Disallow: /components/
    Disallow: /includes/
    Disallow: /installation/
    Disallow: /language/
    Disallow: /libraries/
    Disallow: /logs/
    Disallow: /modules/
    Disallow: /plugins/
    Disallow: /tmp/

    Allow: /plugins/system/jcemediabox/

    Jetzt zeigt der robots.txt-Tester folgende Fehlerzeilen:
    Disallow: /components/
    Disallow: /modules/
    Hab die Zeilen gelöscht.

    P.S.: Da der Fehler evtl. nicht nur im Inhalt, sondern beim speichern liegen könnte, habe ich hier noch eine Frage gestellt.
    Es geht ja dabei nicht mehr speziell um ein Plugin. Ist für einen robots.txt-Anfänger vermutlich das Beste.

  6. #15
    Wohnt hier Avatar von JoomlaWunder
    Registriert seit
    03.03.2010
    Ort
    Nordseeküste
    Beiträge
    3.584
    Bedankte sich
    183
    Erhielt 829 Danksagungen
    in 807 Beiträgen

    Standard

    Wenn du die robots.txt änderst, dann musst du erst warten, bis der bot vorbeikommt und diese übernimmt. Oder du nutzt die Webmastertools, um Google mitzuteilen, dass es eine neue robots.txt gibt. Dann wird diese <1 Minute übernommen.

    Die Fehlerzeilen kann ich mir aber nicht erklären, es sei denn, du hast da syntaxmäßig etwas falsch geschrieben.
    Geändert von JoomlaWunder (25.11.2016 um 11:49 Uhr)
    Gruß!
    JoomlaWunder
    Kein Support per PN!
    Konnte ich helfen? -> Dann bitte den "Danke"-Button klicken!

  7. Erhielt Danksagungen von:


  8. #16
    Verbringt hier viel Zeit Avatar von faro02
    Registriert seit
    06.03.2006
    Ort
    HRO
    Beiträge
    602
    Bedankte sich
    50
    Erhielt 65 Danksagungen
    in 65 Beiträgen

    Standard

    Setze die Zeile "Allow: /plugins/system/jcemediabox/" direkt unter Plugins. Vermeide Leerzeilen. Da es sich um eine Text Datei handelt, kann es sein, dass einige Robots eine Leerzeile als Ende der robots.txt deuten. (Ist nur meine eigene Erfahrung)

    Wenn auch Zoo Ordner angemeckert werden, schau in deine Search Console und gebe die Ordner frei.
    Geändert von faro02 (25.11.2016 um 11:51 Uhr)

  9. Erhielt Danksagungen von:


  10. #17
    Wohnt hier Avatar von JoomlaWunder
    Registriert seit
    03.03.2010
    Ort
    Nordseeküste
    Beiträge
    3.584
    Bedankte sich
    183
    Erhielt 829 Danksagungen
    in 807 Beiträgen

    Standard

    Mit Leerzeilen hatte ich selber googlemäßig noch keinerlei Probleme. Alle Angaben werden beachtet. Eventuell hast du (frieder) irgendwelche falschen Einstellungen in winSCP?
    Nutze eventuell mal einen anderen Editor!
    Gruß!
    JoomlaWunder
    Kein Support per PN!
    Konnte ich helfen? -> Dann bitte den "Danke"-Button klicken!

  11. Erhielt Danksagungen von:


  12. #18
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    112
    Bedankte sich
    28
    Erhielt 3 Danksagungen
    in 3 Beiträgen

    Standard

    Danke für eure Beiträge. Habe die Leerzeile mal "vorsorglich" entfernt.

    Bisher dachte ich, dass ich über robots.txt-Texter und den folgenden Senden-Button nur die r... ändern und hochladen kann. Dass dabei neu gecrawelt wird, war mit nicht klar.
    Habs gleich versucht. Die neue robots.txt ist jetzt im Tester hinterlegt.

  13. #19
    Verbringt hier viel Zeit Avatar von faro02
    Registriert seit
    06.03.2006
    Ort
    HRO
    Beiträge
    602
    Bedankte sich
    50
    Erhielt 65 Danksagungen
    in 65 Beiträgen

    Standard

    Zitat Zitat von frieder Beitrag anzeigen
    Danke für eure Beiträge. Habe die Leerzeile mal "vorsorglich" entfernt.

    Bisher dachte ich, dass ich über robots.txt-Texter und den folgenden Senden-Button nur die r... ändern und hochladen kann. Dass dabei neu gecrawelt wird, war mit nicht klar.
    Habs gleich versucht. Die neue robots.txt ist jetzt im Tester hinterlegt.
    Diese Eingabe ist nur Temporär. Du musst natürlich die geänderte ebenfalls per FTP in deinen Root laden. Sonst holt der bot einige Tage später wieder die alte robots.txt ab.

  14. Erhielt Danksagungen von:


  15. #20
    War schon öfter hier
    Registriert seit
    15.12.2006
    Beiträge
    112
    Bedankte sich
    28
    Erhielt 3 Danksagungen
    in 3 Beiträgen

    Standard

    Separat hochgeladen hatte ich die neue robots.txt.

    Jetzt wird mir erst klar, warum man Geduld braucht:
    • 24.11.2016 990 blockierte Seiten
    • 25.11.2016 neue robots.txt hochgeladen
    • 25.11.2016 lt. Crawlingstatistik 69 Seiten gecrawlt. (Schwankung bisher 18 - 2831)
    • 26.11.2016 979 blockierte Seiten

    Die Reduzierung der blockierten Seiten erfolgt nicht in einem Rutsch, sondern je nach Anzahl der gecrawlten fehlerhaften Seiten. Die hängt, und davon gehe ich aus, von meinen Einstellungen in der Sitemap und von der Menge der Änderungen auf meinen Seiten ab.
    Geändert von frieder (27.11.2016 um 09:31 Uhr)

+ Antworten
Seite 2 von 3 ErsteErste 1 2 3 LetzteLetzte

Stichworte

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein