...Werde Fan von Starker Rücken bei Facebook Bandscheiben auf Twitter


Don’t feed the animal(s)

17. August 2007 von Christoph Weigand  
Abgelegt unter: Blogging

Vom Fütterungsverbot etwas irritiert erschrocken habe ich mir kürzlich die Treffer zu einigen meiner Beiträge auch etwas genauer angesehen: Kommentar-Feeds ohne Ende in den Suchergebnissen.

Da ich bisher keinen blassen Schimmer hatte, wie man dieses Phänomen über die robots.txt verhindern kann, habe ich mir erlaubt, den Vorschlag von compboard einfach zu übernehmen (danke !).

Nun ja, die robots.txt scheint in dieser Form zu funktionieren (verkündete auch damals die robots.txt -Analyse), nach fünf Tagen melden die Tools für Webmaster 138 von der robots.txt eingeschränkte URLs:

wmt

Kein Einbruch bei den Besucherzahlen, auch sonst keine Probleme. Ich hoffe das bleibt so.

Frage: ist es eigentlich sinnvoll, bei der bevorzugten Domain in den Webmaster-Tools die Auswahl mit/ohne “www” zu treffen ?
Bisher habe ich keine Zuordnung festgelegt. Aber wenn ohnehin eine Weiterleitung domain.de auf w ww.domain.de gesetzt ist, werden die Suchergebnisse doch sowieso immer mit “www” angezeigt und man benötigt keine bevorzugte Domain, oder ? Jeden Tag neue Fragen tz tz ;-)

Kommentare:

14 Kommentare zu “Don’t feed the animal(s)”
    • Boje sagt:

      Was war denn damit: http://www.bojeonline.de/2006/12/20/neues-plugin-vermeidet-duplicate-content/#comment-3088 ?
      Dachte, Du machst das auch so. Denn hättest Du solche Probleme nicht.

    • Habe ich auch verwendet. Gab aber dann (entweder mit WPSEO oder mit Optimal Title) ein Problem. Habe aber damals auch so viel ausgetestet, daß ich gar nicht mehr wußte, was das auslösende Moment war.

      Jetzt läuft’s halt über die robots.txt (bisher ohne negative Konseqoenzen und das beruhigt mich immer ungemein ;-) )

    • Bitte bitte, gern’ geschehen! Für’s “einfache Übernehmen” habe ich den Beitrag doch geschrieben ;-)

      >Kein Einbruch bei den Besucherzahlen, auch sonst keine Probleme. Ich hoffe das bleibt so.

      Klar bleibt das so! Die Lösung mit der robots.txt ist die eleganteste und einfachste. Ich habe mittlerweile die ganzen Plugins (Don’t index my feed und Duplicate Content Cure und wie sie alle heißen) wieder rausgeschmissen… Mit den ganzen Plugins geht man den falschen Weg, wie sagt man so schön: “So wird das Pferd von hinten aufgezäumt” :-)

      Die Frage zu der Zuordnung kann ich nicht 100%ig beantworten, aber ich habe mir gedacht, wenn ich sowieso alles auf www.compboard.de weiterleite, kann ich genauso gut ***.compboard.de als bevorzugte Schreibweise festlegen. Schaden kann es nicht, nur nutzen.

    • Ups, ich wusste nicht, dass hier automatisch verlinkt wird… Da hätte ich doch besser meine eigene Domain eingetragen :-P
      Nein, Spaß beiseite. Nimm die Links ruhig wieder raus oder setz’ starker-ruecken.com ein, ist als Beispiel ja noch besser

    • Kein Problem Matthias, kannst gern noch einen Link für Dein Beispiel haben ^^ – ich seh’ das (zumindest in solchen Fällen) nicht so eng und der Link bleibt schließlich in Hessen ;-) .
      Muß mal checken, wieviele Backlinks eigentlich domain.de hat – müssen doch Unmengen sein, oder ?

    • Oh, da ist aber jemand früh aufgestanden ;-)
      Vielen Dank, war eigentlich wirklich nur Spaß. Mir ist wieder eingefallen, wie das Beispiel eigentlich aussehen müsste: www.domain.tld (wird das auch automatisch verlinkt?)
      Zu den Backlinks von domain.de:
      Alexa sagt 146
      webuildpages.com sagt 95, davon 53 ohne Anchor text
      linkvendor.com sagt 137 (Google), 2192 (MSN), 37738 (Yahoo)

      Schon verrückt, aber ich hätte mal gerne eine richtige Analyse zu den Linktexten. Kennt da jemand ein gutes Tool?

    • Für die Linktexte war bei Matthias glaub ich einer dabei:
      http://www.rentaseo.de/seo-tools-suma/online-backlink-check/

      Hau’ jetzt ab nach Köln ;-) Bis dann…

    • @boje
      Bei Deiner Lösung werden aber nicht die Feeds und Kommentare etc. von der Indexierung ausgeschlossen (das war die Absicht). Galt ja nur für Achiv und Kategorien.
      Ich hab’ da eben was Interessantes festgestellt, schreibe morgen darüber.

    • Boje sagt:

      Oo Stimmt, dafür muß dann doch die robots herhalten.

    • Boje sagt:

      Bin gerade dabei, meine Todo-Liste abzuarbeiten und lese gerade:
      “Außerdem berücksichtigt die Blog-Suche robots.txt-Dateien und NOINDEX, NOFOLLOW-Metatags”

      Das heißt, wenn jemand viel Besucher über die Google Blogsuche hat, sollte er die Finger davon lassen.
      Die G-Blogsuche aquiriert ihre Ergebnisse aus den Newsfeeds der Blogs.

      Welche Einträge hast Du in Deiner Robots, um die Feeds nicht indizieren zu lassen?

      Disallow: /feed/ #der Newsfeed muß nicht indiziert werden
      Disallow: /wp-rss2.php #der Newsfeed muß nicht indiziert werden
      Disallow: /wp-atom.php #der Newsfeed muß nicht indiziert werden
      Disallow: /?feed=rss2 #der Newsfeed muß nicht indiziert werden
      Disallow: /?feed=atom #der Newsfeed muß nicht indiziert werden

      Hab ich was vergessen?

    • Das Problem bearbeite ich auch gerade. Nachdem ich komplett aus der Blogsuche verschwunden war (will ich noch in einem separaten Beitrag posten), bin ich schwer am Überlegen, was ich in die Robots ‘reinschreibe. Momentan habe ich gerade “Disallow” komplett ‘rausgenommen.
      Kennst Du das hier:
      http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=40367
      -> macht mich irgendwie auch nicht schlauer.

      Disallow: /blog/feed/
      (und auch rss2) war auf jeden Fall ganz schlecht.
      Überall steht (selbst bei gleicher Verzeichnisstruktur) was anderes in der Robots.
      Bin also noch am recherchieren…

    • Auch noch interssant, auch mit den unterschiedlichen Meinungen in den Kommentaren:
      http://www.suchmaschinen-optimierung-seo.info/sosblog/2007/07/16/fuettern-verboten-feeds-jetzt-draussen/

      Mit Gerald hatte ich mich dann auch nochmal in Verbindung gesetzt und er hatte noch diese zwei Links ausgegraben:
      http://sw-guide.de/webdesign-und-entwicklung/feeds-von-suchmaschinen-ausschliessen/
      http://www.texto.de/texto/seo-wordpress-doppelter-content-feeds-aus-suchergebnissen/

      Werde das alles mal durcharbeiten…

    • @Boje
      hab’ jetzt was dazu geschrieben:
      -> Startseite

Trackbacks

Das sagen andere Blogs zu diesem Artikel:
  1. [...] zwei Wochen hatte ich mir aufgrund des Fütterungsverbotes bei Gerald Gedanken über die Entsorgung meines Kommentar-Feeds aus den Suchergebnissen gemacht. Also schritt ich guter Dinge zur Tat und fütterte meine [...]



Hier kannst Du kommentieren:

Teil mir Deine Meinung zu diesem Artikel mit:

Vielleicht von Interesse für Dich: