Das Google Farmer Update und wir Autoren

1300913394|%d.%m.%Y

pagerank.png Eine Änderung in der Google-Bewertung sogenannter Content-Farmen ist auch für Autoren-Plattformen wie Newsgrape von Bedeutung!
(eigentlich veröffentlicht am 12.03.2011)

Es ist wie beim Wohnen. Den einen geht nichts über das eigene Haus, denn Freiheit bedeutet für sie Freiheit von Vermietern. Die anderen bevorzugen flüchtige Mietverträge, denn Freiheit bedeutet ihnen, flexibel zu sein und frei zu sein für schnelle Veränderungen. Die einen möchten lieber einen eigenen Root-Server, eine eigene Domain und selbst konfigurierte Server-Software, die anderen lieber Accounts bei attraktiven Service-Anbietern für Artikel, Fotos, Diskussionen und andere Inhalte. Das Web ist groß genug für alle. Eines haben jedoch alle gemeinsam, die bewusst im öffentlichen Web publizieren: sie legen Wert darauf, gefunden zu werden. Nun gab Google, das Maß aller Dinge für Auffindbarkeit im Web, kürzlich bekannt: sogenannte Content-Farmen mit vielen, meist minderwertigen Inhalten werden fortan stark benachteiligt, was die Auffindbarkeit in der Google-Suche betrifft. An sich nichts Schlimmes, und eigentlich sogar ein wichtiger Schritt, um reine Trittbrettfahrer-Plattformen aus der Bahn zu werfen, die, eingebettet in Werbung, nur Inhalte aus Wikipedia oder Feeds wiedergeben. Bei genauerem Hinsehen ergeben sich allerdings Fragen.

Auslöser ist der Artikel Finding more high-quality sites in search, veröffentlicht am 24.02.2011 im offiziellen Google Blog. Dort ist Googles Ankündigung, Sites mit minderwertigem Content im Ranking herabzustufen, im Wortlaut nachlesbar. Über das sogenannte „Farmer Update“, wie sich die Maßnahme nennt, wurde vielfach berichtet und nachgedacht (beispielsweise im SEO-Marketing-Blog: Google Farmer Update). Das Update im Google-Suchmaschinen-Algorithmus richtet sich typischerweise gegen Content-Farmen, die automatisiert Nachrichten oder andere Inhalte mit dem einzigen Zweck wiederveröffentlichen, suchende User von Suchmaschinen abzugreifen und diese mit Werbung zu bombardieren. Vorläufig soll die Maßnahme vor allem US-Sites betreffen, später aber auch auf andere Sprachen und Länder ausgeweitet werden. Insgesamt sollen immerhin 12% aller Angebote im Web von der starken Ranking-Abstufung des Farmer Updates betroffen sein.

Doch wer oder was ist konkret betroffen? Immerhin ist ja beispielsweise Newsgrape ebenfalls eine typische Content-Farm, und zwar eine Content-Farm im engeren Sinne: alle Artikel auf Newsgrape werden unter der Hauptdomain veröffentlicht, es gibt also keine separaten Subdomains wie etwa bei wordpress.com, blogspot.com und ähnlichen Anbietern. Subdomains kann Google als eigene Websites, also individuelle Zellen identifizieren und sie im Ranking anders einstufen als die zugehörige Hauptdomain. Bei einem URL-Konzept wie dem von Newsgrape ist das jedoch nicht möglich. Die gesamte Domain newsgrape.com steht und fällt mit der Qualität der Inhalte aller dort publizierenden Autoren. Solange die Domain bei Google als Lieferant für viel hochwertigen Primär-Content verzeichnet ist, profitieren alle Autoren direkt vom Ranking der Hauptdomain und genießen bei Google sogar höchstmögliche Reputation. Kommt es dagegen zu der Situation, dass die große Mehrheit der Autoren Newsgrape nur nutzt, um Inhalte aus anderen Quellen zu reproduzieren, beispielsweise mit der Absicht, sie im Rahmen des geplanten Advertising-Systems von Newsgrape noch einmal zu monetarisieren, dann zieht die Hauptdomain alle guten Einzelinhalte mit ins Verderben der Ranking-Abstufung. Der einstige Stern unter den freien Homepage-Anbietern, GeoCities, ging am Ende an der Masse seines minderwertigen Contents zu Grunde, obwohl es auf GeoCities so manche Content-Schätze gab. Auch bei GeoCities waren alle Inhalte unter der Hauptdomain versammelt.

Ist es aber tatsächlich so, dass Google alle Einzelinhalte einer abgewerteten Domain mit abwertet? Man sollte meinen, dass Google in der Lage ist, einzelne URLs zu gesondert zu bewerten, wenn diese bestimmte Charakteristika erfüllen. Ein Artikel etwa, dessen Inhalt sonst nirgends im Web unter früherem Datum zu finden ist, und der mehrfach verlinkt und retweetet wurde, sollte sich doch auch unter dem Dach einer Domain behaupten können, die ansonsten unter die Content-Farmer-Klausel fällt. Oder nicht? Jedenfalls war mir das eine Frage im Google-Hilfeforum wert: Publizieren bei Content-Farmen jetzt Igitt? Hier: Newsgrape u. Wikidot.

Eine eindeutige Antwort gab es dort letztlich nicht, doch es hat sich eine interessante Diskussion entsponnen. Eine eindeutige Antwort ist von Google auf eine solche Frage auch nicht zu erwarten, weil die Frage einige Details von Googles Ranking-Algorithmen berührt, die das Betriebsgeheimnis und Kerngeschäft von Google ausmachen. In der Diskussion wurde ich auf ein Statement des Google-Mitarbeiters "Wysz" zum Thema hingewiesen. Darin sagt dieser: „Unser neuliches Update ist geschaffen worden, um das Ranking minderwertiger Sites abzustufen, was für Webmaster bedeutet, dass es entscheidend ist sicherzustellen, Sites von möglichst hoher Qualität zu haben.“ (übersetzt). Und er fügt hinzu: „Es handelt sich um eine algorithmische Änderung, für die keine manuellen Ausnahmen vorgesehen sind.

Diese Antwort befriedigt mich keineswegs, sie beunruhigt mich eher. Irgendwann greift also gnadenlos der Abwertungs-Algorithmus. Wir wissen nicht, ob 5%, 10%, 25%, 50% oder 80% einer Site aus minderwertigem Repeat-Content bestehen kann, bevor er greift, aber irgendwo ist die Grenze. Bei eigenen Sites mit ausschließlich eigenen Inhalten ist das Sicherstellen von hochwertigem Primär-Content kein Thema. Aber bei Sites mit user generated Content in einer Größenordnung, die nicht mehr redaktionell kontrollierbar ist? Das ist schließlich der Normalfall im Web 2.0. Und was ist mit Sites wie etwa Twitter? Unmengen Retweets, abermals verbreitete Links - twitter.com müsste eigentlich gleich abgewertet werden. Doch Twitter wird von Google nicht nur nicht abgewertet, sondern sogar hofiert, denn Googles Echtzeitsuche lebt vor allem von Twitter. Es gibt also offenbar doch „manuelle“ Ausnahmen. Vielleicht gelingt es ja auch, eine Plattform für Bürgerjournalismus auf die White-List der geschützten Ausnahmen zu bringen?

Was Ihren Traffic kaum wieder zurück bringt ist ein Appell an die öffentliche Meinung oder die mitfühlenden Herzen der Google-Entwickler. Google testet seine Algorithmen-Änderungen ausführlich, um die Suchqualität zu steigern, und es kommen keine wichtigen Änderungen wie diese zum Einsatz, bevor die internen Daten nicht eine merkliche Verbesserung zeigen. Google ist ein daten-orientiertes Unternehmen, und deshalb haben Einzelberichte keine Chance gegen geprüfte Zahlen.“ (übersetzt). Das sagt Vanessa Fox in ihrem Artikel Your Site’s Traffic Has Plummeted Since Google’s Farmer/Panda Update. Now What?

Vielleicht ist es das Beste, tatsächlich auf die Intelligenz der Google-Algorithmen zu vertrauen und sich nicht zu sehr in das Thema hineinzusteigern. Oder aber man stellt sich einfach mal mit Vasilis Vryniotis die Frage: Is Google PageRank still important in Seach Engine Optimization?

Kommentare

Neuen Kommentar hinzufügen
oder Als Wikidot User anmelden
(wird nicht veröffentlicht)
- +
Sofern nicht anders angegeben, steht der Inhalt dieser Seite unter Lizenz Creative Commons Attribution-ShareAlike 3.0 License