Suche
Suche Menü

Googles Big Panda Update: Basics, Rückblick und Interview

personal blocklist by google

Nach Caffeine, das Ende 2009 startete und 2010 die Diskussionen dominierte, hat Google Ende Februar 2011 das nächste große Algorithmus-Update eingespielt: Big Panda (benannt nach einem Ingenieur, der wohl großen Einfluss auf die Entwicklung hatte), seitens Danny Sullivan zu Anfang als Farmer-Update bezeichnet. Dieser Name ist aussagekräftig, denn es soll mit diesem Update Content-Farmen an den Kragen gehen.

Johannes hat es so formuliert: „Seiten mit minderwertigen Inhalten sollen seltener zu finden sein, qualitativ hochwertige Inhalte dafür häufiger.“ Und das Ganze auch mit aussagekräftigen Statistiken untermauert (hier auch in englisch). Krasser Nebeneffekt des Ganzen: Johannes hat durch seine Artikel darüber zum einen international unglaublich an Popularität gewonnen, perfekt im Kontext der Internationalisierung seiner Toolbox, die weiterhin mein SEO-Werkzeug Nr. 1 ist. Zum zweiten auch national der verdiente Respekt: Auch hier prasselten viele Links auf ihn ein, gab es – neben üblen Trollen auf heise.de, die laut Tad Chef  SEOs mit Kinderschändern vergleichen und mit Autobomben in die Luft jagen wollen – endlich einmal positiven Kontext bei der Berichterstattung in Sachen SEO nach dem Bloggergate. Natürlich freute sich die Presselandschaft der Etablierten, da Big Panda die Arbeit der professionellen Berichterstattung aufzuwerten scheint.

Nebenbei erwähnt: Meine große Lachnummer war wieder einmal die Süddeutsche. Nicht nur, dass der Bericht wenig fundiert rüberkam und Johannes Beus so falsch wie konsequent als „Herr Reus“ bezeichnet wurde, was den vielzitierten „Qualitätsjournalismus“ ad absurdum führte. Nein, während andere Magazine wie SPON sich tatsächlich einmal zu einem Link auf die Quelle herabließen, verweigerte den die Süddeutsche konsequent. Im Kontext damit, dass Leserkommentare nur zu bestimmten, bürotauglichen Uhrzeiten möglich sind, steht „Süddeutsche“ derzeit für mich für geballte Online-Impotenz Inkompetenz.

Spannend wird es, wenn das Update auch in Deutschland ausgerollt wird. Der deutschen Ausgabe von Suite101 und anderen dürfte der Allerwerteste jetzt schon auf Grundeis gehen. Wobei suite101.de – am 21.02 noch mit einem schönen Sichtbarkeitsindex von 83 Punkten – aus meiner Sicht ein diskussionswürdiges Beispiel ist. Auch wenn mir die Seite in den SERPs noch nie aufgefallen ist, habe ich doch schon einige Artikel gelesen und fand diese recht gut gemacht. Also deutlich über dem Textbroker 2-3 Level, das neben ganz üblem Textspam an sich das Ziel von Big Panda sein sollte. Mal abwarten, ob es sie also genau erwischt wie die Mutterseite.

Matt Cutts scheint u.a. auch durch die Abstrafung von Suite101 hinsichtlich der Funktionsweise des neuen Algorithmus überzeugt. Diese Info stammt aus einem Interview mit Amit Singhal und Matt Cutts bei Wired.  Im Folgenden also weitere Basics zum Update und Infos aus diesem Interview.

Google versucht grundsätzlich die Benutzererfahrung bei der Suche zu verbessern. Bing scheint langsam immer mehr in Position zu kommen und somit ist es für Google wichtig, die Sucher zu halten. Durch Caffeine kam eine Menge neuer Content in den Index, darunter viel guter Content, aber auch minderwertiges Zeug, zufälliges Kauderwelsch usw. Während Webspam früher relativ einfach identifiziert werden konnte, waren das Problem nun Inhalte, die auf den ersten Blick zwar gut geschriebenen wirkten, aber doch eher flach waren. Nach dem Motto: „Welches sind die minimalen Anforderungen, nicht als Spam eingestuft zu werden?“

Soweit ich gelesen hatte, gab es Beschwerden über zu viel solcher minderwertiger Inhalte in den Suchergebnissen und Google musste handeln. Insofern ist ein Aspekt von Big Panda ein (ich nenne es mal) politischer. Man zeigt dem Surfer: Hey, wir tun was, wir hören auf eure Beschwerden. Natürlich deckt sich dies mit dem zweiten Aspekt: Google versucht ständig, die Qualität der Suchergebnisse zu verbessern, und alles, was nach Spam riecht, automatisiert loszuwerden. Somit ist Big Panda auch eine Konsequenz aus und Korrektur zu Caffeine.

Google hat das Problem, minderwertige Seiten zu identifizieren, noch nicht wirklich lösen können und unterstützt Automatismen deshalb durch menschliche Bewertungen. So wurde Qualiy Ratern ein Fragenkatalog vorgelegt, nach dem sie Webseiten bewerten sollen:  „Betrachtest du diese Website als Autorität? Wäre es okay, wenn dieser Artikel in einer Zeitschrift stehen würde? Präsentiert diese Seite zu exzessive Werbung?“personal blocklist by google

Auf Basis dieser Antworten wurde eine Definition minderwertiger Webseiten entwickelt. Google verglich die Ergebnisse mit den Werten des Site-Blockers in Chrome, der erst Mitte Februar eingeführt worden ist, und stellte eine Überschneidung von 84% fest, ein statistisch signifikanter Wert. Vielleicht waren die restlichen 16% ja Klicks von SEOs auf die Treffer des Mitbewerbs… 😉

Soweit. Für mich sieht des danach aus, dass Google dank Caffeine eine immer höhere Schlagzahl an Updates umsetzen kann – allein die Schnelligkeit, mit der Big Panda umgesetzt worden ist, spricht eine deutliche Sprache. Zudem beobachte ich seit dem letzten großen PageRank-Update eine viel fluidere PR-Anpassung bei Webseiten, hin zum „Pagerank On-the-fly“, den ich 2006 oder 2007 einmal prophezeit habe. Jetzt heisst es warten darauf, dass Big Panda auch in anderen Sprachen ausgerollt wird und wie dann die Auswirkungen aussehen werden. Johannes scheint jedenfalls schon einige Favoriten zu haben, die es treffen dürfte… Es werden spannende Diskussionen auf der Campix 2011 🙂

Autor:

Frank Doerr (aka Loewenherz) ist seit 1996 online, Inhaber von Spinpool Online-Marketing und der Webdesign- und Wordpress-Agentur Wolke23. Fachjournalist (bdfj) und Buchautor. Er hält Vorträge auf SEO-Konferenzen, organisierte den SEO Stammtisch Rhein-Main und hat die erste offizielle Dokumentation der SISTRIX Toolbox verfasst. In den 90ern Lehrauftrag an der FH Frankfurt/Main, 2015 an der Hochschule Darmstadt, Fachbereich Informationswissenschaft.

7 Kommentare

  1. Hey Frank,
    super Zusammenfassung insklusive dem wired Interview. Die Sache mit Sistrix ist so krass, die werden ja grade mit Links überhäuft.. 😀

    Eine Sache noch: „Für mich sieht des danach aus, dass Google dank Caffeine eine immer höhere Schlagzahl an Updates umsetzen kann – allein die Schnelligkeit, mit der Big Panda umgesetzt worden ist, spricht eine deutliche Sprache.“
    Wenn ich mich recht erinnere, hat Matt Cutts in dem Interview auch gesagt, dass sie bereits seit mehreren Monaten an dem Panda Update gearbeitet haben, bin mir nicht ganz sicher ob und wie das mit Caffeine zusammenhängt.

    Pagerank on the Fly wäre zwar extrem interessant, wäre aber glaub ich kein geschicker Zug von Google. Damit könnte man ja quasi direkt messen, welche Links welchen Einfluss auf den PR haben (und welche zum Beispiel entwertet werden).

    Viele Grüße
    Pascal

  2. Dennoch eine schnelle Umsetzung. Vor allem wenn man schaut, dass die Werte aus Chrome erst seit kurzem erhoben werden.
    Hinsichtliche des PageRank-Updates muss ich natürlich zwischen internen Werten und Export stärker differenzieren und dein Argument ist sicher richtig. Gleichzeitig ist es aber hinsichtlich der Abwertung aus Gründen von Linkspam etc. ein sehr interessantes Druckmittel, das immer stärker eingesetzt wird. Aber wie gesagt, das wäre einen eigenen Artikel wert… Und im Moment steht erstmal Campixx Vorbereitung an.
    Bei Johannes zeigt sich, dass hohe Qualität doch tatsächlich mal mit freiwilligen Links belohnt wird 🙂 Ich freu mich für ihn. Aber ein wenig Glück gehört halt einfach auch dazu.

  3. Pingback: Interview mit Matt Cutts zum Panda-Update – SEO.at

  4. Pingback: Googles Farmer aka. Panda Update

  5. Wie erkennt den Google jetzt schlechten Content.
    Ich habe mal ansatzweise eine Liste erstellt. Vielleicht könnte mir der eine oder andere einen weiteren Tipp geben. Zu meinem Blogartikel:

    AdminEdit: URLs gelöscht. Kleiner Tipp: Setz einfach mal nen Trackback…

  6. Pingback: Social Media SEO | klesper.net

  7. Endlich schreibt mal wer, wie seicht die etablierten Printmedien im Web phasenweise zu Werke gehen. Da scheint jede PI vor einem zweiten Durchlesen Vorrang zu haben. Genau genommen müsste da Panda auch greifen, denn der Abstand manchen Artikels zu einem klassischen Artikelverzeichnis ist nicht mehr soo weit.

Kommentare sind geschlossen.