In meiner ersten Post vor wenigen Stunden berichtete ich über Das neue Ziel von Google - Beobachtung, Information, Auswertung, Wertschöpfung als ersten Teil dieser zweiteiligen Post. Ich bitte um Beachtung.

Diese Post hatte ich gestern bereits fertiggestellt, als mir Änderungen in der Vorgehensweise von Google bekannt wurden, die ich zuvor noch befürchtet hatte. Sie treten nun ein. Welche es sind, erfährst Du in dieser Post.

Bisherige Suchmaschinenoptimierung im Web 1.0
Langfristiger Linkaufbau kombiniert mit On-Page-Optimierung führt zur kontinuierlichen Steigerung der Relevanz
(und andere Ranking-Faktoren)

Neue Suchmaschinenoptimierung im Web 2.0
Kontinuierlicher Linkaufbau im Web 2.0 mit On-Page-Optimierung führt zur kontinuierlichen Steigerung der Relevanz, jedoch bei zu großen Abständen im Linkaufbau zu Up'n'Downs in den SERPs (und andere Ranking-Faktoren)

Nachfolgend werde ich Kritik ausüben an dem nun öffentlich bekannten neuen Google Algorithmus, da er in dieser Form nicht bestehen kann. Google übersieht offenbar die Folgen. Entweder ist der gesamte Umstellungsprozess nicht vollständig abgeschlossen oder Google wird sich in eine Suchmaschine für manipulierte Meinungen umwandeln, die zudem einen andauernden Kampf gegen Spam befürchten müssen. Manipulation über Linkhandel wäre im Vergleich dazu ein kleines Problem gewesen.

Im weiteren Verlauf dieser Post wirst Du über die neuen Möglichkeiten der Suchmaschinenoptimierung und Beeinflussung/Manipulation der Suchergebnisse lesen. Wie Google nun aus meiner Sicht vorgehen wird und wie Google versucht, ohne vorhandenes, automatisiertes Verfahren zur Prüfung der Qualität von Suchergebnissen, nicht nur aktuellste, sondern zugleich qualitativ hochwertige Suchergebnisse zu liefern. Qualität, zumindest aus Sicht von Google.


In Zusamenhang mit diesem aktuellen Thema verwende ich einen Artikel als Einleitung, den ich gestern fand: Julian Ulrich: Google schlägt zurück! SEO vor dem aus? Eine philosophisch angehauchte Abrechnung… (Alternativer Link). Ich bitte Dich darum, diesen zunächst zu lesen, damit Du meine nachfolgenden Äußerungen nachvollziehen kannst. Zitate aus dieser Post sind entsprechend "markiert".

Manuelle Abstrafung kann ausgeschlossen werden
Direkt zu Beginn des Artikels fragte ich mich, ob ein mehrfach angekündigtes Vorgehen als "wahrer Schock in der Webmasterwelt" definiert werden kann. In mir kam die Frage auf, um welche der zahlreichen Webmasterwelten es ging. Ich wußte aber die Antwort: um die Webmasterwelt der mit bezahlten "künstlichen Links" optimierenden SEOs. - Im Jahre 2007, wo nun der PageRank seinen Wert schon seit Monaten (nahezu) vollständig verloren hat, spricht man dennoch von Herabstufung. Was wurde herabstuft? Ein längst vergangener numerischer Wert, visualisiert über einen Balken in einer Toolbar. Längst vergangen, da der upgedatete PageRank-Wert einem bereits Wochen vorher entstandenem Wert entsprach.

Die Masse der Seitenbetreiber beklagten sich über schlechtere Platzierungen in den SERPs und weniger Traffic, bevor sie überhaupt die Gelegenheit hatten herauszufinden, ob dieses wirklich eintritt. Auch bei dem letzten PageRank-Update des Buttons der Google Toolbar änderte sich nichts in den SERPs und auch nicht bei den Besucherzahlen, da der dargestellte neue PageRank kein aktueller Wert ist, sondern, wie geschrieben, einen Wert aus der Vergangenheit darstellt. Der Einwurf, dass sich "immer schon" Tage nach dem TBPR-Update Besucherzahlen verschlechterten, ist aber nicht im TBPR-Update begründet. Es ist vielmehr der normale Verlauf des Internets bei Google. Kontinuierliche Veränderungen von Ranking-Faktoren führen zu Veränderungen in den SERPs. Keine PageRank-Updates der Toolbar.

Niemand weiß, ob die Sache abgeschlossen ist. Wenn es so wäre, dass tatsächlich Linkverkäufer abgestraft worden wären, und dabei die größten Linkverkäufer, dann könnte Google durchaus die Links von den großen Websites längst verfolgt und analysiert haben, somit auch in der Lage sein, alle Linkkäufer abzustrafen. Wenn dem so wäre. Aus rein logischer Betrachtung müsste man im Umkehrschluss allerdings sagen, dass keine manuelle Abstrafung erfolgt sein kann, weil somit auch weitere Schritte gegen den gesamten Linkhandel hätten durchgeführt werden müssen. Alle, die "auf frischer Tat ertappt" worden wären, d. h. auch die kleinen, die auf den großen Seiten ihre Links gekauft hatten, hätten ganzheitlich abgestraft werden müssen.

Ich gehe aufgrund der Unwahrscheinlichkeit dieser Theorie weiter, wie Danny Sullivan ("Google might simply not be giving as much credit to some links than in the past." - Link: Danny Sullivan antwortete mir zum Thema TBPR-Update und angeblicher Abstrafung durch Google) davon aus, dass eine generelle Absenkung des Wertes von eingehenden Links erfolgte. Nach meiner Meinung der Links aus dem Web 1.0.

Wie Google den weiteren Linkhandel sinnlos macht
Äußerst interessant finde ich die Meinung von Julian Ulrich, dass auch weiterhin ein Linkverkauf stattfinden könnte, wenn man die Links entsprechend tarnen würde. Gut, Artikelseiten müssen dafür nicht neu erfunden werden. Nur auch hier hat Google bereits vorgegriffen und die Wertigkeit von eingehenden Links befristet. Nicht mehr wie bisher, führen diese Links zu einer kontinuierlichen Steigerung der Relevanz einer Seite, sondern führen nur kurz zur Erhöhung der Relevanz, die sich i. d. R. Tag für Tag nach der Platzierung des Links wieder abschwächt. Somit ein eindeutiges Aus für Artikelseiten, Webkataloge und ähnliche Strukturen, insofern sie nicht über dynamische Mittel verfügen, die einen Artikel immer wieder für Google als neuen Artikel darstellen. Natürlich auch ein Aus für den Linktausch, denn dieser ist nun entweder unsinnig, da wertlos, oder mit einem nicht mehr vertretbarem Daueraufwand verbunden.

Google nutzt einen "menschlichen Algorithmus" zur Bestimmung von Qualität
In der o. g. Post geht Julian Ulrich davon aus, dass Google qualitative Seiten in den Suchergebnissen präsentieren möchte. Dieses ist zur Zeit aber nur ein Wunschgedanke, da Google hierfür nun Hilfe benötigt. Google möchte in erster Linie aktuellste Informationen präsentieren und kann dabei nicht die Qualität dieser Informationen überprüfen. Eigentlich. Genau aus diesem Grunde nutzt Google nun soziale Kontakte, demnach Menschen und keine Automatisierungsalgorithmen, um die Qualität der Suchergebnisse optimieren zu lassen. Idealerweise erfolgt dieses kostenfrei für Google, da vor allen Dingen Blogger als auch Social Communities (wohlgemerkt: teilweise, ohne es zu merken), das ganze Internet kontrollieren, analysieren und klassifizieren. Seiten, wie digg.com und YiGG.de stehen dabei natürlich im absoluten Vordergrund. Google erfährt auf einfache Weise, was wichtig für Menschen ist, denn Menschen definieren es selbst. Sogesehen doch ein Automatisierungsprozess. Ein menschlicher Algorithmus. Nur halt nicht mit eigenen Mitteln und auf eigene Kosten von Google.

Unendliche Möglichkeiten der Manipulation
Dieses Vorgehen bietet natürlich unendliche Möglichkeiten der Manipulation, wie wir vor allen Dingen bei amerikanischen Social Media-Seiten feststellen konnten. Nachrichten, die evtl. unwichtig sind, können sehr einfach an Wichtigkeit gewinnen. Die Zeiten der Hypes werden kommen bzw. sind schon eingetreten. Meinungsmache über Google wird unser tägliches Dasein beeinflussen.

Aus dem Suchwort "Kredit" werden sich nicht mehr "drei Seiten" Suchergebnisse mit "schlecht designten inhaltslosen Projekten von SEO's", wie im Post von Julian Ulrich zu lesen, ergeben, sondern dutzende von Suchergebnisseiten mit beeinflussten Inhalten. Mit den jetzigen Möglichkeiten können qualitativ hochwertige Seiten vollständig verdrängt werden. Nicht dass es etwas Neues wäre, dass (bezahlte) Blogger Meinung machen, vielmehr ist nun die Manipulation über (bezahlte) Blogger unendlich einfacher geworden, als es zu den Zeiten der bestplatziertesten Qualitätsseiten möglich war.

Zusätzlich kommt nun die Manipulation über Social Networks hinzu, die von Google ausgewertet werden. SEOs können mit einem gewissen strategischen Vorgehen Mitglieder gewinnen, bezahlen oder auch "entstehen lassen", die eine Meinung zu einem Hype werden lassen sollen. Kontrollierte Gruppen Optimierung (KGO) könnte vielleicht ein neuer Fachbegriff werden. ;-)

"Die Suchergebnisse von heute sind" also nicht "deutlich schwerer zu manipulieren als noch vor 5 - 10 Jahren.", sondern sie sind so dermaßen manipulierbar, mit unmittelbaren Auswirkungen auf die SERPs, dass es nie einfacher war, Meinungen (oder Kreditanträge) auf die ersten Plätze zu bringen.

Google hat es nun geschafft, "jegliche absichtliche Eingriffe in die Rankings der Suchergebnisse" mit einfachen WhiteHat SEO-Mitteln, Web 2.0-Kenntnisse vorausgesetzt, zu ermöglichen. "Jegliche SEO-Bemühungen, die über eine Onpage-Optimierung hinausgehen." sind nun genau die Mittel, die zur absoluten Manipulation der SERPs in Minuten führen.

Und Julian, SEOs sitzen nicht "heulend zu Hause". SEOs feiern zur Zeit unendliche Partys, geben das Geld aus, was sie nicht mehr für Linkkauf investieren müssen und lachen sich so richtig ins Fäustchen, was nun alles möglich ist. Soziale Kontakte auf Partys können bei entsprechender Beeinflussung mit ins Boot genommen werden. Ein ganzer Bekanntenkreis, sogesehen eine eigene Social Community, mit der man sich am Wochenende trifft, um Party zu machen, dient unter der Woche dazu, Meinungen zu bilden.

Menschen bestimmen nun Relevanz oder Nicht-Relevanz
Gute Inhalte werden nun von Menschen bewertet, und können auch selbst dann zu guten Inhalten werden, wenn sie unglaublich schlecht sind. Meinung führt zu Wissen. Und die, die wirklich gute Inhalte von hoher Qualität publizieren, werden sich ohne SEO-Kenntnisse und Hilfe des Web 2.0 wundern, dass sie keiner mehr findet, keiner mehr liesst und zwangsläufig dadurch auch nicht mehr auf sie "natürlich" verlinkt.

Macht von Social Media über Meinung und Wissen
Die Macht von Social Media hat die Gewalt über das Internet, Meinung und Wissen gewonnen. Zumindest soweit es Google betrifft. Menschen bestimmen, was wichtig ist. Und Menschen waren schon immer das manipulierbarste Gut auf Erden.

Das ganzheitliche nun öffentlich bekannt gewordene System von Google kann demnach nicht abgeschlossen sein. Weitere Veränderungen müssen zwangsläufig in den nächsten Wochen erwartet werden, da sich sonst bald niemand mehr trauen würde, in Google zu suchen.

Google OpenSocial
Der Auslöser für diese beiden Posts war der Artikel von TechCrunch: Details Revealed: Google OpenSocial To Launch Thursday, in dem es sich um die ausgiebigen Ambitionen von Google geht, was Social Networking betrifft. Das neue Google-Projekt nennt sich OpenSocial (Link ab 01.11.2007 im Laufe des Tages aufrufbar). Hintergründig bietet Google nun drei Common APIs für Social Networks kostenfrei an. Common APIs sind offene Softwareschnittstellen, die von Softwareentwicklern verwendet werden, um in diesem Fall, Anwendungen für Social Networks zu erstellen. Google stellt sich in der Art dar, dass sie Softwareentwickler unterstützen möchten, die dadurch wesentliche Kosteneinsparungen erzielen würden. Diese Schnittstellen dienen dazu, Profildaten (Benutzerdaten), Informationen über Verpflechtungen mit Freunden (Social graph) und Aktivitäten (Dinge, die passieren, News Feeds-artige Inhalte) auszuwerten.

Die Softwareentwickler müssen, um diese kostenfrei nutzen zu dürfen, lediglich zustimmen, dass die APIs entsprechende Daten zurück an Google liefern.

Dieses stellt einen Angriff auf Facebook.com dar, die selbst im direkten Wettbewerb zu Google's orkut stehen. Die APIs sollen wesentlich einfacher zu handhaben sein, als Entsprechendes mit facebook.com möglich ist.

Den SEO freut es natürlich, dass hierbei die ersten Social Networks bekannt gegeben wurden, die nun mit Google's OpenSocial arbeiten werden und deren Userdaten Google somit auswerten und nutzen wird:
Linkedin.com
Ning.com
hi5.com
plaxo.com
friendster.com
viadeo.com

Je weiter der Ausbau voranschreitet, desto mehr wird das gesamte Internet kontrolliert und ausgewertet werden durch Google. Die Absichten, Menschen zur Optimierung und Bestimmung der Relevanz von Suchergebnissen zu nutzen, ist nun klar und deutlich bestätigt. Die neue Suchmaschinenoptimierung erfolgt nicht nur über das Web 2.0, sondern auch durch das Web 2.0.

Edit 01.11.2007:
Google deutet raschen Deal mit MySpace an - Wie ich schon sagte, Googles neuer Algorithmus ist abhängig von Social Media-Daten und Google muss alles tun, um schnellstmöglich Daten aus Social Communities analysieren zu können. Sollte es Google nicht schaffen, wird man mit den Suchergebnissen Ping Pong spielen.

Edit 04.11.2007:
Flogs und von Firmen unter falschen Angaben geschriebene Kommentare und Rezensionen im Web sollen rechtswidrig erklärt werden. Die EU verschärft die Direktive gegen unlauteren Wettbewerb.

EDIT: 21.02.2008
Damals sorgte dieser Post als auch der vorhergehende für große Aufregung und ich wurde an den Pranger gestellt, da diese Aussagen im Oktober 2007 unglaubwürdig klangen.

Am 20.02.2008 erschien ein Artikel von Alexandra Sobek (sobek agency), der darüber in gleicher Weise berichtet:
Künstliche Neuronale Netze und Suchmaschinen




10 comments:

Anonymous said...

Ja,JA wenn das so stimmt, holt sich jeder meiner Familienangehörigen einen Blog gibt ja so um die 50. Hollen uns noch ne Texterin als Vollzeit an Bord, die den ganzen Tag nur Posten Threads starten tut. So haben wir dann ungefähr 300 Blogs und ab gehts, leichter wirds nimmer. Jetzt gehts genauso wie mit links weiter, ahlt mit blogs.

Norman N said...

Mehr über opensocial von google habe ich am Dienstag hier geschrieben: http://www.brandkraft.de/?p=240

Daniel said...

Hy Wulffy, guter Beitrag wie immer.
Durch deine Empfehlungen wächst mein Archiv an Blogs immer weiter.

Könntest Du mal so deine Empfehlungen posten welche Blogs zu regelmäßig besuchst.

Wulffy said...

So könnte es sein. Momentan würde ich sogar behaupten, dass ihr keine Texterin bräuchtet. Denn die Qualität des Textes kann von Google nicht erkannt werden, es sei denn, es beschwert sich jemand persönlich und meldet die Seite bei Google.

Wulffy said...

Danke Norman N, für Deinen Kommentar und den Hinweis auf Deine Post, die ich gerade gelesen habe.

Wulffy said...

Danke, Daniel! Ich besuche eigentlich keine Blogs regelmäßig, weil ich dazu nicht komme. Es geschieht eher intuitiv. Dabei kann ich Dir nur empfehlen, wenn es Dir zeitlich ähnlich geht, andere für Dich recherchieren zu lassen. Nutze Social Media! Besuche z. B. einfach YiGG! und schon weißt Du, was abgeht. Auch in Blogs.

Norman N said...

Na das ist ja ein wirklich schneller Service hier! Da hat jemand Hausaufgaben in Thema Kundenbindung gemacht :)

Wulffy said...

Norman N, danke! So oder so ähnlich. Es ist aber ein privater Blog, somit gibt es im engeren Sinne auch keine Kunden. ;-)

Wulffy said...

Edit 01.11.2007:
Google deutet raschen Deal mit MySpace an - Wie ich schon sagte, Googles neuer Algorithmus ist abhängig von Social Media-Daten und Google muss alles tun, um schnellstmöglich Daten aus Social Communities analysieren zu können. Sollte es Google nicht schaffen, wird man mit den Suchergebnissen Ping Pong spielen.

Wulffy said...

Als Marketing-Experte hat baynado meine Post einmal unter die Lupe genommen: SEO im Web 2.0 über die manipulative Macht der Social Networks, was ich sehr begrüsse. Vielen Dank für die Unterstützung, baynado. (würde er nur nicht immer sooo viel abschreiben...)