Mit den in den letzten Stunden angekündigten Veränderungen haben sich meine Posts seit August bewahrheitet. Eine ausführliche Erklärung werde ich heute, aufgeteilt in zwei Posts, abgeben. Google verändert sich. Ob das aus heutiger Sicht gut für Google ist, bezweifle ich stark. Warum ich es bezweifle, folgt in der nächsten Post.

Diese Post habe ich am 12. September 2007 erstellt, jedoch nicht veröffentlicht, da ich befürchtete, meine Glaubwürdigkeit zu verlieren. Die hier beschriebenen Veränderungen sind nicht nur eingetreten, sondern werden durch die heutigen Nachrichten von Google bestätigt. Diese Veröffentlichung erfolgt ohne Veränderung der damaligen Inhalte.

Strategisches Internet Marketing

 als

SEO

 im

Web 2.0


Um

Strategisches Internet Marketing

 durchführen zu können, ist es unabdingbar, zunächst alle Strategien kennenzulernen. Erst dann erhält man die Fähigkeit, die Strategien der anderen verstehen und analysieren zu können.

Heute beschäftigen wir uns mit einer weiteren SEO Web 2.0-Strategie. Im Prinzip geht es sich um Empfehlungen. Ein Blog erstellt eine Post und spricht durch die Verlinkung auf eine Website eine Empfehlung aus.

Google bietet eine innovative Neuerung, die bisher nur zwischen Blogs funktionierte, jedoch bis vor einiger Zeit dennoch keine sofortigen Auswirkungen auf die Suchergebnisse hatte.

Google verwendet dazu soziale Verknüpfungen, wie es bereits im viralen Marketing (

Virales Marketing

) beschrieben ist, die Empfehlungen aussprechen und sich wechselseitig dabei unterstützen. Nichts anderes als die sozialen Effekte, die sich aus dem Web 2.0 ergeben.

Virales Marketing funktioniert unter anderem aus dem Zusammenspiel zwischen dem, der viele Informationen hat und ständig neue erhält (Google) und denen, die leidenschaftlich Informationen sammeln (Internetuser), um sie endlich verbreiten zu können und dadurch sogar noch aufblühen und ihr Selbstwertgefühl steigern.

Das Internet ist nichts anderes als ein großes Gehirn. Neue Informationen sozialer Verbindungen stellen das Bewusstsein dar. Alte, keineswegs unwichtigere Informationen das Unbewusstsein. Nun muss etwas aus dem Unbewusstsein (ugs. Unterbewusstsein) "nach vorne" geholt werden, damit es uns bewusst wird. Alles, was uns bewusst ist, ist somit AKTUELL.

Zusammenspiel zwischen Blogs und Websites
Nehmen wir ein Beispiel:

Du betreibst zwei Blogs (Blog 1, Blog 2) und drei Websites (Website 1 - 3).

In Blog 1 schreibst Du einen neuen Artikel, der auf einen Artikel in Blog 2 verlinkt.

Der Artikel in Blog 2 enthält Links zu Website 1 - 3.

Wie geht Google nun vor?

Google indiziert den neuen Artikel in Blog 1 durch "Ping".
Google indiziert, da Blog 1 auf einen Artikel in Blog 2 verlinkt, den alten Artikel in Blog 2 neu.
Google indiziert, da Blog 2 auf die drei Seiten der drei Websites verlinkt, diese neu. (unter bestimmten Voraussetzungen, solange die Verlinkungen sich in oder über umgebendem Text befinden)

Somit wird alter Content zu aktuellem Content, sobald jemand auf einen alten Content verlinkt. Eigentlich logisch. Wie bei sozialen Kontakten. Sobald jemand über ein altes Thema redet, wird es wieder aktuell.

Redet man dann einige Tage nicht mehr darüber, ist es wieder veraltet.

Warum indiziert Google nun auch den alten Content der drei Seiten Deiner drei Websites neu? Google betrachtet die Informationen, auf die neu verlinkt wird, als wichtige Informationen, über die aktuell gesprochen wird. Wenn somit die Informationen aus Blog 2 wieder aktuell durch Verlinkung werden, ist somit auch der Inhalt des Blog 2 wieder interessant und auch die Verlinkungen, da diesen unterstellt wird, dass sie themenrelevant nun wieder aktuell sein müssen.

Google News
Ein bedeutsames Instrument steht jeden Tag vor uns. Nur sehen wollen wir es nicht. Die Google News. Eigentlich eine relativ primitive Möglichkeit, einen Verbreitungseffekt (von News) zu erzeugen, ohne selbst wirklich an der Verbreitung beteiligt zu sein. Die Relevanz von News wird über den Aufruf der jeweiligen News kontrolliert und ermittelt. Aus diesem Prinzip heraus entstanden auch schon digg.com und YiGG.de. Der Versuch der Beobachtung der Nutzer von Google News ist jedoch nur teilweise effektiv, da man bisher nur das Klickverhalten der Leser protokollieren kann, jedoch noch nicht das Blickverhalten. ;-) Das Klickverhalten in den Google News wird bereits kontinuierlich in ausgewerteter Form veröffentlicht: Google News Besonders beliebt

YiGG.de geht einen Schritt weiter
Gerade YiGG.de hat hier allerdings schon bessere Möglichkeiten der Beobachtung als Digg.com und Google selbst integriert. Das Blickverhalten kann zwar auch weiterhin (noch) nicht kontrolliert werden, aber besteht bei YiGG.de die Möglichkeit im sogenannten Spy eine News bei Interesse einzusehen, ohne die News selbst überhaupt aufzurufen. Eine überzeugende Idee, die einen Schritt weiter geht als bisherige.

Google Maps Street View - Userverhalten analysieren
Kommen wir nun zu Google Maps Street View als weiteres Beispiel. Aus welchem Grund bietet Google wohl diese zum Zeitpunkt der Veröffentlichung völlig neue Art der Navigation an? Ist es wichtig, den Menschen Instrumente zu liefern, die eine große Hilfestellung bedeuten, oder ist es nicht bedeutsamer, von den Menschen zu erfahren, wofür sie sich eindeutig interessieren? Hier werden, wie wir der Presse entnehmen konnten, zunächst die deutschen BMW-Fahrer alle Informationen an Google liefern, die durch ihre Fahrten entstehen (BMW-Navigation über Google Maps). Welche Strecken werden gefahren und am meisten genutzt? Welche Stellen in Städten werden am meisten frequentiert? In welchen Hotels wird am meisten übernachtet? Wo kauft man am meisten ein? usw.

Google erhält dadurch wertvollste Informationen für ein strategisches Marketing. Informationen, die veräußert werden können an eine Vielzahl von Interessenten, die in Schlangen anstehen werden.

Fragen wie:
Welche Hotels haben die höchste Relevanz?
Welche Supermärkte haben die höchste Relevanz?
Welche zentralen Punkte können im Bereich der Außenwerbung mit höchster Relevanz definiert werden?
An welchen Stellen in Städten wird Außenwerbung am meisten gesehen?
Wo entstehen häufig Staus und verlangsamen den Verkehr, um dem Verkehrsteilnehmer mehr Zeit zu geben, Werbung zu betrachten? ;-)
Wo gehen Menschen am Wochenende hin? (Theater, Disco, Kino...)
Welche Einkaufszentren werden am stärksten frequentiert?
Welche Ärzte am häufigsten aufgesucht?
usw.

Google hat nunmehr Möglichkeiten gestartet, an Informationen zu gelangen, die in vielen Fällen nicht erlangbar wären, außer über diesen Weg. Die Relevanz von Internetseiten zu ermitteln, war nur der Anfang. Nun geht es sich in diesem Fall darum, die Relevanz von Orten zu ermitteln, um beste und höchstbezahlteste Werbeplätze zu definieren und Informationen erhalten zu können. Direkt zu Streetview.

Langfristige mögliche Absichten
Aus meiner Sicht befindet sich Google auf dem langen Weg, ein künstliches, neuronales Netz entstehen zu lassen, eine möglicherweise den Menschen übertreffende Form der künstlichen Intelligenz. Um etwas kopieren zu können (den Menschen), muss man es nur lange genug beobachten. Das hat uns auch schon ein Volk auf diesem Planeten bewiesen. ;-)

Neue Wege von Google
Der nun erfolgte Schritt der Umstellung stellt eine der wichtigeren Grundvoraussetzungen dafür dar.

Zunächst hat man Wege gefunden, die dazu führten, dass das zu beobachtende Etwas die Beobachtung zulässt (zumeist ohne es zu merken). Nun nutzt man die Möglichkeiten viraler Netzwerke, nämlich um seinen Erfolg dadurch zu erhöhen, dass man andere daran arbeiten lässt und somit sein eigenes Budget schont. Halt virales Marketing. Das Ziel ist definiert: AKTUELLSTE INFORMATION über alles, was auf diesem Planet geschieht. Und genau aus diesem einzigen Grunde interessiert sich Google für alle Social Media-Dienste extrem, da genau diese die Informationen liefern, die Google selbst nicht hat.

In der Fortsetzung SEO Web 2.0 - Mehr Manipulationsmöglichkeiten als je zuvor gehen wir etwas ins Detail und verknüpfen meine Beobachtungen mit den aktuellsten Geschehnissen.

EDIT: 21.02.2008
Damals sorgte dieser Post als auch der folgende für große Aufregung und ich wurde an den Pranger gestellt, da diese Aussagen im Oktober 2007 unglaubwürdig klangen.

Am 20.02.2008 erschien ein Artikel von Alexandra Sobek (sobek agency), der darüber in gleicher Weise berichtet:
Künstliche Neuronale Netze und Suchmaschinen




Ich finde es interessant, welche Meinungen sich nahezu flächendeckend bilden, wenn ein Thema mit den gleichen Inhalten kontinuierlich in diversen Quellen behandelt und wiedergegeben wird. Aus Meinung bildet sich bei Menschen auf Dauer Wissen. Aus falschem Wissen Aggression, sobald Einzelne den Versuch unternehmen, Wissen zurück in Meinung umzuwandeln. Es fällt dem Einzelnen dann unglaublich schwer, einzusehen, dass sein Wissen fast ausschließlich aus Meinung besteht. Meinung anderer.

Die nunmehr offenbar öffentliche Meinung besteht aus der Kernaussage der letzten Tage. Ich habe nach dem Lesen zahlreicher Artikel in Blogs die Auffassung, dass das allgemeine Verständnis jetzt darin begründet ist, dass ein SEO ein Linkhändler ist und ein Linkhändler ein SEO.

SEO war, ist und wird viel mehr sein, als es jemals der Linkhandel allein war. SEO ist nun anspruchsvoller geworden. SEO bedeutete aber auch schon immer kontinuierliche Aneignung von neuen Möglichkeiten. Aber auch Spieldrang. Hierbei galt und gilt es nicht allein zu lesen, was andere SEOs schreiben, sondern die Fähigkeit zurück zu erlangen, Fragen zu stellen. Fragen entstehen nur durch Denken. Denken ist eine Fähigkeit, die wir auch hier in Deutschland immer mehr uns haben verdrängen lassen. Die allabendliche Programmierung durch das Fernsehen führt kaum noch zum Denken. Auch hier wird wieder aus Meinung Wissen.

Gehen wir nun von dem Gedanken ab, dass ein SEO ein Linkhändler ist, wissen wir, dass ein professioneller SEO bisher auch die Möglichkeit des Linkhandels angeboten hat. Nun müssen wir uns die Frage stellen, was ab jetzt, eigentlich seit 1. August, einen SEO auszeichnet.

Aus SEO wurde im Laufe der Jahre immer mehr Linkhandel. Jeder, der sich auch nur kürzeste Zeit mit dem Thema SEO beschäftige, konnte sehr schnell, verursacht durch das allgemeine "Wissen" der Öffentlichkeit, Linkhandel betreiben. Jeder Unternehmer war sofort davon zu überzeugen, dass der Erwerb von Links zu besserer Auffindbarkeit in Google führte. Und das konnte nicht sein.

Wenn man überlegt, hat jede Internetagentur, selbst die, die nur aus einem Programmierer und einem Geschäftsführer bestand, automatisch SEO mit angeboten, obwohl es eigentlich eine Wissenschaft ist und nicht bedeutet, dass der Kauf von ein paar Links unmittelbar dazu führt, seine Werbeagentur als SEO-Agentur bezeichnen zu können.

Und daher hat Google absolut Faszinierendes gemacht. Nicht nur im eigenen Interesse, nun endlich einen großen Sprung "Vorsprung" vor allen anderen zu machen, und das Thema Aktualität als Hauptthema zu definieren, sondern auch im Interesse aller. Aller gewerblichen Unternehmen und Konzerne. All derer, die ihre berufliche Existenz im Internet begründet haben.

Die Möglichkeiten zur Suchmaschinenoptimierung sind nun vielfältig, einfach nur genial und fordern nun endlich den Großteil der SEO-Agenturen auf, sich mit neuen Dingen zu beschäftigen. Es gilt nicht mehr, was einmal erlernt wurde, ist die Basis für gute Geschäfte, sondern Kontinuität im Lernen. Die Anzahl der Faktoren, die zu einer guten Position in den SERPs führen, hat sich erhöht. Dieses fordert mehr von SEOs. Viele Faktoren lassen sich derzeit noch nicht nachlesen. Denken ist angesagt. Aus Denken entstehen Fragen. Und Fragen muss man sich häufig selbst beantworten und wenn man dieses nicht kann, muss man sich die Antwort erarbeiten.

Aus Kontinuität im Lernen wird aber auch gleichzeitig Kontinuität in der Suchmaschinenoptimierung. Dieses bedeutet für jeden, der seine Seite optimieren bzw. optimieren lassen will, dass es nicht mehr heißen kann: "2 - 3 Monate müssen Sie uns schon lassen, um ihren Auftritt zu optimieren." - Denn ab jetzt heißt es: "Sie gehen mit uns eine langfristige Geschäftsbeziehung ein. Dazu sollten wir uns gegenseitig besser kennenlernen und häufiger miteinander umgehen. Denn ihre Gedanken und Wünsche werden mit unseren Fähigkeiten verschmilzen müssen."

Social Communities, auch im Bereich Business-to-Business. Der Anfang.

Ich möchte mich abschließend entschuldigen, dass ich moderne Begriffe wie nachhaltig und ganzheitlich nicht verwendet habe.




Vor zwei Tagen schrieb ich meine Post Keine Abstrafung durch Google - PageRank-Algorithmus wurde bereits Anfang August geändert.

Am 29.10. schrieb Loren Baker vom Search Engine Journal, dass Matt Cutts Confirms Paid Links & Google PageRank Update. Matt Cutts sagte gegenüber dem Search Engine Journal:

The partial update to visible PageRank that went out a few days ago was primarily regarding PageRank selling and the forward links of sites. So paid links that pass PageRank would affect our opinion of a site.

Going forward, I expect that Google will be looking at additional sites that appear to be buying or selling PageRank.
Soweit, so gut.

Ich machte einen Einwurf über einen Kommentar:
I believe it’s very easy to explain. Of course Matt has to threat PageRank sellers, but Google used an pragmatic approach. They have only excluded the incoming links to websites from their algorithm. Nothing more. This is the reason why all websites (also those not having bought or sold any links so far) have been “downgraded” with PageRank. Of course Google must explain this in a more mystical and sophisticated way.

I believe that only incoming links from Social Media websites are taken into account for this TBPR-Update. (Blogs, Social Bookmarking, Social communities etc.) - But, at the end, no changes happened in SERPs caused by PageRank.

Danny Sullivan vom Search Engine Land antwortete mir:
Well, I think we had one of the first confirmations of this :)

http://searchengineland.com/071007-173841.php

That’s my official confirmation from Google back on October 7, and I’m amazed people are still pondering what might be behind the drops. Google said pretty clearly those selling paid links would get hit.

I guess I should clarify more. When I wrote that post, Google told me that sites would be seeing PageRank decreased, and that this would rollout over time. Guess I should have put the ROLLOUT in big capital letters. Instead, I thought it was pretty obvious that if sites started seeing PR decreases, they’d know why from that confirmation.

Anyway, as part of our own follow-up on the PR saga, I’ve worked with Barry to try and explain things more:

http://searchengineland.com/071029-084449.php

The key thing seems to be sites that might have been hit for link selling that then started saying they weren’t appear to be getting reverses.

Was hat nun Barry Schwartz, ebenso vom Search Engine Land, in Zusammenarbeit mit Danny Sullivan, geschrieben?

Barry Schwartz schrieb am 29.10.: Google Updates PageRank Again? Adjusts Paid Link Penalty?
For example, one common theory is that Google might be penalizing for excessive cross-linking between sites. This is all speculation, of course -- and it could be that rather than penalizing for cross-linking, Google might simply not be giving as much credit to some links than in the past.

Wenn also Google einfach nur einigen Links weniger Wertung gibt als in der Vergangenheit und alles gar nicht so komplex ist, wie es erscheinen mag, dann bestätigt sich ein Teil von dem, was ich seit 1. August herausgefunden habe und monatelange Tests bewahrheiten sich.

Ein äußerst interessantes Posting lieferte Andy Beard bereits am 27.10.: Real or Fake PageRank Update In Progress (round 3)
The changes could easily be written off as changes in total linkage compared to the remainder of the blogosphere, but it seems like Google have given a penalty to those they could get away with.

In bin wohl nicht ganz allein mit meiner Meinung.

Es bleibt spannend!




Es erfolgte keine Abstrafung durch Google und auch keine Umstellung des Algorithmus'. Was geschah wirklich?

Vor zwei Tagen informierte der GoogleWatchBlog mit Ändert Google Ranking-Algorithmus? über ein Gerücht, dass Google angeblich den Ranking-Algorithmus ändern würde. Google stellte seinen Algorithmus aber bereits Anfang August 2007 um, fuhr dann für ca. 4 Wochen einen Test, der kurz unterbrochen wurde und seitdem fortgesetzt wird. Dieses kannst Du in diesem Blog nachlesen.

Am 15. August 2007 warnte ich nicht nur Webmaster und Linkverkäufer, sondern auch SEOs, alle künstlichen Links loszuwerden: SEO Web 2.0 - Haben Websites bei Google noch Chancen?

Vor drei Tagen hatte ich mich zu dem Thema "Abstrafung durch Google" mit Abstrafung von Linkverkäufern durch Google geäußert.

Auch die renommierte Presse sprang sofort auf das Thema an, ohne einen einzigen Augenblick darüber nachzudenken und schrieb ab, was andere zuvor produzierten: Google-Strafaktion wegen Linktausch

Google hat niemanden abgestraft
Google ging weitaus intelligenter vor, als man es hätte ahnen können. Es wurden keine Seiten, auch keine Linkverkäufer, abgestraft. Auch nicht trigami. - Weder manuell noch automatisiert. Die platzierten künstlichen Links haben einfach nur keinen Wert mehr.

Kay Oberbeck, Google-Kommunikationschef für Deutschland, Österreich und die Schweiz, nahm nicht ein einziges Wort von Abstrafung in den Mund, es wurde ihm jedoch hinein interpretiert, z. B. Google räumt Änderungen beim Pagerank ein. Es ist tatsächlich so, dass die Folgen durch die PageRank-"Senkung" nicht nur gering sind, sondern gleich Null.

Der PageRank verändert sich seit 2004 kontinuierlich. Sichtbar wird der PageRank über die PageRank-Anzeige in der Google Toolbar, die jedoch nicht sehr häufig upgedated wird. Das aktuelle Google Toolbar PageRank-Update sorgte lediglich dafür, dass die von Google bereits kontinuierlich durchgeführten Veränderungen der Relevanz in der PageRank-Anzeige sichtbar wurden. (Matt Cutts: What’s an update?)

Somit lässt sich zusammenfassend festhalten:
- keine Seite hat dadurch an Relevanz verloren oder gewonnen
- keine Position in den SERPs hat sich dadurch verändert
- keine Seite erfuhr dadurch einen Rückgang der
  Besucherzahlen


Warum niemand abgestraft wurde
Die Linkstrukturen im Internet verändern sich kontinuierlich. Links aus dem Web 1.0 (von Websites) verloren Anfang August 2007 an jeglichem Wert. Dennoch wurde kräftig weitergemacht und Linkhandel betrieben... Leider war das bereits zu diesem Zeitpunkt herausgeworfenes Geld.

Der PageRank-Algorithmus arbeitet nach dem Prinzip der eingehenden Links auf eine Seite (Website, Blog, Forum etc.). Nimmt Google nun die Links aus dem Web 1.0 (von Websites) aus der Berechnung für den PageRank heraus, sinkt der PageRank jeder Seite mit PageRank. Da dieses einheitlich für das gesamte Internet gemacht wurde, ändert sich grundsätzlich gar nichts für die jeweilige u. a. mit Links optimierte Website. - Websites, die ihren PageRank jedoch vor allen Dingen durch andere Ranking-Faktoren erreicht hatten, gewinnen dadurch an Relevanz.

Ich gebe ein Beispiel:
Der PageRank von Die Zeit fiel zunächst von PR6 auf PR4 und blieb bei PR5 stehen.

Durch die fehlende Bewertung von eingehenden Links aus dem Web 1.0 fiel die Relevanz der Seite. Somit konnten andere Seiten oder Unterseiten mit zuvor geringerer Relevanz in den Suchergebnissen von Google über die Seite "Die Zeit" oder deren Unterseiten bei bestimmten Keywords aufsteigen.

Warum weniger PageRank nicht weniger Relevanz bedeuten muss
Der PageRank-Button ist lediglich ein Symbol, welches einen "Wert" von 1 - 10 darstellt.

Hinter dem PageRank liegen Zahlen, vereinfacht gesagt, der numerische Wert 1 als Summe für alle Seiten des gesamten Internets. ("Die Summe aller PageRanks ist 1." - Larry Page, Sergey Brin)

Es ist somit eine Zahl, die sich nicht ändert. Sie ändert sich auch dann nicht, wenn, wie es kontinuierlich der Fall ist, die Anzahl der Seiten des gesamten Internets ansteigt.

Wenn Google somit eine Neuberechnung des PageRank für alle Seiten des Internets durchführt und dabei jeweils eine große Anzahl von neuen Seiten hinzunimmt, reduziert sich der PageRank aller einzelnen Seiten des Internets. Und das ist gerade wieder eingetreten.

In einigen Blogs konnte man lesen, dass Die Zeit von PR6 auf PR4 gefallen wäre. Hierbei wurde jedoch nicht berücksichtigt, dass der Google Toolbar PageRank-Update Prozess ca. 3 - 4 Tage benötigt. Gestern konnte man überall lesen, dass das PageRank-Update begonnen hätte, dem war nicht so, da es bereits am 24.10. begann. (Erste Sichtbarkeit von Veränderungen in der Google Toolbar PageRank-Anzeige. Erste Neuberechnungen begannen deutlich früher.) Dass sich der Google Toolbar PageRank der zunächst genannten Seiten (Auflistung) als Erstes veränderte, war reiner Zufall und hatte nichts mit Linkhandel zu tun. Abschließend erhielt Die Zeit nun einen PR5. Man nennt diesen Prozess Google Dance.

Zu Beginn der Neuberechnung des Google Toolbar PageRanks (TBPR) haben alle Seiten keinen PageRank, da Google bei jedem TBPR-Update alle Seiten des Internets zunächst auf PageRank 0 setzt. Und am Ende, wie es heute der Fall ist, wurde der PageRank auf alle Seiten des Internets neu verteilt. Mehr ist nicht geschehen.

Warum sich trotz TBPR-Update nichts verändert hat
Wie bereits beschrieben, berechnet Google seit 2004 kontinuierlich den PageRank. Jeder neu hinzugekommene Link fließt unmittelbar mit in die Berechnung ein und verändert ebenso unmittelbar die Relevanz der Seite, auf die verlinkt wurde. Vor dem TBPR-Update hat z. B. eine Seite einen tatsächlichen PageRank von 3. Nach dem TBPR-Update hat diese nichts Anderes. Die in der PageRank-Anzeige der Google Toolbar dargestellte "Veränderung" ist somit keine Veränderung, sondern nur eine Sichtbarmachung.

Warum Google weitaus intelligenter vorging, als es erwartet wurde
Es erfolgte keine Abstrafung im engeren Sinne, da diese hätte manuell für jede einzelne Seite erfolgen müssen. Der Ansatz, Links aus dem Web 1.0 (von Websites) pauschal aus den Ranking-Faktoren zu nehmen, ist weitaus pragmatischer. Somit bezieht Google diese Links nicht mehr in die Wertung mit ein.

Warum Google bereits Anfang August 2007 den Algorithmus änderte
Der Hauptgrund war die mangelhafte Aktualität der Suchergebnisse, die durch den bisherigen PageRank-Algorithmus verursacht wurde. Details hierzu kann man in diesem Blog nachlesen. (siehe Menü links unter SEO Web 2.0)

Der größte Nachteil des bisherigen PageRank-Algorithmus' war, dass er alt eingessene Websites mit hoher Anzahl von eingehenden Links bevorzugte, unabhängig davon, ob sie aktuelle Informationen enthielten. Neuere Seiten, wie z. B. Blogs, aber auch Websites, hatten überhaupt keine Chance. Selbst wenn sie sehr gut waren und aktuell, wurden sie nicht gefunden. Auch weil sie keine oder wenige Links hatten.

Beispiel: Eine neue Nachrichtenseite hätte mit aktuellsten Nachrichten keine Chance gehabt gefunden zu werden. Dieses wäre fatal. Lediglich die großen, renommierten Nachrichtenseiten konnten mit neuen Nachrichten Aufmerksamkeit erregen. Das hat sich nun geändert und aus der Testphase wurde Realität.

Quellenangaben:
"The anatomy of a large-scale hypertextual Web search engine"
Sergey Brin and Lawrence Page (1998)

Google PageRank
Matt Cutts: What’s an update?




Diese Post basiert teilweise auf Humor mit einer Prise Sarkasmus, in erster Linie soll sie jedoch die deutsche Business-Internetlandschaft wachrütteln.

Deutschland ist ein Entwicklungsland im Bereich der Nutzung von Web 2.0 und Social Media als Instrumente zur Suchmaschinenoptimierung, aber nicht dass es sich entwickelt, sondern dass es entwickelt werden muss. Dazu hat Google nun endlich beigetragen mit der Abstrafung von Linkverkäufern durch Google. Google hilft (nicht nur) dem deutschen Internet auf die Sprünge, in dem es SEO-Techniken des Web 1.0 sterben lässt.

Die Verwendung von Social Media zur Steigerung des Return on Investment (ROI) endet nicht damit, Social Bookmarking-Buttons auf einer Website und eine Kommentarfunktion zu integrieren, so wie es offenbar am gesamtdeutschen Markt verstanden wird.

Während die Deutschen sich weiterhin über das Web 2.0 (eigentlich die Anfänge des Web 2.0) wundern, äußerst ungern online bookmarken und sich als Unternehmen fragen, warum man Videos und Bilder in Social Networks online stellen sollte, sind uns längst nicht nur die Amerikaner und Australier unzählige Schritte voraus. Nach privaten Sozialen Netzwerken, die man zunächst schaffen musste, entstanden Commercial Social Networks zwischen Anbieter und Kunde und letztendlich "gewerbliche" Soziale Netzwerke wie Jigsaw und konnects, die Business-to-Business-Kontakte fördern.

Dabei ist es doch so einfach. Man muss doch nur schauen, welche SEO-Instrumente des Web 2.0 erfolgreiche Unternehmen wie, allen voran, Amazon.de nutzen und diese für sich umsetzen.

Hinweis: Warum hier gedutzt wird. (3. Absatz)

Erweitere Dein Wissen und erlange hilfreiche Kenntnisse zu SEO-Strategien im Web 2.0!

Deine Seite hat an PageRank verloren, weil Du Linkhandel betrieben hast?

Deine Besucherzahlen sinken nun kontinuierlich?

Deine Umsätze gehen täglich zurück? Die Verluste steigen?

Aus dem Return on Investment (ROI)

 wurde ein Revenge of Investment (ROI)?

Möchtest Du Deine bisherigen Umsätze wieder generieren? Oder mehr?

Wenn Du auch nur eine einzige Frage mit "Ja" beantworten konntest, bist Du nicht allein.

Viele Seiten mit künstlichen Links verspüren in diesen Tagen einen Besucher- und Umsatzrückgang. Leider haben die ersten Seitenbetreiber wesentliche Veränderungen erkennen müssen. Nicht weil sie eintraten, vielmehr, weil das monatelange Winken mit dem Zaunpfahl keine Wirkung zeigte. Erst ein Schlag mit dem Zaunpfahl sorgte dafür, dass sie wachgerüttelt wurden.

Der Grund dafür ist einfach. Seien wir ehrlich. Du wußtest nicht anders und hast Dich darauf eingelassen, Deine Seiten auch weiterhin, trotz mehrfacher Warnungen von Google, mit künstlichen Links zu optimieren oder optimieren zu lassen. Längst vergangene Strategien des Web 1.0 wurden verwendet, obwohl sie spätestens seit Anfang August 2007 sinnlos waren. Dennoch blieben die Links bestehen und wurden nicht, wie ich es bei meiner Website/den von mir betreuten Websites rechtzeitig machte, einfach nur gelöscht.

Glücklicherweise existiert eine Lösung. Sie nennt sich

SEO Web 2.0 Suchmaschinenoptimierung

. Und sie besteht in erster Linie nicht darin, Deine Seiten öffentlich zu bookmarken, sondern Soziale Netzwerke zu nutzen bzw. entstehen zu lassen.

In einem Tele-Seminar gab ich vor einiger Zeit Ratschläge zur Optimierung von Internetseiten durch SEO Web 2.0 Suchmaschinenoptimierung. Ich sprach darüber, wie man Umsätze, nicht nur durch bessere Platzierungen in den SERPs, mit Strategien zur Social media optimization (SMO) nachhaltig steigern kann. In diesem fesselnden Tele-Seminar wurden einige Geheimnisse enthüllt, die nachhaltig Kundengewinnung und Kundenbindung (!) einfacher machen.

Web 2.0 - Was ist es wirklich? Was ist es immer noch
   in Deutschland?

Technologien des Web 2.0

• unsere Zukunft mit Social Media

• eine neue Definition von Social Prospecting
   - Strategien und Techniken
   Social Prospecting über Social Networks
   (also ohne Mitglied im Golfclub zu werden)

Landing page optimization (LPO) zur Kundengewinnung
   über erzeugte soziale Kontakte

Soziale Phänomene und soziale Netzwerke verstehen lernen
   und nutzen

Online Customer Engagement zur langfristigen Erhöhung der
   Konversionsrate (ugs. Konversationsrate)

Dieses Tele-Seminar wird Dir garantiert helfen, höhere Umsätze auf einer konstanten Basis zu generieren. In nur 2 x 45 min. wirst Du genau wissen, was zu tun ist, um Monat für Monat großartige Umsätze zu generieren. Du wirst fähig sein, mit Zuversichtlichtkeit, Effektivität und Kontinuität mehr Abschlüsse zu tätigen. Keine dramatischen Schwankungen in Deinen monatlichen Umsätzen mehr.

Deine gesamte Arbeitsweise könnte sich ändern. Wieviel Stress hättest Du jeden Monat weniger, wenn Deine Umsätze dauerhaft Deinen Vorstellungen und Zielen entsprechen würden? Ich behaupte, das würde Dein Leben wesentlich einfacher machen. Du könntest es mehr genießen!

Du bist es Dir selbst schuldig, an diesem umfangreichen Tele-Seminar nachträglich teilzunehmen. Du erhälst genau die gleichen Informationen, wie ich sie in meinem Tele-Seminar gegeben haben. Und Du kannst sie Dir anhören, wann immer Du Zeit hast.

Du hast nur wenige Tage Zeit, um in den Genuss der Vorteile dieses Tele-Seminars zu kommen, denn es ist nur begrenzt erhältlich bis zum 31. Oktober.

Dutzende von Tipps und Techniken im Bereich SEO Web 2.0 Suchmaschinenoptimierung werden im Detail erklärt, die Du sofort in Deinem Bereich einsetzen kannst. Strategien, die Dir helfen werden, nachhaltig Deine Ziele erreichen zu können. Techniken, die einfach zu handhaben sind und in jeder Situation funktionieren. Das Beste daran ist, dass diese SEO Web 2.0-Techniken Suchmaschinenergebnisse nicht manipulieren, sondern natürliche Links aus dem Web 2.0 generieren.

Du kannst dieses Tele-Seminar mit 2 x 45 min. für nur 399,00 EUR (zzgl. 6,95 EUR Versand) bestellen. Bedenke, welchen Erfolg es Dir bringen wird.

Ich habe Verständnis dafür, dass Du Einwände hast, dieses Tele-Seminar zu erwerben. Du hast sicherlich keine Zeit. Aber bedenke, was lediglich 2 x 45 min., weniger als zwei Stunden, für Dein Praxiswissen bedeuten. Wieviele neue (Er-)Kenntnisse Du erlangen würdest. Lohnt es sich nicht 2 x 45 min. zu investieren, um mehr Umsätze zu generieren?

Und wenn Du nicht zufrieden bist? Dann sag es mir einfach. Du erhälst sofort Dein Geld zurück. Ohne Bedingungen. Du hast mein Wort!

Wenn Du bis hier gelesen hast, dann weiß ich, dass Du Dein Weiterkommen ernst nimmst. Und ich weiß, dass Du Deine Fähigkeiten erweitern willst. Also warte nicht mehr länger und bestelle das Tele-Seminar jetzt! 2 x 45 min. für nur 399,00 EUR (zzgl. 6,95 EUR Versand).

Und denke daran, die Uhr tickt und Deine Chance wertvolle Tipps zur Steigerung Deiner Umsätze zu erhalten, geht zu Ende. Bestelle jetzt!

Das Tele-Seminar mit wertvollen Strategien, die Dir helfen werden, steht auf zwei verschiedenen Medien zur Verfügung. Bitte gebe bei Bestellung an, welches Du bevorzugst.

Wulffy's (SEO) Hilfeblog - Tele-Seminar Social Media - Web 2.0 - Cassette

Wulffy's (SEO) Hilfeblog - Tele-Seminar Social Media - Web 2.0 - Vinyl-LP

Abbildungen wurden generiert mit:
says-it.com's Cassette Generator
says-it.com's Vinyl Record Generator

*es gab kein Tele-Seminar ;-)





Einige Blogs berichten heute über die Post von BloggingTom zu Google straft Textlink-Verkäufer.

Ich habe vor einigen Wochen heftige Diskussionen bei Abakus in Kauf nehmen müssen, als ich Linkverkäufer wohl etwas zu heftig angegriffen hatte. Es ist aber nicht so, dass es nicht absehbar gewesen wäre. Man hätte nur lesen müssen. In erster Linie bei Google selbst. Aber auch ich wettere seit August 2007 gegen Linkhandel, Linkverkauf, Linkkauf und Linktausch aus dem Web 1.0, also von Websites.

Einige Beispiele meiner Aussagen aus diesem Blog:

14.08.2007
Der ausgeträumte Traum des Google PageRank (Main)

Die Webmaster, die in den Wochen zuvor nicht die amerikanischen Geschehnisse verfolgt hatten, gingen leer aus und beschäftigen sich auch heute noch mit PageRank, Linkhandel...

16.09.2007
YiGGen und Wongen oder Webkatalogen und Backlinken? - Die Zukunft der Google-Suche
Google ist gegen Linkhandel und kündigte bereits mehrfach an, diesen nicht mehr zu akzeptieren und notwendige Schritte einzuleiten.

14.10.2007
Was Matt Cutts wirklich meinte
Google wird einiges in Kürze verändern, was die Handhabe von Links aus dem Web 1.0 angeht.

Bisher stieß ich auf unendlichen Widerspruch und musste mir einiges gefallen lassen. Vor allen Dingen bei einigen Blogkommentaren und auch im Abakus-Forum.

Aber Zeiten ändern sich...

Und hier geht es bald weiter im Thema. Ich hatte leider einerseits wenig Zeit in den letzten Wochen und habe andererseits auch sehr viel Zeit in die Vorbereitung der kommenden Themen investiert.

Danke an meine treuen Leser! Danke dafür, dass ihr mir geglaubt habt oder zumindest neugierig wurdet.

Abschließend noch mein Kommentar zur Post von BloggingTom:
Kommentar Google straft Linkverkauf ab

Edit 24.10.2007:
Und auch die deutsche Seiten sind an der Reihe:

Deutschland:
zeit.de PR7 PR5
golem.de PR6 PR4
netzeitung.de PR6 PR4
etracker.de PR8 PR5
brigitte.de PR6 PR4
impulse.de PR6 PR4
hitflip.de PR6 PR4
Quelle: Google straft große deutsche Linkverkäufer ab

Edit 25.10.2007:
Und auch die deutschen Blogs sind an der Reihe:
Deutschland:
basicthinking.de/blog
stereophone.de
baynado.de/blog
anwaelte-in-vulkane-werfen.de
seo-marketing-blog.de
blogschrott.net
probloggerworld.de
512mb.net
cs-internet.de
selbstaendig-im-netz.de
upload-magazin.de
vvallo.com
bildblog.de
weblo.ch
bloggingtom.ch
sebbi.de
Quelle: Deutsche Blogs verlieren ihren Pagerank

Bitte meinen Kommentar lesen.




Manchmal ist es wirklich schade, dass man als Leser meines Blogs kaum mitbekommen kann, was ich im Web lese und beobachte. Weltweit ist die SEO-Branche dafür bekannt, dass sie zu den wenigen Branchen überhaupt gehört, die Informationen untereinander austauscht und nicht gegeneinander arbeitet (es sei denn, es ist im Rahmen von Suchmaschinenoptimierung aus beruflichen Gründen notwendig). Ein Teil der SEO-Branche in Deutschland scheint sich etwas anders zu verhalten.

Je nachdem, wo man sich in Blogs und Foren aufhält, trifft man häufig, auch als außenstehender (unsichtbarer) Beobachter, auf Aggressionen der "SEOs" untereinander. Jemand stellt eine Frage und er wird darauf erst einmal von einem Dutzend "SEOs" beschimpft und lächerlich gemacht, bevor jemand endlich auf seine Frage sachlich antwortet, was dazu führt, dass auch dieser beschimpft wird.

Es liegt mir am Herzen, über ein anderes Beispiel zu berichten.

Constantin von seo-united.de erstellte eine statistische Berechnung und wendete mit Sicherheit nicht gerade wenig Zeit dafür auf. Einige Kommentare unter Statistik - PR Verteilung in den Top 10 sprechen für sich. Warum sind wir in Deutschland so aggressiv geworden? Ist es die Unzufriedenheit vieler mit dem Leben, dem Job und sich selbst?

Zu diesem Artikel wandelte ich die Grafik von Constantin in Zahlen um und gab einen Kommentar ab.

Nun ging Baynado hin und schrieb meine Zahlen aus meinem Kommentar ab und berichtete darüber, dass Constantin diesen Artikel schrieb. (Die PageRank Verteilung in den Top 10) Mit zwischenzeitlich 31 YiGGs ein großer Erfolg mit geringstem Zeitaufwand.

Am 5. Oktober schrieb ich noch einen Kommentar bei Baynado zu diesem Artikel:

Komisch, wenn doch vielen der PageRank nicht wichtig ist, warum setzen sie denn alle hier einen Backlink zu ihrem Blog/ihrer Website?
Es kehrte Ruhe ein.

Heute morgen schrieb dann Daniel auf meinen Kommentar:
Vielleicht weil es ihnen um Linkpop geht? Mit dem PR hat das nichts zu tun, solltest Du als “SEO”-Blogger allerdings wissen.

Meine Antwort:
Ach Daniel. Weißt Du, warum gute SEOs oftmals nicht weiterkommen? Weil sie schlechten SEOs mit veralteten Informationen erklären müssen, dass diese nicht mehr angewendet werden. Ich habe aber gelernt, es nicht jedes Mal mehr beweisen zu müssen, denn auch DU kannst googlen.

Die Linkpopularität existiert bei Google nicht mehr. Es gibt Mutmaßungen darüber, und dem könnte ich momentan auch noch zustimmen, dass nur noch die Domainpopularität bei Google eine geringe Wertung erhält. Auch das wird sich in naher Zukunft ändern.

Also bitte, Besserwisserei benötigt immer aktuellste Kenntnisse, ansonsten macht sie anderen nur Arbeit.

Die Anzahl der eingehenden Links hat natürlich nichts mit dem PageRank zu tun. Aber man hofft natürlich, dass auch diese Seite demnächst einen PageRank erhält, denn dann hat man ja direkt einen Backlink mit PageRank. Nur dass dieser, wie Du sicherlich weißt, auch keinen Wert mehr hat.

Tja, Web 1.0-SEOs sterben irgendwann aus.

So ist das Leben als SEO. Entweder mischt man sich nirgendwo ein und arbeitet im Hintergrund oder man kommt oftmals nicht weiter, weil man sich mit Unfug beschäftigen muss.




Nun werden wir uns mit der Erstellung eines keyword-relevanten Textes beschäftigen. Grundvoraussetzung dafür ist es, dass Du die bisherigen Teile gelesen hast.

SEO Web 2.0 - Die Macht der Keywords Teil 3: Keywordpositionierung im Content und Keywordrelevanz wurde heute von mir überarbeitet und ergänzt. Falls Du diesen Teil schon gelesen hast, arbeite ihn bitte noch einmal durch.

Die nachfolgende Anleitung beschreibt die Erstellung von qualitativ hochwertigen Texten, die in der Regel zu einem langfristigen Erfolg eines Projekt führen. Dabei solltest Du besonderen Wert auf korrekte Rechtschreibung, korrekten grammatikalischen Ausdruck und auf Qualität, nicht auf Quantität (aus der mit der Zeit Quantität werden wird) legen.

Fahren wir nun fort mit dem abschließenden Thema der letzten beiden Teile, der Keywordliste:

Nach Erstellung der Keywordliste solltest Du Dich ablenken und entspannen. Halte dabei einen Notizzettel bereit. Höre Musik, gehe spazieren o. ä. Bei Entspannung und Ablenkung schießen uns oftmals Gedanken durch den Kopf. Ideen und Worte, auf die wir unter Anspannung nicht gekommen wären.

+++ PAUSE +++

Eine Zeit später erweiterst Du die Keywordliste um die Begriffe, an die Du gedacht hast. Gehe darauf die Keywordliste nochmals durch und lege sie zur Seite.

Erstelle Dir ein Konzept (!) für den Text, z. B. Einleitung, Hauptteil, Schluss und/oder ein Gerüst mit den Themen (Überschriften), über die Du berichten möchtest. Setze so oft wie möglich Überschriften vor die jeweiligen Absätze.

Halte Dir vor Augen, was Du beachten musst. Wo Du die Keywords im Text positionieren solltest und wie Du sie hervorheben kannst. (u. a. Teil 3)

Wenn Du z. B. ein Produkt anbietest, schreibe in der Einleitung darüber, dass dieses Produkt erworben werden kann und erinnere den Leser zum Ende Deines Textes erneut daran und biete ihm an beiden Stellen einen Link, um es zu erwerben.

Erstelle einen qualitativ hochwertigen Text. Während Du schreibst, werden die Keywords unbewusst mit in den Text einfließen.

In Bezug auf die Länge (Wortanzahl) gibt es unterschiedliche Aussagen. Weder lange noch kurze Texte sind pauschal richtig. Lange Texte erzielen zwar eine hohe Keywordprominenz, aber diese ist nur einer der Rankingfaktoren, den ich nicht allzu hoch einstufe.

Alles geht sich um die Keyworddichte (Keyword density) und Keywordfrequenz (Keyword frequency) (Teil 3). Google ist dabei nicht immer fair. Auch heute noch kann eine Seite, die fünf oder zehn Mal das selbe Keyword hintereinander in kurzen Abständen, bestenfalls als Ankertext, wiederholt - mit anderen Faktoren zusammen - auf Platz 1 der Suchergebnisse landen, selbst dann wenn sich diese Keywordansammlung im unteren Drittel des Contents befindet. Vor allen Dingen Amazon-Spammer finde ich immer wieder mit dieser primitiven Strategie. (... und Google auch...)

Vorteilhaft bei der Texterstellung ist die Verwendung von z. B. Microsoft Word oder einem anderen Texteditor, der eine (aktuelle) Rechtschreibprüfung während des Schreibens durchführt und bei dem Du die Anzahl der Worte sehen (Word 2007) oder abfragen kannst.

Schreibe nun den Text. Schreibe ihn ohne Ablenkung. Ohne Hintergrundgeräusche. Keine Musik, kein Fernsehen, kein Telefon. Schreibe nur, wenn Dir danach ist. Wenn es Dir nicht gut geht oder Du müde bist, lass es und verschiebe es. Andernfalls kann der Leser Deine Unlust evtl. schneller erkennen als Dir lieb ist und Deine Seite verlassen.

Während Du den Text schreibst, werden Dir weitere Keywords einfallen. Notiere sie NICHT, sondern schreibe sie z. B. im Text in GROSSBUCHSTABEN, damit Du sie am Ende wiederfindest. Würdest Du sie jedes Mal notieren, verlierst Du leicht das Verständnis für den Textzusammenhang und hin und wieder vielleicht auch den Faden.

Nach Fertigstellung des Textes lenke Dich wieder ab. Später liest Du ihn in Ruhe und lässt Änderungen einfließen, die Dir dabei einfallen. Prüfe, ob alles wirklich verständlich ausgedrückt ist. Entferne alle Rechtschreib- und Grammatikfehler.

Wenn Du die Möglichkeit hast, leite den Text an eine dritte Person weiter, die idealerweise zu der Zielgruppe gehört, die den Text verstehen soll, aber nicht Deine Kenntnisse hat.

Das Ergebnis Deiner Arbeit und Anstrengungen ist fertiggestellt! Ein qualitativ hochwertiger, fehlerfreier und für Deine Zielgruppe verständlichen Text.

Nun integriere ihn in die Seite. Platziere die Keywords in den Meta-Tags und anderen Tags. Formatiere Überschriften mit H1-Tags (und H2...). Arbeite mit Fettschrift, um wichtige Keywords hervorzuheben. Beziehe Dich ggf. auf andere Text von Dir und verlinke mit entsprechenden Keywords auf diese. (Post "Die Macht der Tags und Attribute" folgt)

Ganz besonders bitte ich Dich darum, auf den Gesamteindruck des formatierten Textes wert zu legen. Bilde z. B. Absätze, die optisch klar getrennt zu erkennen sind (eine Zeile Abstand, wie hier in dieser Post). Achte darauf, dass Randabstände einheitlich sind. Positioniere Grafiken sauber im Text etc. Denn diese "Kleinigkeiten" helfen Dir und Deiner Seite in der nahen Zukunft, wenn Empfehlungen das A und O des Daseins von Seiten im Internet sein werden, d. h. andere redaktionelle Web 2.0-Seiten auf Deine Texte verlinken müssen, um Deiner Seite Erfolg und gute Positionierungen in den Suchergebnissen von Google zu bringen.




Wir bewundern Matt Cutts nicht nur, weil er bei Google als Leiter des Webspam Teams tätig ist, sondern vielmehr, da er der Auserwählte für die Überbringung von Neuigkeiten ist, zumindest von Neuigkeiten, die SEOs betreffen. Aber Matt Cutts ist noch mehr. Er ist ein genialer Rhetoriker und Mathematiker zudem. Er beherrscht die Fähigkeit, auf eine Frage über mehrere Antworten hinweg einzugehen, wodurch man häufig zunächst nicht das versteht, was er ausgefuchst herüberbringt.

Was Matt Cutts wirklich meinte


Zunächst war ich über das Interview vor einer Woche zwischen Eric Enge von Stone Temple Consulting und Matt Cutts selbst etwas verwundert (Eric Enge interviews Google's Matt Cutts). Dass ich es nicht richtig gelesen hatte, wurde mir erst später bewusst. Meine Freude ist nun umso größer, da Dinge eingetreten sind, von denen ich zuvor berichtet hatte.

Kurz vor Veröffentlichung des Interviews hatte Danny Sullivan vom search engine land über die Abstrafung von Linkverkäufern durch Google berichtet und dieses anhand des Beispiels der Website von The Stanford Daily bewiesen. Eine Website, die des Linkverkaufs bezichtigt wird, kann zunächst durch Herabsetzung des PageRank abgestraft werden. Dieses geschah in diesem Fall.

Im Artikel Official: Selling Paid Links can hurt your PageRank or Rankings on Google schrieb Danny Sullivan etwas Interessantes:
Despite Google's policy and even this latest action, they'll never catch all the paid links. It's part of the reason I'd like to see them back off the paid links war and instead work out other ways to determine if a link deserves credit, paid or not.
Interessant fand ich den Satz, dass Google niemals alle bezahlten Links entdecken wird. Im Artikel schrieb Danny, dass Google nur ein paar große Seiten abstrafen würde und die kleinen Seiten würden davonkommen. Nun ja, ist es nicht viel einfacher, anhand der gekauften Links, die auf großen Seiten aufgeführt sind, die kleinen zu entdecken und ggf. eine automatisierte Abstrafung der "kleineren" Seiten einzuführen?

Back on topic. Fassen wir zusammen, was Matt Cutts u. a. sagte:
In general, Google does a relatively good job of following the 301s, and 302s, and even Meta Refreshes and JavaScript.
Google ist also, ggf. bedingt, in der Lage JavaScript zu analysieren.

I think in many cases we can calculate the proper or appropriate amount of PageRank, or Link Juice, or whatever you want to call it, that should flow through such links.
Google berechnet auch weiterhin den PageRank anhand von Links. Oder berücksichtigt Google auch Links bei der Berechnung des PageRanks?

Eric Enge: Right. So, you do try to track that and provide credit. - Matt Cutts: Yes.
Google erhöht weiterhin den PageRank durch eingehende Links. Von allen Seiten? Von Web 1.0-Seiten? Hast Du schon einmal getestet, einen Link von einer Website mit PageRank auf Deine Website zu setzen und herauszufinden, ob eine Veränderung in den SERPs eintritt? Tritt sie ein?

Darauf ging es sich um den (gewollten) Ausschluss von Unterseiten oder dem gesamten Auftritt aus den Suchergebnissen von Google. Wie es zu handhaben ist und ob, z. B. bei noindex dennoch PageRank angesammelt wird. Matt bestätigte dieses, so dass eine Seite, die nicht im Google Index erscheint, dennoch PageRank haben kann und sogar ausgehende Links, die PageRank vererben. Er wies darauf hin, dass eine Seite, die von einer anderen Seite mit nofollow-MetaTag einen Link erhält, von Google nicht gefunden wird, solange sie keine Links von anderen Seiten erhält.

In der internen Verlinkung sollte man unwichtigere Seiten wie Impressum, Kontakt, Disclaimer... mit einem nofollow-Attribut verlinken, um zu verhindern, dass der PageRank sich von den Hauptseiten auf diese Seiten vererbt und somit abfliesst.

Interessant ist, wie Matt Cutts auf eine Frage zum Double Content ausweicht:
That's at the level where I'd encourage people to try experiments and see what works best for them, because we do provide a lot of ways to remove content.
Er sagt nichts konkret dazu, wie Google mit Double Content umgeht und fährt ungehindert mit seinem Thema "noindex" fort. Gerade durch das Web 2.0 entsteht massiv Double Content. Bedenken wir, z. B. beim Social Bookmarking, dass der selbe Link mit der selben Beschreibung auf den Seiten mit unterschiedlichen Tags angezeigt wird, z. B. www.mister-wong.de/tags/Gurke und www.mister-wong.de/tags/Gurken. Hier werden oftmals die selben Inhalte dargestellt. Somit könnte man davon ausgehen, dass Google nicht wirklich mehr Double Content untersucht und verfolgt. Und das nicht erst seit ein paar Monaten.

Schließlich fragt Eric Enge Matt Cutts, dass man doch ein Donnerwetter von Links auf verschiedene Arten zu seiner Seite bekommen könnte, z. B. dadurch, dass man auf der Startseite von Digg landen würde oder durch einen Artikel in der New York Times, worauf in kurzer Zeit viele Seiten auf seine Seite verlinken würden.
Matt Cutts: I would tell the average site owner not to worry, because in the same way that you spend all day thinking about links, and pages, and what's natural and what's not, it's very common for a few things to get on the front page of Digg. It happens dozens of times a day; and so getting there might be a really unique thing for your website, but it happens around the web all the time. And so, a good search engine to needs to be able to distinguish the different types of linking patterns, not just by real content, but breaking news and things like that.

I think we do a pretty good job of distinguishing between real links and links that are maybe a little more artificial, and we are going to continue to work on improving that. We'll just keep working to get even smarter about how we process links we see going forward in time.
Matt Cutts bestätigte, dass Google Links von Web 2.0-Seiten, wie Digg und New York Times, bevorzugt.

Eric Enge: You might have a very aggressive guy that is going out there and he knows how to work to Digg system, and he is getting on the front page of Digg every week or so. They would end up with a very large link growth over a short period of time, and that's what some of the pundits would advise you to do.

Matt Cutts: That's an interesting case. I think at least with that situation you've still got to have something that's compelling enough that it gets people interested in it somehow.

Eric Enge: You have appealed to some audience.

Matt Cutts: Yeah. Whether it's a Digg technology crowd or a Techmeme crowd, or Reddit crowd, I think different things appeal to different demographics.
Interessant, oder? Bei Web 2.0-Seiten ist alles erlaubt? Selbst das, was bei Web 1.0-Seiten (Websites) zur Abstrafung führen kann, wird bei Web 2.0 mehr als geduldet.

So, I think we will keep working on trying to improve search quality and improve how we handle links, and handle reputation, and in turn we are trying to work with Webmasters who want to return the best content and try to make great sites so they can be successful.
Wohl war, wohl war. Google wird einiges in Kürze verändern, was die Handhabe von Links aus dem Web 1.0 angeht. Da bin ich mir sicher.

Auch bin ich sehr gespannt, was aus der Auslastung der Google-Server in den letzten Tagen resultieren wird. Wird es das wohl letzte TBPR-Update (Google Toolbar PageRank-Update) geben oder liegen andere Gründe vor, die die Google-Server beschäftigen?

Ich hoffe, dass Google deren Datacenter weiter in dem Umfang ausbauen wird, dass Neuberechnungen der Relevanz von Seiten (PageRank) keine Auswirkungen mehr auf die Indexierung von neuen Inhalten haben werden. Es kann nicht sein, dass das Internet alle paar Wochen eine Pause einlegen muss, damit die Google-Server nachkommen.




Miriam gab zu meiner Post SEO Web 2.0 - Die Macht der Keywords Teil 5: Wirklich relevante Keywords ermitteln am 28. September 2007 um 22:13 Uhr einen Kommentar ab:

Aber was mache ich, wenn ich die Google Toolbar nicht installiert habe und auch nicht installieren werde, weil sie ständig nach Hause telefoniert?
Miriam hat natürlich Recht, da der Google Toolbar Notifier (unter c:\programme\google\googletoolbarnotifier\googletoolbarnotifier.exe) einmal täglich an mu-in-f103.google.com (IP 209.85.135.103) über Port 80 die Begriffe überträgt, mit denen man über Google gesucht hat. Zum Ärgernis des Users der Google Toolbar, die durch den Windows XP-Firewall und den Hardwarefirewall eines üblichen Routers hindurch "telefoniert". Ohne Warnmeldung des Firewalls/Routers. Aber das nur by the way. Mehr über Sicherheit: Sicherheitslücke Router (Empfehlung)

Fragen über Fragen

Google Toolbar Keyword Vorschläge online?


Vorschläge Keywordkombinationen von Google möglich?


Vorschläge relevante Keywordkombinationen ohne das Keyword selbst von Google möglich?



Google Toolbar Keyword Vorschläge online?
Beschäftigen wir uns zunächst mit der Alternative zur Google Toolbar. Natürlich ein Produkt aus dem Hause Google, da wir für Google optimieren wollen und nicht für Yahoo.

Eine kleine Spielerei: http://www.google.de/webhp?complete=1&hl=de führt wohin? Richtig. Zur Google-Suche. Aber wohin führt der gleiche Link mit en am Ende?

Zu Google Suggest aus den Google Labs! Google Suggest bietet die gleiche Funktionalität in Bezug auf Keywordvorschläge wie die Google Toolbar und zeigt zusätzlich noch die Gesamtanzahl der Suchergebnisse in den SERPs für das Keyword an.

Um es einfach zu gestalten, nehmen wir lediglich das Keyword Sonnenschirm im folgenden Beispiel und geben es in Google Suggest ein:

Suchmaschinenoptimierung: Google Suggest - Keyword "Sonnenschirm"

Google Suggest zeigt wie die Google Toolbar zusätzlich Sonnenschirme an und dass das Keyword Sonnenschirm weniger Suchergebnisse liefert als das Keyword Sonnenschirme.

Vorschläge Keywordkombinationen von Google möglich?
Vorschläge relevante Keywordkombinationen ohne das Keyword selbst von Google möglich?
Thesaurus, Keywordvorschlagstools, Google, Yahoo, Overture... hin und her. Aber was fehlt? Vorschläge, wonach relevant gesucht wurde! (???)

Kommen wir zum nächsten Online-Tool aus dem Hause Google. Es ist längst in Vergessenheit geraten: Google Sets, wiederum aus den Google Labs. Google Sets liefert auch aktuelle Daten von Google Deutschand, wobei es bedeutsamere Keywords sein müssen. Ein Keyword, nachdem lediglich 10.000 oder 50.000 mal gesucht wurde, ist nicht aufgeführt.

Kein anderes Keyword Tool, welches ich kenne, hat diese Leistungsfähigkeit und liefert noch wesentlich bessere und nützlichere Ergebnisse als alle Thesauri, Keywordtools und die Google Toolbar zusammen.

Mit diesem Keywordtool lässt sich auch herausfinden, nach welchen anderen Begriffen jemand gesucht hat. Wir Menschen sind nicht berechenbar, auch wenn man versucht, unser Verhalten zu analysieren. Drücken wir es einmal extrem aus: wenn wir nach Fernsehprogramm suchen, könnte es eintreten, dass wir eine DVD bestellen und uns das Programm im Fernsehen überhaupt nicht mehr interessiert.

Vor dem Einsatz dieses wohl mächtigsten Keywordtools beschäftigen wir uns mit drei Beispielen:

Beispiel 1
Stellen wir uns vor, Du hättest das Keyword Hundefutter optimiert, möchtest aber wissen, wonach Leute gesucht haben, die im Suchergebnis auf Hundefutter geklickt haben. Google Sets liefert Dir z. B. Katzenfutter und Tierhalterhaftpflicht. Würdest Du nun diese beiden Begriffe optimieren, hättest Du zusätzliche Besucher.

Beispiel 2
Stellen wir uns vor, Du hättest das Keyword Bananen optimiert, möchtest nun wissen, wonach Leute gesucht haben, die im Suchergebnis auf Bananen geklickt haben. Google Sets liefert Dir z. B. Ananas und Birnen.

Beispiel 3
Stellen wir uns vor, Du hättest das Keyword Neuwagen optimiert, möchtest nun wissen, wonach Leute gesucht haben, die im Suchergebnis auf Neuwagen geklickt haben. Google Sets liefert Dir z. B. Gebrauchtwagen und kfz versicherung.

Geben wir nun die folgenden Begriffe in Google Sets ein:
animiertes Regenradar, Wetterkarte, Regenradar und Wetter

Suchmaschinenoptimierung: Google Sets - Keywordkombination "animiertes Regenradar"

und klicken auf den Button Large Set. (<- Klicken - öffnet in neuem Fenster)

Google Sets prognostiziert nun eine Vielzahl von Keywords, von denen ich mir einige passende ausgewählt habe:
regenradar, wetterkarte, wetter, bayernwetter, ortswettersuche, deutschland, nachrichten, wind, wetterkameras, radar, freizeitwetter, niederschlag, reisewetter, weltwetter, gewitter, regen, wetterfilme.

Das kleinere Set (Button: Shrink Set) liefert die relevantesten Keywords: wetterkarte, wetter und regenradar

Nun bist Du an der Reihe! Gib Deine Keywords in Google Sets ein. Sicherlich sind hier ausführliche Tests notwendig, es lohnt sich aber richtig!

Die sich nun ergebenden Keywords solltest Du mit Google Suggest überprüfen, um heraus zu finden, wie häufig danach gesucht wurde.

...

Schön, dass Du wieder da bist. Vor einer Stunde hatte ich Dich auf Google Sets aufmerksam gemacht! Hast Du gemerkt, wie schnell die Zeit vergangen ist, die Du gerade in Google Sets investiert hast? Du solltest jetzt eine kleine Pause machen.

...

Ich weiß nicht, ob ich Dich jetzt überhaupt noch mit einem weiteren Keywordtool begeistern kann. Der Fairness halber möchte ich neben Google und Yahoo! Keywordtools auch das Keyword-Tool von MIVA erwähnen. Google AdWords erreicht ca. 70% Marktanteil im Bereich des Keyword Advertising in Deutschland, Yahoo! 20% und MIVA 10%.

MIVA (früher FindWhat.com) verarbeitet monatlich 2 Milliarden Suchanfragen weltweit. Schau Dir einmal an, wo MIVA in Deutschland wirbt und wer mit MIVA in Deutschland wirbt.

Die MIVA Keyword-Generator Box betrachte ich als sinnvolle Unterstützung, falls die Ideen einmal ausgehen. Auch sie zeigt relevante Keywords (der letzten 30 Tage) an. Keywords, die jedoch den Suchbegriff enthalten.




Am Mittwoch Abend, 3. Oktober 2007, gegen 20 Uhr gelangten unbekannte Täter nach Aufhebeln einer Tür in die Räumlichkeit von YiGG. Dort brachen sie eine weitere Tür zum Serverraum auf und transportieren die Server aus dem Gebäude auf einen angrenzenden Parkplatz. Als ein Zeuge gegen 22:15 Uhr mehrere Personen dabei beobachtete, wie sie Server transportieren, stellten diese die Server ab und flüchteten mit einem Pkw in unbekannte Richtung. Die Täter können nicht näher beschrieben werden. Eine sofort eingeleitete Fahndung der Polizei verlief erfolglos.

Eine aus kriminalpolizeilichen Sachbearbeitern mehrerer SOKOs unmittelbar zusammengesetzte Arbeitsgruppe arbeitet nun unter dem Kennwort: SOKO YiGG

Ermittler bitten nun Öffentlichkeit um Hinweise
Polizei und Staatsanwaltschaft bitten bei der Fahndung nach dem gesuchten Haupttäter um Hinweise aus der Bevölkerung. Möglicherweise können sich auch andere, die sich am Mittwochabend am YiGG-Gebäude aufhielten, an diese Person erinnern. Den Ermittlern liegt nun ein Fahndungsfoto vor. Ein Hinweis aus der Bevölkerung lieferte ein Foto, welches der Haupttäter kurz zuvor auf der Website von YiGG online gestellt hatte. Offenbar ging er davon aus, dass niemend den Diebstahl bemerkt, wenn er kurze Wartungsarbeiten vortäuschen würde. Unklugerweise lichtete er sich dabei spiegelbildlich selbst ab, bemerkte es aber nicht. Nach Auswertung des Fotos kann der Mann in etwa wie folgt beschrieben werden:

Geschätztes Alter zwischen 30 und 40 Jahre, schlanke Figur, lichte Frisur. Zur Tatzeit war er mit einem mittelblauen Hemd bekleidet. Die Qualität des Fotos lässt bedauerlicherweise keine genauere Einschätzung zu.

YiGG!

YiGG!Dieses Foto stellte der Täter auf die YiGG-Website:

Der Gesuchte spricht den Angaben zufolge hochdeutsch und ist vermutlich deutscher Herkunft.

Sachdienliche Hinweise bitten wir an das

Aufnahmestudio Zürich

 zu richten.


Dargestellte Fotos unterliegen dem Copyright des jeweiligen Rechteinhabers.