Ich traute gerade meinen Augen nicht. Ein PR5-Backlink von http://blogger.com für dieses Blog? Interessant?!

Und das von http://blogger.com/changes10.g, einer Linkfarm aus dem Hause Google.

Die Google Richtlinien für Webmaster sagen:

Beschränken Sie die Anzahl der auf einer Seite vorhandenen Links auf ein vernünftiges Maß (weniger als 100).

Die "Recently Updated Blogs"-Seite vom Google Blogger enthält in diesem Moment gerade 11.532 ausgehende Links.




Werde Spam-Reporter - Hilf die größte von Menschen geschaffene Suchmaschine des WWW zu säubern!


Die Tricks der Suchmaschinenoptimierer, welche verwendet werden und wie man sie erkennt und meldet.

Ich habe nichts gegen Affiliate-Seiten. Einige wenige dieser Seiten sind wirklich gut und hilfreich und informieren wahrheitsgemäß über Tatsachen. Das sind leider die Seiten, deren Betreiber am wenigsten verdienen. Denn Qualität führt zu wesentlich größerem Aufwand und reduziert die Einnahmen durch hohe Kosten, solange es Webspam-Seiten gibt.

Immer mehr Seiten mit Affiliate-Links sprießen aus dem Boden, die Besucher und Suchmaschinen täuschen. Bestimmte Nischenbereiche im Web sind schwer umkämpft von Seiten, die keinen qualitativ hochwertigen Content ins Netz stellen. Vielmehr werden "bedarfsgerechte Keywordkombinationen" online gestellt, die dazu notwendig sind, um Menschen wie Du und ich, die nach einem Produkt suchen, nicht das Produkt finden zu lassen, sondern auf das Produkt optimierte Seiten mit lückenhaften oder gar falschen Aussagen.

Warum sind die meisten Affiliate-Seiten schlecht?


Viele täuschen die Besucher, in dem sie Anbieter hervorheben mit bestimmten Merkmalen, ohne auf die teilweise tief in deren Bedingungen versteckten Vertragsfallen hinzuweisen. Egal, ob es sich um Handytarife, DSL-Angebote, Kredite, Geldanlagen oder sonstige Produkte handelt.

Diese Seiten arbeiten häufig mit allen Mitteln, um auf die ersten Plätze zu kommen, die natürlich sehr erträglich sind. Aber auch andere Seiten im Web täuschen z. B. die Suchmaschinen, in dem sie serverseitig abfragen, ob der Besucher ein Bot (Crawler/Suchmaschinenroboter), z. B. GoogleBot, ist, um ihm dann eine gefälschte Seite auszugeben, die meist Keywordwiederholungen, Keywords mit besonderer Keywordnähe und Rechtschreibfehler beinhaltet, kein Design oder CSS und andere "Spielereien".

Verborgener Text oder Links


Wenn Du eine Seite findest, die topgelistet ist, z. B. in einem Bereich, in dem Du auch tätig bist, vergleiche den Quelltext mit dem, was im Browser angezeigt wird. Merke Dir die Inhalte der Seite und prüfe, ob nicht ein wenig mehr im Quelltext steht. Es gibt viele Methoden:
  • Text hinter Bildern verstecken

  • Text in DIV-Elementen außerhalb des sichtbaren Bereiches positionieren

  • Text mit kleinster/keiner Schriftgröße über ausgelagerte CSS gesteuert (font-size:0; line-height:0;)

  • Text nicht anzeigen (display:none;)

  • Erste Zeile eines Absatzes außerhalb des sichtbaren Bereiches einrücken (text-indent:-999px;)

  • Text mit Hilfe von JavaScript nicht auf der Seite anzeigen

  • usw.
Tatsächlich werden auch hin und wieder noch völlig veraltete Methoden eingesetzt: eine lange Liste von Wörtern im Footer der Seite, die in ähnlicher Farbe als der Hintergrund erscheint. Erstaunlich ist, dass diese alte Methode bei Google immer noch funktioniert, selbst mit kleinster Schrift.

Irreführende oder sich wiederholende Wörter


In Kombination mit verborgenem Text werden häufig auch sich wiederholene Wörter und Sätze erzeugt oder auch absichtlich Rechtschreibfehler, damit die entsprechend manipulierten Seiten auch dann gefunden werden, wenn sich der Suchende in Google vertippt. Selbst im Seitentitel (title) können alle Rechtschreibfehler hintereinander aufgeführt werden und Google merkt es nicht.

Die Seite stimmt nicht mit der Beschreibung von Google überein


Das ist peinlich für den Seitenbetreiber. Dann hat die Manipulation von Google irgendwo nicht funktioniert und wird teilweise transparent. Oder es wurden mit Cloaking andere Meta-Tags der Suchmaschine zur Verfügung gestellt, als auf der Seite aufgeführt oder nicht aufgeführt sind. (title, description)

Cloaking (IP-Delivery)


Die alte Methode mit JavaScript-Redirecting/Javascript-Cloaking brauche ich wohl nicht mehr ansprechen. Spätestens seitdem Anfang 2006 BMW.de dadurch in entsprechenden Kreisen ziemlich bekannt wurde, für kurze Zeit aus dem Google Index genommen wurde und Matt Cutts einen schönen Webspam-Blogpost darüber schrieb...

Die aktuellere Methode mit IP-Delivery (IP-Cloaking) ist (war?) da etwas effektiver. Serverseitig wird per PHP die IP des "Besuchers" mit einer Liste der IP-Adressen der Suchmaschinenrobots abgeglichen. Handelt es sich bei der IP um einen Bot, wird ihm eine speziell manipulierte Seite präsentiert, die so aufgebaut ist, wie oben schon beschrieben.

Die Methode IP-Delivery sollte bald aussterben, denn Google und Yahoo verwenden zwischenzeitlich Strategien, bei denen z. B. ein menschlicher Besucher nachgeahmt wird. Solange der Cloaker nicht die IP kennt, mit der die Suchmaschine einen menschlichen Besucher simuliert, hat er ein Problem. Yahoo setzt neue Methoden mit dem Crawler Slurp ein. Auch hier von neuen IP-Adressen aus. Wie man Cloaking aktuell richtig betreibt, kann man bei Sistrix nachlesen: DNS- und Reverse-DNS-Auflösung.

Wie kann man prüfen, ob eine Seite Cloaking betreibt? - Rufe die Seite im Cache von Google auf. In der Google Suche eingeben: cache:www.domain.de bzw. cache:www.domain.de/verzeichnis/verzeichnis2/datei.htm. Stehen dort andere Inhalte, melde die Seite an Google.

Noch etwas Spaßiges zu Cloaking: es soll da das ein oder andere Suchmaschinenforum geben, in dem solche IP-Adresslisten von Suchmaschinencrawlern veröffentlicht werden. Die meisten Veröffentlicher haben dabei einen Riesenspaß, denn diese Listen enthalten veraltete IPs. Somit schafft man sich einiges an Konkurrenz vom Hals.

Irreführende Umleitungen


Du besuchst eine Seite und es macht "klick" o. ä. - In dem Moment, wo Du die Domain aufrufst, erfolgt sofort eine Weiterleitung auf ein Unterverzeichnis, damit der Besucher nicht lesen kann, was auf der Startseite steht. Früher hat man so etwas mit

<meta http-equiv="refresh" content="0; url=http://www.domain.de">

gemacht. Später dann mit JavaScript. Dann mit htaccess und 302- oder 301-Redirect.

Brückenseiten (Doorway-Pages)


Stell Dir vor, Du hast eine Seite, die ein Produkt beschreibt. Es ist unmöglich, alle Arten von Keywordkombinationen auf dieser einen Seite so unterzubringen, dass es niemand merkt. Zu diesem Zweck erstellt man manuell oder über Software automatisiert, eine Vielzahl oder Unzahl von Brückenseiten (100, 1.000, 10.000, 100.000), die alle einen ähnlichen Text haben und mit jeweils anderen Keywords bestückt sind. Die einen Brückenseiten kann man als menschlicher Besucher sehen, andere werden sofort auf die Domain oder die für den Besucher erstellte Seite weitergeleitet und wieder andere liefern z. B. einen 404, wenn ein Besucher versucht, sie aufzurufen. Vielleicht hast Du in der Google Bildersuche schon einmal ein Bild angeklickt und es führte zu einer Seite, die dann 404 anzeigte bzw. zu einer anderen Seite weiterleitete. Dann hast Du eine Brückenseite erwischt.

Ein anderer Trick ist, dass all diese Seiten gar nicht real existieren, sondern erst für den Suchmaschinencrawler automatisiert und mit passenden Keywords aus einer angeschlossenen Datenbank versorgt, erzeugt werden.

Doppelt vorhandene Sites oder Seiten


Eine Website existiert unter www.domain.de und haargenau die selbe Website unter www.domain2.de. Das merkt Google sehr schnell und entfernt eine davon aus dem Index. Solltest Du schneller als Google sein, trage dazu bei, dass diese Seite aus dem Index entfernt wird. Will ein Betreiber zügig auf die ersten Plätze, z. B. für eine Aktion, kann er mit doppelt vorhandenen Websites oder Seiten für eine kurze Zeit, bis er entdeckt wird, diese Positionen erreichen. Wird er entdeckt, erzeugt er immer wieder und wieder neue Seiten und bleibt dauerhaft in den SERPs oben. Mit entsprechender Software kann er eine nahezu unendliche Anzahl solcher Seiten erzeugen und online stellen.

Wir alle wollen auch morgen noch im Web surfen können, ohne zugespamt und zugemüllt zu werden.

Wir alle wollen uns informieren können und dabei die Wahrheit erfahren.

Wir wollen Vor- und Nachteile von Produkten sehen und erfahren und nicht Seiten präsentiert bekommen, die lediglich die Produktvorteile aufführen und uns in Fallen tappen lassen.


Deswegen:
Werde Spam-Reporter - Hilf die größte von Menschen geschaffene Suchmaschine des WWW zu säubern!

Google Spam Report ohne Login. Du brauchst keinerlei persönliche Daten angeben.

Spam im Google-Index melden mit Login in den Google Webmaster-Tools

Google möchte sich für Ihre Unterstützung bei der Verbesserung unserer Dienste, die wir Websuchern auf der ganzen Welt bereitstellen, bedanken. Indem Sie uns helfen, Spam zu eliminieren, sparen Sie Millionen von Menschen Zeit, Mühe und Energie. Dies ist unserer Meinung nach ein lohnenswertes Ziel.


Der Post Google Spam Report - Werde Spam-Reporter! wurde in die Kategorie Suchmaschinenoptimierung, SEO Web 2.0, Social Media Optimization, SMO eingeordnet.





nofollow ist so richtig in Mode gekommen

, wie wir alle wissen. Das Internet folgt bald gar nicht mehr. Und wer etwas auf sich hält, der verwendet nicht das einfache rel="nofollow", sondern setzt rel="external nofollow", welches von Wordpress "erfunden" wurde.

Der Zusatz "external" zum rel-Tag ist sinnlos. "external" wäre eigentlich dazu dagewesen, einen externen Link zu markieren, damit Besucher diesen als solchen erkennen und ihn ggf. im neuen Fenster öffnen. Aber: Besucher können es nicht sehen, da dieses rel-Tag, auch in Kombination mit nofollow, von keinem Browser unterstützt wird. However.

Kommentare ohne nofollow sind Kommentarspam?


In den letzten Wochen wurde die seit Januar 2005 endlose Diskussion über nofollow weitergeführt. Und auch die Diskussion, dass Kommentare ohne nofollow immer Kommentarspam wären. Gerade die, die selbst Methoden verwenden, die defintiv nicht unter WhiteHat SEO fallen (Cloaking, 301...), haben hierbei die lautesten Stimmen.

Aber: jedes Blog lebt von Kommentaren. Und jeder Blogautor lebt umso mehr davon, denn Feedback ist wichtig. Lob als auch konstruktive Kritik hilft und fördert. Durch die Einführung von nofollow kommentiert so gut wie keiner mehr, es sei denn, er weiß, dass er einen Backlink mit einer PageRank-Vererbung erhält. Das kann es doch nicht sein, oder?

Jeder sollte die Autoren mit Kommentaren unterstützen. Das tut gut und motiviert sie für weitere gute Arbeit. Gibt es noch Menschen, die auch ohne PageRank-Vererbung eine Meinung haben und diese kundgeben möchten? Irgendwie kaum noch.

Demnach muss eine Alternative gefunden werden, damit alle glücklich sind. Und die lautet eindeutig:

Kommentieren in Blogs ohne nofollow (mit dofollow)

Wenn einem etwas Gutes widerfährt, dann ist es doch einen Kommentar wert?! Oder nicht? - Nun kann man ja nicht zu jedem Thema einen Kommentar abgeben bzw. interessiert sich für viele Themen überhaupt nicht. Eine Suchmaschine muss her, die themenrelevante dofollow-Blogs findet. Aber die gibt es schon längst. Und mehr als genug davon.

Somit können wir zwei Dinge kombinieren. Die Suche nach einem Thema, welches uns interessiert und die freie Meinungsäußerung, verbunden mit Lob oder Kritik, in einem Kommentar.

"Blogs mit hohem PageRank" - Gestern suchte ein Besucher dieses Blogs zuvor in Google nach dieser Keywordkombination. Was er wohl beabsichtigte?

Bevor man loslegt und bevor man seine Seite zerschießt, sollte man diese 10 Gebote beachten:

Die 10 Gebote für Kommentare

  • schreibe wirklich etwas Relevantes zum Blogpost, den Du gelesen hast - hinterlasse Deine Gedanken und Deine Meinung

  • schreibe dem Blogautor genauso, wie Du Dir einen Kommentar in Deinem Blog wünschen würdest - bleibe aber sachlich und schleime nicht herum

  • kommentiere nie kurz nachdem ein Post online gestellt wurde*

  • 1 - 2 Kommentare innerhalb von 24 Stunden - mehr nicht

  • verwende Deinen Namen oder Spitznamen, aber möglichst kein Keyword - falls doch, dann hin und wieder, und wechsle es*

  • wenn Du einen Kommentar schreibst und im Kommentar einen Link angibst, schreibe deutlich mehr Text als die Länge des Links ist*

  • wenn Du schon einen Link zu Deiner Seite angegeben hast, verwende diesen Link im Kommentar auf keinen Fall noch einmal*

  • kommentiere keine alten Posts, wo der letzte Kommentar schon Wochen und mehr zurückliegt*

  • achte auf die Qualität des Blogs, prüfe den PageRank - hat das Blog keinen PageRank und es ist älter als 3 Monate, kommentiere nicht

  • hat das Blog einen PageRank, prüfe ein paar ältere Unterseiten - ist dort kein PR vorhanden, kommentiere nicht
*gilt vor allen Dingen bei Wordpress-Blogs

Warum nicht kommentieren, wenn kein PageRank (bei älteren Post) vorhanden ist?
Weil die Wahrscheinlichkeit groß ist, dass zuvor PageRank (und somit auch Trust von Google) vorhanden war, und aus irgendwelchen Gründen dieser weggefallen ist, die niemals positiver Natur sind.

Wenn wir alle daran arbeiten und endlich wieder Menschen loben für deren Arbeit und Zeit, wenn wir Ihnen einen Dank von Herzen übermitteln dafür, dass sie uns etwas beigebracht haben, dann wird es mit der Zeit wieder mehr Qualität im Internet geben und mehr Menschen, die bereit sind, außergewöhnliche Leistungen zu vollbringen.

Do Follow Blogs Directory mit PageRank

DoFollow Blogs/Sites Search Engine

Blog Comment Niche Search

---

Und wer im Firefox- oder Mozilla-Browser sehen möchte, welche Links mit nofollow "external nofollow" ;-) versehen sind, der installiert sich z. B. SearchStatus: A Search Extension for Firefox and Mozilla. (Nach Installation muss im Menü von SearchStatus noch "Highlight Nofollow Links" ausgewählt werden, die dann farblich markiert werden.)




Bad Neighborhood Detector tool


Mit Reverse IP in meinem letzten Post konnten wir die Qualität des Servers, auf dem unsere Domain(s) gehostet sind, prüfen. Passend zum Thema sollten wir auch die Qualität der Seiten prüfen, auf die wir verlinken, und im selben Arbeitsschritt die Qualität der Verlinkungen dieser Seiten prüfen. Denn selbst, wenn wir zum Zeitpunkt, an dem wir einen Link auf eine Seite gesetzt haben, uns diese Seite anschauten und nichts Auffälliges finden konnten, haben wir keine Kontrolle über deren Linkaufbau oder schlimmer: Linktausch.

Das "Bad Neighborhood Detector tool" dient zur Erkennung von schlechter Nachbarschaft. Hier geht es sich vor allen Dingen darum, Verlinkungen auf Spamseiten zu ermitteln, die sich häufig z. B. im Adult- und bestimmtem pharmazeutischen Bereich befinden. Der Anbieter des Bad Neighborhood Tools weist darauf hin, dass es sich nicht immer um schlechte Nachbarschaft handeln muss, wobei Google das zwischenzeitlich etwas extremer sieht.

Das Tool analysiert Texte in Ankertexten. Hierbei können auch Seiten als schlechte Nachbarschaft markiert werden, die es evtl. nicht sind. Du solltest dann aber ein Augenmerk darauf richten und die jeweilige Seite prüfen.

Das Text Link Checker Tool von Bad Neighborhood.




Reverse IP

 steht für die Rückwärtssuche über die IP-Adresse oder auch über die Domain selbst (die dann wiederum vor der Suche zur IP-Adresse "umgewandelt" wird). Mit "Reverse IP Domain Check" kann eine Liste aller Domains aufgelistet werden, die auf einer IP-Adresse gehostet werden.

Wenn Du eine oder mehrere Domains und keinen eigenen Webserver betreibst, legt der Hoster eine Vielzahl vom Fremddomains mit auf die selbe IP-Adresse.

Ein SEO-Mythos geht in übertriebener Weise davon aus, dass Fremddomains, die auf einer IP mit gehostet werden, generell einen Einfluss auf den Trust einer Seite hätten. Diese Aussage wird häufig überbewertet. Würdest Du eine Domain bei einem Hoster haben, der für SPAM bekannt wäre und der größte Anteil der anderen Domains auf der selben IP wären SPAM-Seiten, könnte es sich nachteilig auswirken. In jedem Fall solltest Du eine Prüfung in regelmäßigeren Abständen von einigen Monaten durchführen.

Dennoch sind "Reverse IP Domain Checker" in fast allen Fällen Fun-Tools, in seltensten Fällen könnte hier jedoch eine mögliche Ursache für deutlich verschlechterte Platzierungen gefunden werden.

Solltest Du bei einem Test die ein oder andere Seite finden, die Dir irgendwie spanisch vorkommt, gibt es keinen Grund den Hoster zu wechseln. Treten fast ausschließlich Domains auf, bei denen man bereits vom Domainnamen ableiten kann, dass es sich um Spam-Seiten handelt, solltest Du den Hoster um Zuordnung einer anderen "sauberen" IP bitten oder kündigen. Ein sofortiger Domainumzug kostet zwar Geld, aber ist sinnvoller, als auf einer Spam-IP zu bleiben.

Betreiber von Spam-Seiten suchen ständig Server, die nicht als Spam-Server bekannt sind. Der ein oder andere Hoster wittert zunächst ein Geschäft und geht dann auf den Handel ein. Welche Themenbereiche zu Spam zählen, führe ich hier besser nicht auf. Sie sind aber sofort erkennbar. ;-)

Teste, welche anderen Domains auf der IP-Adresse Deiner Website mit gehostet werden. Es reicht dazu aus, Deine korrekte Domain anzugeben, z. B. website.de bzw. www.website.de:

Reverse IP Check



you get signal Reverse IP Domain Check
you get signal Reverse IP Domain Check

SEO Egghead - What is Hosted on that IP?
(11.02.2010: liefert keine Ergebnisse)
http://www.seoegghead.com/tools/what-is-hosted-on-that-ip.php

Reverse IP Lookup / Reverse DNS Tool
Reverse IP Lookup / Reverse DNS Tool

myIPneighbors reverse IP domain check
(11.02.2010: Domain überlastet)
http://www.myipneighbors.com/

Im Test wurden weitere "Reverse IP Analyse Tools" getestet, die nicht funktionierten oder nur eine Domain fanden, wie z. B. die "LinkVendor Reverse IP analysis" (http://www.linkvendor.com/seo-tools/domains-from-ip.html).




Landesspezifische Ausrichtung einer Website


Dietmar gab eben eine interessanten Kommentar zu meinem letzten Blogpost Ausblick in die Zukunft dieses Blogs ab und stellte die Frage:

Wie wichtig ist es, dass sich die IP Adresse im richtigen Sprachraum befindet?

Es ist nicht wichtig, dass sich die IP-Adresse in dem Land befindet, in dem man seine Zielgruppe sucht.

In seinem Beispiel geht es sich darum, ob man mit einer .it-TLD (auch) das .de-Publikum erreichen kann. Gleichbedeutend wäre es, mit einer .at-TLD oder .ch-TLD mit deutschem Content/deutscher Sprache das .de-Publikum erreichen zu wollen.

Meine Antwort ist ein eindeutiges "Ja, es geht." - Immer wieder geht das Gerücht herum, dass es nicht gehen würde.

Es ist auch keine nicht länderspezifische TLD (Top-Level-Domain) notwendig, wie .com, .org oder .net.

Muss ein geografisches Ziel festgelegt werden?


Es muss kein geografisches Ziel in den Google Webmaster-Tools zugewiesen werden. Dieses wäre auch nicht möglich, da man nur ein einziges Land wählen kann.

Wie könnte es gehen?
Die Möglichkeit, für jedes Land eine länderspezifische Domain anzulegen, halte ich für völlig unpraktikabel. Subdomains, z. B. de.domain.it, sollte man keinesfalls mehr verwenden. Genauso wenig wie domain.it/deutsch/, was ich irgendwo gelesen hatte. Wie sollte es bei den anderen deutschsprachigen Ländern funktionieren? Mit domain.it/oesterreichisch/? ;-)

Bei unterschiedlichen Sprachen würde ich mit domain.it/en/ bzw. domain.it/de/ arbeiten. Darum geht es sich hier aber nicht. Es geht sich darum, den selben Content für mehrere Länder mit der selben Sprache zu optimieren.

Wie optimiere ich meine Website auf mehrere TLDs?

Integriere in die Meta-Tags:

<meta name="country" content="DE,AT,CH,IT" />
<meta name="language" content="DE" />


Verwende IMMER die Länderkürzel, die z. B. in dem o. g. Link "Top-Level-Domain" aufgeführt sind und niemals andere.

Meta-Tags ergänzen und dann funktioniert es?

Das wäre doch zu schön. Ich müsste vorgreifen auf einen Post, der sehr bald folgt, aber ich kann es ja schon andeuten: je mehr Backlinks von TLD .de erfolgen, desto wichtiger wird die .it-Domain in Deutschland.




Ich dachte mir, ich gebe einmal einen kleinen Ausblick in die Zukunft dieses Blogs. Die SEO Knights bestehen, wie bereits gesagt, aus derzeit vier Personen. Einer davon bin ich. Wir verfolgen diverse Ziele. Ein besonderes Ziel ist der Test zahlreicher Rankingfaktoren. Hierzu gehören sowohl alte Rankingfaktoren, die man früher verwendet hat, als auch aktuellere bis aktuellste. Diese Tests sind zum Teil schwierig durchzuführen und können zu nicht beweisbaren Ergebnissen führen. Manchmal auch deswegen nicht beweisbar, da man die im Test verwendeten Domains nicht offenlegen kann.

Was testen wir derzeit?

1. Die Relevanz von Trennzeichen in Dateinamen. Hat die Art des Trennzeichens einen Einfluss auf das Ranking? Werden bestimmte Trennzeichen von Google bevorzugt? Stimmt es denn überhaupt, was oft behauptet wird, dass das Minuszeichen das ideale Trennzeichen wäre?

2. Schadet nofollow einer Website/einem Blog (die/der es einsetzt)?

3. Ein Test mit H1-Tags (H1, H2, H3...) ist der bekannteste: Ranking-Faktoren: H1 bis H6 im Detail - Gibt es ein Zusammenspiel zwischen den H1-Tags?

4. Wie kann eine Domain mit einem Keyword unsichtbar optimiert werden, ohne dass die Domain oder der Content (einschließlich allem, was im Quelltext aller Unterseiten erscheint) dieses Keyword enthält? Ohne dass auch nur ein einziger Backlink im Ankertext dieses Keyword enthält oder es sich im den Ankertext umlaufenden Textbereich befindet? (Ich kenne die Lösung.) (Das dauert, bevor ich darüber schreibe.)

5. Bei mir geht es derzeit nicht um PageRank. Die rechts aufgeführten kommenden Posts verschieben sich weiterhin... Ich beschäftige mich mit etwas, was sich IP-Adresse nennt. ;-) - Allerdings in jedem erdenklichen Umfang im Bereich der Suchmaschinenoptimierung.

6. Kann man eine Domain für ein Land durch Backlinks aus anderen Ländern (IPs) stärken?

7. Wie kann eine .com-Domain mit deutschsprachigem Content, die in USA gehostet ist und keinen einzigen Backlink aus Deutschland oder einem deutschsprachigen Land hat, keinen Meta-Tag mit "de" und auch kein geografisches Ziel in den Google Webmaster-Tools festgelegt wurde usw., bei google.de mit einem gezielten Keyword top plaziert sein?

8. Diverse Seitenstrukturen, Nähe der Unterseiten zur Domain, Speicherort der Unterseiten in der Verzeichnisstruktur.

Ansonsten teste ich seit einigen Wochen, warum mir Red Bull keine Flügel mehr verleiht und die Frühjahrsmüdigkeit chronisch zu werden scheint. Falls jemand diesbezüglich Tipps hat, die über Traubenzucker, Kaffee, Coffein & Co. hinausgehen, würde ich mich freuen, davon zu erfahren. (Sport mache ich viermal pro Woche, Ernährung ist Ok., Schlaf weitestgehend...)

Und: Wie gesagt, die Reihenfolge des Postens wird nicht immer auf den ersten Blick logisch sein. Also keinen nervösen Finger beim Feed haben. ;-)




Suchmaschinenoptimierung ist ein interessanter Begriff, aber eigentlich unsinnig, da man nicht die Suchmaschinen optimiert. Wofür SEO als Abkürzung auch stehen könnte und warum diese Abkürzung das Grundverständnis für Suchmaschinenoptimierung definiert, folgt in diesem Blogpost. Beginnen wir mit dem, was angekündigt war: Ein SEO packt aus

Ich habe in den letzten Tagen Websites eines Marktsegmentes analysiert, das von 15 in Deutschland ansässigen Unternehmen bedient wird. Die Aufgabenstellung bestand darin, die Positionierung der Websites dieser Unternehmen in Google zu analysieren, die Keywords ausfindig zu machen, mit denen diese Unternehmen auf den ersten 15 Plätzen gelistet sind und die Qualität der Suchmaschinenoptimierung der 15 Websites zu bewerten. In diesem Marktsegment werden jährlich bis zu 1 Milliarde EUR in Deutschland umgesetzt. Um diese Tätigkeit nicht überzubewerten, muss ich dazu sagen, dass Umsätze in diesem Bereich in erster Linie durch Kontakte und Referenzen getätigt werden und kaum über das Web.

Allerdings interessant dabei war, dass nur ein einziges Unternehmen, welches einem weltweit tätigen sehr bekannten Konzern zugehörig ist, eine Website hatte, die ich mich 2++ bewertete. Sieben Websites erhielten Noten zwischen 4 und 6. (Das Unternehmen mit der Note 6 für die Website setzt allein knapp 150 Mio. EUR jährlich um.) Drei Websites arbeiteten mit Spam-Methoden, die vor 2004 angewandt wurden und heute immer noch funktionieren.

Bei der Analyse der Seiten hatte ich einen Gedanken, der mich nicht mehr losließ. SEO könnte auch Sähen, Ernten und Optimieren heißen. Das Grundprinzip der Suchmaschinenoptimierung. Es wiederholt sich immer wieder. Und täglich grüßt das Murmeltier...

Suchmaschinenoptimierung bedeutet nicht, dass man mal eben eine neue Website ins Netz stellt, die angeblichen "Grundlagen der Suchmaschinenoptimierung" ließt und umsetzt und damit innerhalb von Wochen oder Monaten erfolgreich wird. Denn mit diesen Grundlagen wird man es definitiv nicht.

Es ist ein Prozess, der sich entwickelt. Sowohl in einem selbst als auch mit seiner Website. Vieles von dem, was man gerade zu Beginn des Interesses an Suchmaschinenoptimierung ließt, stößt auf Widerwillen:

Content ist King.

Weniger ist mehr.

Man ist ungeduldig, will gar nicht warten und sofort Erfolg haben. Gerade dadurch ist man aufnahmefähig für so viele "Wahrheiten über SEO" und liest und liest und liest. Dabei nimmt man SEO-Begriffe auf. Nach jedem Begriff, den man erlernt hat, kann man selbst suchen. Leider aber nicht nach den Begriffen, die man noch nicht lesen konnte... So läuft man im Kreis. Und das kann dauern.

Wichtig ist ein unaufhörlicher Drang nach weiteren Informationen. Es gibt Aufs und Abs zu Beginn. Die Keywords seiner Seiten fallen und steigen und fallen tief und steigen hoch. Und fallen wieder...

SEO könnte auch Sähen, Ernten und Optimieren heißen


Nur was bedeutet dieses? Für das Grundverständnis sollte es ausreichen zu sagen: Informationen online stellen, Besucher erzielen (und Einnahmen) und die Seiten optimieren. Und darauf wieder: neue Informationen auf seiner Website online stellen, weitere Besucher erzielen und weiter optimieren. Mit der Zeit kommen immer mehr Besucher. Mit der Zeit steigt das Vertrauen, welches Google in Deine Website hat. Und selbst wenn mal wieder ein Tag mit "Weltuntergangsstimmung" dabei ist. Und selbst wenn Du (mal wieder) ganz nach hinten geworfen wirst: GIB NICHT AUF.

Was jedoch von Anfang an der wichtigste SEO-Faktor ist, ist die Seitenstruktur. Stimmt diese nicht, verliert man (oder gewinnt zumindest nicht).

Mit SEO immer weiter vorankommen


Wie kommt man nun vorwärts? In dem man weiter forscht. Und das möglichst in Englisch. Sage Dir immer wieder und wieder:

Sei stets unzufrieden mit dem, was du bist,
wenn du erreichen willst, was du noch nicht bist...
(weiterlesen mit Klick)

Ich wurde gestern von einem Freund gefragt, wer mein SEO-Vorbild ist. Ich musste nicht überlegen und sagte sofort Rand Fishkin. Warum ist das so? Weil Rand "Randfish" eine optische Ähnlichkeit mit mir hat? Nein, weil Rand genau aus einem einzigen Grunde zu dem SEO wurde, der er heute ist: Er hat ein unaufhörliches Verlangen nach Tests und Wissen. Einfach ausprobieren, wie Google auf bestimmte Tags oder Konstellationen der Seiten und Verlinkungen reagiert. Und genauso bin ich im Laufe der Jahres vorwärts gekommen und habe einige Dinge entdeckt, über die andere vielleicht schon geschrieben hatten (oder auch nicht) und sie nutzen können.

Andere Seiten analysieren und lernen

Einer der wichtigsten Punkte dabei ist die Analyse von anderen Seiten. Nur was analysieren, wenn man überhaupt nicht weiß, worauf man achten soll? Ich vergleiche diese Herausforderung einmal mit Word. Die meisten werden sich an die Zeit erinnern, wo sie zum ersten Mal in Word einen Brief schreiben sollten und das Programm zuvor nie gesehen hatten. Wie schlimm waren die ersten Wochen damals? Und wie bist Du nur weitergekommen und hast die heutigen Fähigkeiten erreicht? Hast Du etwa das Handbuch gelesen? Oder einfach probiert? Erst das Suchen, was man weiß und es verwenden und danach alles andere anklicken, um herauszufinden, was damit gemacht werden kann.

Suche in Google nach irgendeinem sinnvollen Keyword. Klicke die Website auf Platz 1 an. Beobachte genau die Menüstruktur. Beobachte die Ankertexte auf der Homepage und allen Unterseiten. Achte darauf, was wie wohin intern verlinkt und wieder zurück. Rufe den Quelltext der Seiten auf. Schaue Dir den head-Bereich aufmerksam an. Scrolle herunter und achte auf Überschriften, Texte, Footer, Keywords in Abschnitten, Wortwiederholungen und Wortfolgen zwischen Seitentitel und Content usw. Leite von Deinen ersten Beobachtungen nicht direkt Wissen ab! – Mach das Ganze eine Zeit lang. Und wieder irgendein Keyword in Google hinein und den nächsten Platz 1 anschauen. Und immer wieder.

Nach einigen Platz 1-Seiten verwendest Du den X4d Backlinkchecker und schaust Dir die Backlinks von jeder nun folgenden Platz 1-Seite an. Mit der Zeit wirst Du verstehen. Immer mehr.

Darauf installierst Du Dir ein SEO-Tool. Es gibt viele. Beginne mit SeoQuake. Beschäftige Dich hier vor allen Dingen mit Links.

Mit SEO-Augen immer mehr sehen

Je mehr Du analysierst, je mehr Du sehen wirst, desto mehr wirst Du verstehen, dass man für den 1. Platz im Google, für die Authorität Deiner Website für ein Keyword, weder PHP, noch CSS oder JavaScript benötigt und erst recht keine W3C-Validierung der Qualität der HTML-Programmierung. Auch kein Content Management System. Einfachstes HTML mit Tabellen und selbst mit einer weißen Seite ohne jegliche Grafik reicht vollkommen aus.

---

Es wird nicht so sein, dass ich Dich dabei allein lassen werde. Ich werde mit der Zeit weiter eingehen auf wirkliche SEO-Faktoren im Detail. Hierbei wird es hin und wieder Themenwechsel bei meinen Blogposts geben, denn Albert Einstein hat schon gesagt:

Nichts kann existieren ohne Ordnung.
Nichts kann entstehen ohne Chaos.

Nervöse und ungeduldige Zeitgesellen löschen den RSS-Feed von diesem Blog aus ihrem Reader. Die, die verstehen gelernt haben, abonnieren ihn.

Sage Dir und Deinen Wettbewerbern:

Alles Vollendete wird angestaunt,
alles Werdende unterschätzt.





Was auch immer da gestern abging, vielleicht war es ja ein Aufstoßer von Google oder ein Security ist an einen Schalter gekommen, aber es war definitiv kein PageRank-Update (TBPR-Update).

Erstaunlich ist, dass eine Seite von mir von PR3 auf PR2 fiel und eine Stunde später wieder bei PR3 stand. (lt. Google Toolbar)




Nicht nur manchmal, sondern oft sieht man den Wald vor Bäumen nicht. Besser das Web vor SEOs nicht.

Über die Entwicklung des Webs,
Suchmaschinenoptimierer und SEO-Faktoren



In den letzten drei Wochen nach dem Blogpost PageRank 7 habe ich natürlich keine Pause gemacht, wie es den Anschein vielleicht gehabt hat. Kein Tag vergeht ohne SEO, ohne Lesen und ohne Tests.

Was bringen uns all diese SEO-Seiten und SEO-Blogs, wenn sie uns nicht weiterhelfen. Wozu all die Zeit, die wir zum Lesen aufwenden, investieren, wenn sie uns nicht weiterbringt. SEOs zeigen maximal Don'ts auf, aber niemals Do's. Bis auf einige wenige Ausnahmen, die sich nicht in Deutschland befinden und die nicht (mehr) so sehr in der Öffentlichkeit stehen, wie die bekannten SEOs, um die soviel Wirbel gemacht wird.

Um SEO zu werden, ist sehr, sehr viel Zeitaufwand notwendig, aber nicht, weil es komplex ist, Seiten zu optimieren, sondern weil man sich mit zuviel Desinformation beschäftigen muss und es lange dauert, bis man die wirkliche Information herauszufiltern erlernt hat. Noch dazu, und hier wird, je mehr SEOs in die Öffentlichkeit treten, die öffentliche Meinung immer klarer, verraten SEOs keine Geheimnisse.

Desinformation beschreibt SEO in erster Linie


Niemand kann es besser ausdrücken als Wikipedia:
Mit Desinformation bezeichnet man die Verbreitung falscher oder irreführender Informationen. Motivation der Desinformation ist, wenn sie nicht tatsächlich irrtümlich geschieht, die Beeinflussung der öffentlichen Meinung oder die Beeinflussung von Gruppen oder potenziellen Käufern, wobei möglicherweise die bewusste Irreführung nur von der obersten zuständigen Ebene geplant und entschieden wird und z. B. Massenmedien z. T. selbst in die Irre geführt werden und diese Falschinformationen in evtl. guter Absicht verbreiten.
Quelle: http://de.wikipedia.org/wiki/Desinformation

Free SEO-Tools helfen nicht


All diese Free SEO-Tools helfen zu 95% nicht weiter. SEOs wissen, was sie mit den Online-SEO-Tools erreichen: einen Linkbait. Mehr nicht. Mit diesen Tools hier und da testen, ob irgendwo irgendetwas drin steht, führt in der Gesamtheit zu nichts. Solange man nicht die Grundprinzipien beherrscht und die Zusammenhänge verstehen kann, kommt man nicht weiter. Und wenn man dann soweit ist, verwendet man diese Linkbait-SEO-Tools überhaupt nicht mehr.

Es ergeben sich so viele Fragen, die man nicht beantworten kann, obwohl eigentlich viele Bestandteile der Antworten bekannt sind. Nur nicht die Reihenfolge.

Jeder versucht seine Meinung als beste hervorzuheben, jeder versucht sein Produkt als ideale Lösung zu präsentieren.

Wordpress als Beispiel - Hat Google keine Ahnung von Suchmaschinenoptimierung?

Ein gutes Beispiel ist Wordpress. Was ist so toll an Wordpress? Ist der Google Blogger wirklich so schlecht? Muss man Wordpress verwenden, weil Wordpress Kategorien hat und Matt Cutts sagt, dass er genau aus diesem Grund Wordpress verwendet und nicht den Google Blogger?

Ist es sinnvoller, Fremd-SEO-Plugins bei Wordpress einzusetzen, die man weder unter Kontrolle hat, noch im Regelfall analysieren kann, solange man kein PHP beherrscht? Oder ist es sinnvoller, den Google Blogger selbst so auszubauen, dass er top optimiert ist, man dabei aber weiß, was man getan hat und wie es funktioniert? Kann es gar sein, dass Google keine Ahnung von Suchmaschinenoptimierung hat und deswegen keine Kategorien in den Google Blogger integrierte? Wohl kaum.

Im Laufe der Jahre erhält man ein bestimmtes SEO-Wissen. Man kommt dabei schneller voran, wenn man nicht nach dem "Warum?" fragt, sondern Meinungen übernimmt. "Jede Seite muss mit 3 Klicks von der Domain aus erreichbar sein." - Das liest man häufig in einschlägigen SEO-Foren. Ja, aber warum denn? Das ist das, was mich seit langem beschäftigt und weswegen ich auch die PageRank-Posts begann (und beenden werde). Wobei diese Aussage "mit 3 Klicks" nicht pauschaliert werden kann. Ob es 3 Klicks oder 4 oder 5 sind, hängt vom PageRank der Domain ab.

Ist der PageRank wirklich so unwichtig, wie die Masse seit langem behauptet, weil sie es von einer kleinen Gruppe vermittelt bekam? Hatte Matt Cutts Ende 2005 Recht damit, dass der PageRank in keinem Zusammenhang mit dem damaligen Verständnis für Supplemental Results stand? (er hatte nicht Recht) Oder verständlicher: wie können alle Unterseiten bestmöglichst optimiert werden?

Was ist mit nofollow? Wie behandelt Google nofollow wirklich? Wer sagt die Wahrheit? Wird der PageRank trotz nofollow weitervererbt? Oder nur bei bestimmten Seiten, die Google freigeschaltet hat, ohne uns zu informieren?

Wie baut man wirklich eine ideale Website auf? Was muss man dabei beachten? Ist das Verständnis für den PageRank dafür erforderlich?

Am Anfang war das... Web. Und dann kam SEO und sah, dass es schlecht war...

Am Anfang gab es das Web. Informationen in Form von Qualität wurden den Menschen so zur Verfügung gestellt, wie es für die Menschen ideal und gewohnt war. Dann kam Google. Im September 1998. Google versuchte die Seiten des Webs zu analysieren, zu kategorisieren und zu klassifizieren. Google musste sich nach den Gegebenheiten des Webs richten, was für eine gewisse Zeit gut ging.

Das heutige Web ist ein Produkt der Suchmaschinenoptimierer
Im Laufe der Jahre entstanden immer mehr Suchmaschinenoptimierer und Google wurde gezwungen nachzubessern. Aus dem ursprünglichen Qualitätsweb wurde ein Web von Spam und optimierten Geschäftsprozessen. Je mehr Google nachbesserte, desto mehr zogen die Suchmaschinenoptimierer nach. Im Ergebnis ist das Web seit Jahren ein Produkt der Suchmaschinenoptimierer. Mehr nicht.

Diese Gruppe hat Google gezwungen, dass Web so werden zu lassen, wie es den Suchmaschinenoptimierern gefällt. Kreativität bei der Erstellung der Struktur von Websites ist schon lange eingeschränkt. Man konstruiert eine SEO-Kunst, aber nicht mehr eine Website, die ideal für Menschen geschaffen ist. Bestimmte Strukturen sind unzulässig geworden. Verwendet man sie trotzdem, verliert man ganz einfach. Entweder man passt sich dem an, was die Suchmaschinenoptimierer aus dem Web und Google gemacht haben, oder man spielt nicht mit in diesem großen Spiel um viel Geld und weniger um Information.

Kategorien? Wozu denn?
Und wozu jetzt Kategorien? Websites wurden immer größer. Eine Website, die aus 100 Unterseiten besteht, hat kein Problem. Aber eine Website, die aus 1 Mio. Unterseiten besteht, passt nicht in den PageRank-Algorithmus hinein. Das gab es damals nicht. Demnach mussten Kategorien geschaffen werden, damit auch die großen Websites eine Chance hatten. Nur wie tief darf die Struktur gehen? 3 - 2 - 1. Das wars. Oder 4 - 3 - 2 - 1. 5 - 4 - 3 - 2 - 1? Ja, der PageRank ist wichtig. Und wieder wichtiger als lange Zeit zuvor? Was bedeutet 3 - 2 - 1?

Eine kleine Website, die keine Kategorien verwendet, kann wesentlich stärker werden als eine große Website, die Kategorien verwendet. Ja, aber wie kann es denn sein, dass große Websites vorne in den SERPs sind? Ganz einfach, in dem man Affiliate-Programme schuf, die Backlinks in Millionenzahl lieferten und kontinuierlich neue. Dabei zählte die Qualität der Backlinks nicht mehr, sondern nur noch die Masse der Backlinks.

Oder man schuf Social News-Seiten, die ebenso unendlich viele neue Backlinks brachten.

Eigentlich ist die Schaffung des Web 2.0 mit Social News, Social Communities und Social Bookmarking nichts anderes als ein großer Linkbait. Und die Menschen erfreuen sich sogar daran, endlich Backlinks für die großen Seiten aufbauen zu dürfen, damit die Großen noch größer werden und die Reichen noch Reicher. Und den Kleinen bot man die Möglichkeit, ihre eigenen kleinen Seiten darüber mit Backlinks optimieren zu dürfen, damit keinem die Großheit der Sache auffiel.

Aber es reichen doch einige wenige gute PR-Backlinks? Ja. Das stimmt. Allerdings je größer eine Seite wird, desto weniger kann man das System kontrollieren. Um nicht ständig nachbessern zu müssen, nutzt man die höchstmögliche Anzahl von erreichbaren Backlinks in jeglicher Qualität.

Und dann stürtzen Seiten ab. Der PageRank fiel. Alle wussten einen Grund. Die einen diesen, die anderen jenen. Eigentlich aber war der Grund und die Lösung logisch:

Wenn eine Website A einen Link (oder Affiliate-Link) auf eine große Website B setzt und die Website A neu ist, dann ist das Ansehen von und das Vertrauen in Website A sehr gering bis nicht vorhanden. Warum? Weil Website A keine von extern eingehenden Links (Votes) hat. Der Linkwert eines Links von Website A ist somit extrem gering oder gar schadhaft. Ist der Anteil der eingehenden Links von Seiten wie Website A zu hoch, verliert die große Website B an Ansehen und Vertrauen und stürzt ab.

Wenn man das Prinzip andersherum betrachtet, nämlich eine Website, die massiv auf neue, wertlose Seiten ohne Ansehen und Vertrauen verlinkt, versteht man sofort den Absturz nahezu aller Artikelseiten und Webkataloge. Es gab nur einen in Deutschland, der schlauer war als alle Webkatalogbetreiber: Airport1

Fakt ist, je mehr ich von dem bei SEOs lesen muss, was niemandem weiterhilft, desto mehr Energie erhalte ich, darüber zu schreiben, was weiterhilft. Oft könnte ich an zwanzig Themen gleichzeitig schreiben, nur fehlt immens die Zeit für soviel Detailreichtum.

Fakt ist aber auch, dass ich hier, und wenn es etwas länger in der Gesamtheit dauert, nach und nach im Detail schreiben werde, wie genau eine Website aufgebaut sein muss, dass sie von vorne herein für die obersten Plätze prädestiniert ist, und welche weiteren Faktoren eine Rolle spielen und wie genau sie einzusetzen sind.

Es sei aber klar gesagt, dass viele und immer mehr Kenntnisse darüber haben, worüber sie nicht schreiben. Auch andere sind gut und je mehr Geld in einer Nische verdient werden kann, umso mehr SEOs, die gut sind, halten sich in dieser auf. Wenn man dann allerdings nicht mal mehr die Grundprinzipien beherrscht und einsetzen kann, sollte man erst gar nicht beginnen, eine Website für eine Nische zu erstellen.

Habe Geduld mit mir und abonniere den kostenfreien Feed, falls Du es nicht schon längst getan hast. Ein berühmter Mensch hat einmal gesagt:

Wer unter euch ohne Feed ist,
der abonniere den ersten Feed.





PageRank Prediction
(teilweise auch Future PageRank1genannt)



beschreibt einen "Prediction Algorithmus", der eine Berechnung des zukünftigen PageRank einer Seite anhand aktueller Daten (u. a. Backlinks) ermöglichen soll.

Prediction bedeutet übersetzt eigentlich Vorhersage, aber auch Prophezeiung, welches ich bei einem "PageRank Predition SEO Tool" bevorzuge.

Im Nachfolgenden werde ich zwei "PageRank Prediction SEO Tools" vorstellen, danach den Nutzen aufzeigen und mit einigen Anmerkungen abschließen.

Das bekannteste Google PageRank Prediction Tool
Das mit Abstand bekannteste Google PageRank Prediction Tool ist von iWebTool.com. (Wer hat's erfunden?)

Neben der Abfrage einer Domain (www.domain.de) ist es zudem möglich, auch Unterseiten (www.domain.de/unterseite.htm) einzugeben.

Schauen wir uns einmal das aktuelle Ergebnis für diesen Blog an:

Google PageRank Prediction - wulffy.blogspot.com - 01.04.2008 - iWebTool

Aktueller PageRank: 4
Predicted: 5 (4.9)
Accuracy: 82.78%
Backlinks: 1,100

Bevor Du eine Seite testest, solltest Du wissen, dass dieses Tool hin und wieder die Meldung: "Unable to retrieve prediction at this time" liefert:

PageRank Prediction - Unable to retrieve prediction at this time

Jetzt bist Du dran: Teste Deine Seite: Google PageRank Prediction

---

Und? Wie war es? Bist Du zufrieden?

Tipp: Direktlink bookmarken (und www.domain.de mit eigener Domain ersetzen)

http://www.iwebtool.com/pagerank_prediction?domain=www.domain.de

---

Das beste PageRank Prediction Tool?
Nein. Noch besser. Der amerikanische Anbieter formuliert das sinngemäß so:

Die Seite gibt unter "About PageRank" vor, dass deren "Prediction Algorithmus" sich völlig von allen anderen Systemen unterscheidet. Man würde aktuelle Suchergebnisse von Google verwenden als auch experimentelle von Google Labs, die Anzahl der Backlinks über die AJAX API, MSN und Yahoo und natürlich von Google selbst ermitteln. Man würde auch historische Daten einbeziehen und den PageRank von Seiten, die ähnliche Daten zur aktuellen Abfrage anbieten, berücksichtigen.

Man weist darauf hin, dass viele Leute denken, dass sich der PageRank unmittelbar durch Backlinks ergibt, aber Absprungrate2 und Click Through3 auch von Bedeutung wären. Diese würden die Positionierung in den SERPs, genauso wie der Traffic auf der Seite, beeinflussen.

Nun ja, eine durchaus komplexe Aussage, die ich mal besser im Raum stehen lasse. Absolut richtig dabei ist die Aussage über Absprungrate, Click Through und Traffic auf einer Seite, die die Positionierung in den SERPs beeinflussen. Soweit Google diese Daten ermitteln kann... Nur hat das meiner Meinung nach nichts mit der Ermittlung des zukünftigen PageRank zu tun, sondern bezieht sich nur auf die Positionierung in den SERPs. Was meinst Du dazu?

Schauen wir uns einmal das aktuelle Ergebnis für diesen Blog an:

Google PageRank Prediction - wulffy.blogspot.com - 01.04.2008 - Pagerankprediction.com

Dein Testlink: PageRank Prediction

Direktlink:
http://www.pagerankprediction.com/?txtURL=www.domain.de

---

Weitere PageRank Prediction Tools sind in fast allen Fällen auf Seiten zu finden, die den Code von iWebTool einsetzen.

---

Anwendung und Nutzen von PageRank Prediction
Gehen wir davon aus, dass es sich eher um eine Art von Prophezeiung handelt, sollten wir keine große Bedeutung in das Ergebnis des zukünftigen PageRanks hineinlegen. Vielleicht ziehen wir ein wenig Motivation daraus. Dennoch bedienen wir uns dieses SEO Tools, um den Erfolg unseres kontinuierlichen Linkaufbaus zu kontrollieren. In Abhängigkeit der Qualität der neu hinzugekommenen Backlinks auf unsere Seite können wir Veränderungen zeitnah beobachten und erkennen ein wenig, wieviel wir noch tun müssen, um ein Ziel zu erreichen, was wir uns hoffentlich gesetzt haben: Kontinuierliche Verbesserung und Platzierung in den SERPs.

Was keine Berücksichtigung findet
Der Google TrustRank-Algorithmus findet keine Berücksichtigung bei diesen SEO Tools. Insofern ist es durchaus möglich, dass die ein oder andere Seite "abgestraft" und den vorhergesagten PageRank nicht erhalten wird.

Die Echtheit des PageRank überprüfen
kannst Du links im Menü unter SEO-Tools: "PageRank-Echtheitsprüfung"

---

iWebTool wurde gerade gehijackt

PageRank Prediction - Predict Page Rank Predictor gehijackt

... und fliegt evtl. durch Double Content aus dem Index...
(Tipp: Bot-Trap.de)
(derzeit ist es mit "PageRank Prediction" von Platz 1 auf Platz 74 bei google.de gefallen und von Platz 1 auf Platz 44 bei google.com)

---

1 Der Begriff "Future PageRank"


wird bei PageRank Prediction Tools oft im falschen Sinne verwendet, vielleicht aber auch, um die Besucher, die danach suchen, auf das PageRank Prediction Tool zu lenken. Future PageRank ist eigentlich ein Synonym für SEO Tools, die eine gewisse Anzahl von Google Data Centern abfragen und diese danach auflisten. Der PageRank bei den Data Centern verändert sich jedoch nur während eines TBPR-Updates (PageRank-Updates). Und auch nur dann ist der Einsatz eines Future PageRank SEO Tools sinnvoll.

2 Absprungrate ("Bounce Rate")


Die Absprungrate beziffert in Prozent die Besuchermenge, die eine Seite besucht und sofort wieder verlässt (z. B. durch "Zurück" zur Google Suche oder Browser schließen).

3 "Click Through"

Click Through beschreibt die Möglichkeit durch Links auf die nächste/eine andere Seite zu gelangen.