Google Advanced Search

 bietet seit 5. März eine Realtime-Darstellung der Suchparameter und Schlüsselwörter an. Diese eröffnet dem ungeübten SEO eine erste Hilfestellung, da die Suchkriterien, die im Klartext ausgewählt werden, in Echtzeit in der oberen Zeile erscheinen.

Google Advanced Search

Interessant sind natürlich auch bekannte Einstellungen wie filetype (z. B. pdf), Suche innerhalb einer Domain (z. B. site:.de), aber auch die Suche in Ergebnissen der letzten 24 Stunden, der letzten Woche, des letzten Monats und der letzten 2, 3, 6 und 12 Monate.

Die Suche mit

im Titel der Seite (allintitle)
im Hauptteil der Seite (allinbody)
in der URL der Seite (allinurl)
in Links zu dieser Seite (allinlinks)

wird mit den entsprechenden Schlüsselwörtern in der oberen Zeile angezeigt, die man sich nach einigen Abfragen dann auch merken kann.

Eine gute Übersicht über die Funktionsweise einiger dieser Schlüsselwörter liefert:
Restrict Search to Sites where Query Words Appear

Die neue "Google Advanced Search" steht derzeit nur in Englisch zur Verfügung: Google Advanced Search




OMB Keyword Analyzer

 - ein interessantes SEO-Tool, welches den Schwierigkeitsgrad von Keywords anhand der Google SERPs ermittelt.

Der OMB Keyword Analyzer wurde von Mark Breuer (Online Marketing Breuer, Wuppertal) erstellt und steht nun in der Version 1.3 zur Verfügung.

Um ein Projekt planen zu können, sind je nach Projekt mehr oder weniger aufwendige Recherchen notwendig. Eine Hilfestellung bietet der "OMB Keyword Analyzer".

Inwieweit ist das Keyword bereits in den Google Suchergebnissen vertreten?

Was der OMB Keyword Analyzer ermittelt
Die Auswertung erfolgt anhand der Google Top 100 und wird in Prozent ermittelt.
  • Schwierigkeitsgrad der Suchmaschinenoptimierung von sehr einfach bis schwer

  • Anzahl der Suchergebnisse in Google (Menge der Konkurrenz)

  • Anzahl der Seiten, die das Keyword im Titel enthalten

  • Anzahl der Seiten, die das Keyword in der URL enthalten

  • Anzahl der Seiten, die das Keyword im Beschreibungstext von Google enthalten

  • Anzahl der Seiten, die direkt mit der Startseite bei dem Keyword ranken

  • Anzahl der Werbeanzeigen (AdWords) auf der ersten Suchergebnisseite von Google
Das SEO-Tool liefert nahezu verzögerungsfrei Ergebnisse, die manuell kaum zu ermitteln wären. Ergebnisse, die gerade im Bereich des Nischenmarketing (Niche Marketing) Auskunft geben über Marktnischen. Ob diese dann wirklich gewinnbringend genutzt werden können, muss man dann wohl selbst herausfinden.

Link:
OMB Keyword Analyzer




Backlinkchecker

 war bereits in meinem vorherigen Post Backlink Checker ein Thema. Neben dem empfohlenen Backlink Checker von Smart PageRank halte ich den von X4d für deutlich besser.

Beim dem X4d Backlinkchecker von Dirk Staudinger stehen einige Optionen zur freien Auswahl:

Auswahl der Engine
Google, Yahoo, MSN

Backlink Qualität prüfen
Hierbei wird die Anzahl der internen und externen Links jedes Backlinks geprüft und der Versuch unternommen, den tatsächlichen PageRank seiner Seite relativ genau zu bestimmen. Es empfiehlt sich, diese Option auszuwählen, da am Ende der Auswertung der relativ genaue PageRank seiner Seite aufgeführt wird, sogesehen als PageRank Prediction. Man erkennt sofort den Trend und womöglich den PageRank, den seine Seite beim nächsten PageRank-Update erhalten könnte.

Neben der Auflistung der Backlinkanzahl, sortiert nach PageRank, wird ein Diagramm in Textform, eine Backlink History (!) und natürlich eine tabellarische, teilweise sortierbare, Übersicht über alle Backlinks im Detail aufgeführt.

Interessant sind hierbei wirklich die Angaben zur Qualität des jeweiligen Backlinks.

Hier ein paar Beispiele über die Qualität von Backlinks:

25.9993 Unterseite von techcrunch.com

20.655 weblogs.macromedia.com

13.0452 Unterseite von blog.meebo.com

10.0756 Unterseite von seo-lexikon.eu

9.18 Unterseite von stereophone.de

5.52026 Unterseite von searchenginejournal.com

4.25876 kapalic.wordpress.com

2.81020 Unterseite von mediadonis.net

2.36057 Unterseite von fridaynite.de

1.09285 Unterseite von sistrix.com

(alle Angaben von X4d)

X4d Backlinkchecker:
Backlinkchecker

(Wink mit dem Zaunpfahl)




Backlink Checker


Backlink Checker gibt es wie Sand am Meer. Die wenigsten liefern gute Ergebnisse und selbst die bekanntesten Backlink Checker sind längst nicht so gut, wie sie vielleicht noch vor einem Jahr waren. Oft wird eine deutlich zu geringe Anzahl der Backlinks ausgeworfen, die nicht der tatsächlichen entspricht.

Da die Anzahl der Backlinks eher zu vernachlässigen ist, ist es wichtig, die Qualität der Backlinks zu prüfen. Dieses sollte man regelmäßig tun. Die meisten Backlink Checker liefern eine Liste der Backlinks, die auf unsere Seite verweisen, einige wenige auch den PageRank des jeweiligen Backlinks. Hierbei kommt es leider häufig zur Ermittlung von falschen PageRank-Werten.

Wobei selbst der heutzutage bekannteste Backlinkcheck vom Internetbaron nicht das Gelbe vom Ei ist, auch wenn er auf dem Script des legendären Backlinkchecker Backlink Check von seo-consulting (Sebastian Karpp) beruht, welches früher wirklich gute Ergebnisse lieferte.

Die Anzahl der Backlinks mit dem PageRank allein zu ermitteln, reicht nicht wirklich. Äußerst wichtig sind die Ankertexte, mit denen die Backlinks auf unsere Seite zeigen. Und einige behaupten ja immer noch, dass man auch wissen sollte, ob die Backlinks mit nofollow gesetzt sind.

Der Backlink Checker von Smart PageRank (Mike Call) listet genau diese Angaben auf:

Anzahl der Backlinks
PageRank der Backlinks
nofollow bei Backlinks
Ankertext der Backlinks

Einfach Domain eingeben (www.domain.de), 100 auswählen, Show nofollow und Anchor Text anklicken und Check Domain.

Liste geht über mehrere Seiten. Mit Next--> geht es weiter.

PageRank Checker For Your Backlinks

Einen weitere Backlinkchecker habe ich hier aufgeführt:
Backlinkchecker




PageRank

 - Dieser Post hat es sich zur Aufgabe gemacht, mit einigen weit verbreiteten Meinungen zum PageRank aufzuräumen.

Zwischenzeitlich habe ich eine größere Anzahl von Berechnungen zum PageRank durchgeführt, von denen ich den bedeutsamsten Teil veröffentlichen werde.

PageRank-Updates sind nicht komplex


Von Anfang an war es mein Ziel, einen Beweis dafür zu finden, dass das TBPR-Update (PageRank-Update) keinesfalls so komplex abläuft und nachzuvollziehen ist, wie es von allen mir bekannten Seiten vorgegeben wird. Wenn man sich die ersten zwanzig Suchergebnisse in Google bei einigen Keywordkombinationen zum Thema PageRank-Berechnung, PageRank-Algorithmus, etc., anschaut, verdichtet sich der Eindruck, dass bestimmte Erkenntnisse immer wieder übernommen wurden, ohne dass man eine Detailprüfung vornahm.

Google Toolbar PageRank-Anzeige arbeitet nicht mit logarithmischer Skala


Meiner Meinung nach arbeitet die Google Toolbar PageRank-Anzeige nicht mit einer logarithmischen Skala, wie nahezu überall vermutet wird. Es gäbe demnach keinen PageRank von 40, 5000 oder gar 1.000.000, der durch die Google Toolbar in einen PR0 - PR10 zurückgewandelt würde. Der PageRank aller Seiten kann direkt nach der veröffentlichten PageRank-Formel mit entsprechenden Iterationen berechnet werden.

Wir arbeiten nun weiter mit dem besten Ergebnis bisher. Dem PageRank-Ergebnis aus Berechnung 01 zum Blogpost PageRank 5:

PageRank - 4 Seiten verlinken untereinander - PageRank-Ergebnis

PR-Update - Einrechnung des PageRank von Backlinks


Auf einer Seite sah ich eine PageRank-Berechnung, auf die ich kurz eingehen möchte. Diese Berechnung nahm bereits zu Beginn den PageRank eines von extern eingehenden Links in die Iterationen mit hinein. Schauen wir uns das an einem Beispiel an:

Einbeziehung PageRank-Backlink ab der ersten Iteration ist falsch

PDF: Google PageRank-Algorithmus - Warum man zu Beginn der Iterationen den PageRank eines Backlinks/von Backlinks nicht mit einrechnen kann - PageRank-Berechnung 01
(Berechnung 01 zum Blogpost PageRank 7)

Die externe Seite X mit PR3 und vier ausgehenden Links verlinkt auf Seite A. Wäre diese PageRank-Berechnung richtig, würde Seite A einen PR4 erhalten. Dieses ist nicht möglich, da in diesem Beispiel ein eingehender PR3-Link die Seite nicht zu einem PR4 aufwerten kann. Zudem ergibt sich ein Durchschnitt (Average) von 2,0625 "aller Seiten des Webs" am Ende der Iterationen. Da dieser immer nahezu 1 beträgt, ist diese Berechnung eindeutig falsch.

Fakten, die bei der PageRank-Berechnung eine Rolle spielen


Überlegen wir einmal gemeinsam, welche logischen Fakten eine Rolle spielen:
  • Zu Beginn des PR-Updates ist der PageRank aller Seiten des Webs unbekannt.


  • Demnach ist auch der PageRank der eingehenden Links unbekannt.


  • Die PageRank-Berechnung aller Seiten des Webs erfolgt zur gleichen Zeit.


  • Die Berechnung aller Seiten einer Domain erfolgt unabhängig von allen anderen Domains, somit muss Google doch zwischen Verlinkungen innerhalb und außerhalb einer Domain unterscheiden.


  • Erst nachdem die internen Verlinkungen/interne Linkstruktur berechnet wurde, ist der PageRank einer Domain bekannt. Somit auch der PageRank anderer Domains und Unterseiten, die auf diese Domain bzw. Unterseiten verlinken.

Fazit


Alle Iterationen erfolgen für alle Seiten des Webs. Dazu werden zunächst alle Seiten auf 0 gesetzt und jede Domain ohne externen Linkeinfluss berechnet. Erst nachdem der interne PageRank berechnet wurde, werden dem PageRank-Ergebnis die externen Backlinks in einer letzten Iteration hinzugerechnet.

Einen Beweis dafür stellt die Google Toolbar dar. Die PR-Anzeige in der Google Toolbar müsste während des PR-Updates auf 0 gehen und sich kontinuierlich verändern. Es ist jedoch so, dass erst am Ende des PR-Updates die PR-Anzeige in der Toolbar hin und her springt, da die endgültigen PR-Ergebnisse nicht in allen Data Centern zeitgleich vorliegen. Eine Domain mit PR3, die darauf PR4 erhält, springt am Ende (in der Regel mehrfach) zwischen PR3 und PR4 hin und her, bis alle Google Data Center die PR-Berechnungen abgeschlossen haben und sie PR4 erhält.

Basis für den Erfolg einer Website ist die interne Verlinkung. Erst danach, am Ende des PR-Updates, kann diese durch Einrechnung von Backlinks verbessert werden. Ist die interne Verlinkung nicht optimal, fließt der Saft (Linkjuice) nicht korrekt durch die Seiten und stärkt oder schwächt ggf. die falschen Seiten.

Ein Backlink mit hohem PageRank steigert den Erfolg der Website


Diese Aussage ist zwischenzeitlich mit größter Vorsicht zu genießen und nur bedingt richtig. Wenn wir einen Backlink von einer Seite erwerben würden, wird ein Preis erzielt, der vom aktuellen PageRank abgeleitet wird. In der Regel kennen wir die Geschichte der Website nicht, von der wir den Backlink erhalten und haben auch keinen Überblick darüber, welche Inhalte die Website insgesamt bietet, die ggf. zur Abstrafung durch einen "Google Quality Rater" oder den Google TrustRank-Algorithmus führen können. Natürlich wissen wir somit nicht, ob dieser Backlink nach dem PageRank-Update noch diesen PageRank haben wird, dennoch zahlen wir für einen bestimmten PR-Wert, selbst wenn er nach dem PageRank-Update (deutlich) niedriger ausfallen würde.

PR-Update - Einrechnung des PageRank von Backlinks in der Praxis


Im nun folgenden Berechnungsbeispiel setzen wir einen PageRank 3-Link auf unsere Seite A. Wir müssen für unsere Berechnung davon ausgehen, dass dieser auch nach dem PageRank-Update einen PR3 haben wird. Wir geben der PR3-Seite 4 ausgehende Links vor.

PageRank - PR3-Backlink auf Seite A

Nach 33 Iterationen erhalten wir das Ergebnis der internen Verlinkungen unserer Seite. Erst jetzt wird der PR3-Backlink in der 34. Iteration hinzugerechnet. Der Linkjuice durchfließt unsere interne Linkstruktur.

PageRank - PR3-Backlink auf Seite A - Ergebnis

Im Ergebnis erhält Seite A einen PR3 (2,5564), Seite B, C und D einen PR1 (0,8743).

PDF: Google PageRank-Algorithmus - Verlinkung zwischen vier Seiten - A-BCD, B-A, C-A, D-A - Einfluß von eingehenden Links - Backlink auf Seite A - PageRank-Berechnung 02
(Berechnung 02 zum Blogpost PageRank 7)

Die Anzahl der Backlinks ist wichtig?


Überall ist zu lesen, dass die Anzahl der Backlinks wichtig wäre. Diese Meinung halte ich für den größten Hype in der Geschichte des PageRanks. Es gibt Auswertungen darüber, bei denen die Anzahl der Backlinks bei zehntausenden von Websites untersucht wurde. Hierdurch kam man zu dem vermeintlichen Ergebnis, welche Anzahl von Backlinks jeweils für den entsprechenden PageRank notwendig wären. Vom PageRank-Algorithmus selbst kann diese Aussage keinesfalls abgeleitet werden.

Was wäre, wenn diese Aussage vom Grundsatz her falsch ist? Der gesamte Linkhandel hätte nicht so dermaßen erfolgreich ablaufen können.

Über Reverse Engineering herausfinden zu wollen, ob die Anzahl der Backlinks einen Einfluss auf den PageRank hat, führt nicht zu einem verwertbaren Ergebnis. Eine Website, die qualitativ hochwertigen Content bietet, erhält im Laufe der Zeit viele Backlinks mit nahezu allen Werten von PageRank. Der Inhaber der Website hat keine Kontrolle über die Qualität der natürlichen Backlinks. Würde diese Website nur 10 Backlinks mit hohem PageRank erhalten, könnte sie den gleichen PageRank erzielen, wie mit 1.000 Backlinks mit PR-. Somit könnte man die Anzahl der Backlinks grundsätzlich als irrelevant betrachten.

Im oben aufgeführten Berechnungsbeispiel sieht man, dass bei entsprechender Linkstruktur bereits mit einem einzigen PR3-Backlink ein PR3 für seine Website erreicht werden kann. Es geht noch weiter. Bei einem einzigen Link von einer PR10-Seite, die theoretisch nur 2 ausgehende Links hätte, erreicht die Domain einen PR6 und die Seiten BCD einen PR2.

Um einen PR6 - PR10 zu erhalten, benötigt man eine größere Anzahl von qualitativ hochwertigen Links oder eine unendlich große Anzahl von durchschnittlichen Links, demnach Links mit unkontrollierbarem PR-Wert.

Die Masse beschäftigt sich mit der unkontrollierten, kontinuierlichen Setzung von Backlinks, dessen PageRank egal zu sein scheint. Es ist ja einfacher als sich auf wenige hochwertige Backlinks zu konzentrieren. Aufgrund dessen spricht der Volksmund wohl von "die Anzahl ist entscheidend".

Welche Auswirkungen ein Backlink auf die Gewichtung einer Seite wirklich hat, hängt neben dem PageRank der ausgehenden Seite und der Anzahl der von dort ausgehenden Links zwischenzeitlich auch vom Trust ab, den diese Seite bei Google genießt.

Letztendlich ist es jedoch durchaus möglich, dass Google einen Schutzmechanismus integriert hat, der unabhängig vom PageRank-Algorithmus eine Mindestanzahl von Links für einen bestimmten PageRank voraussetzt.

Auswirkungen von Backlinks auf die Gewichtung der Unterseiten


Wie aber verhalten sich nun die einzelnen Seiten einer Website bei von extern eingehenden Links? Wie verändert sich die Gewichtung der Seiten bei kontrolliert eingehenden Links?

Wir setzen nun einen PR3-Link (mit 4 ausgehenden Links) auf Seite B:

PageRank - PR3-Backlink auf Seite B - Anfängliche Berechnung und Ergebnis

Ergebnis:
Seite A PR2 (1,9189)
Seite B PR1 (1,3312)
Seite C PR1 (0,6937)
Seite D PR1 (0,6937)

Vergleichen wir dieses mit dem Ergebnis der vorhergehenden Berechnung, haben wir somit Seite B als wichtigste Unterseite hervorgehoben:

Seite A PR3 (2,5564)
Seite B PR1 (0,8743)
Seite C PR1 (0,8743)
Seite D PR1 (0,8743)

PDF: Google PageRank-Algorithmus - Verlinkung zwischen vier Seiten - A-BCD, B-A, C-A, D-A - Einfluß von eingehenden Links - Backlink auf Seite B - PageRank-Berechnung 03
(Berechnung 03 zum Blogpost PageRank 7)

Folgerichtig ergibt sich für die Seiten C und D:

PR3-Link auf C:

PageRank - PR3-Backlink auf Seite C - Ergebnis

Ergebnis
Seite A PR2 (1,9189)
Seite B PR1 (0,6937)
Seite C PR1 (1,3312)
Seite D PR1 (0,6937)

PR3-Link auf D:

PageRank - PR3-Backlink auf Seite D - Ergebnis

Ergebnis
Seite A PR2 (1,9189)
Seite B PR1 (0,6937)
Seite C PR1 (0,6937)
Seite D PR1 (1,3312)

Setzen wir nun jeweils einen PR3-Backlink (mit je 4 ausgehenden Links) auf jede unserer vier Seiten:

PageRank - PR3-Backlink auf Seite ABCD - Ergebnis

Ergebnis (!)
Seite A PR3 (2,5564)
Seite B PR2 (1,5118)
Seite C PR2 (1,5118)
Seite D PR2 (1,5118)

Wenn Theorie sich so einfach in Praxis umsetzen lassen würde, gäbe es wahrscheinlich nur noch Seiten mit hohem PageRank. In der Praxis scheitert diese Theorie daran, dass es eher selten Seiten mit hohem PR und geringster Anzahl ausgehender Links gibt. Verwirklichen wir die Theorie in der Praxis, müssen wir in der Regel von mindestens 25 ausgehenden Links der auf uns verlinkenden Seiten ausgehen:

PageRank - PR3-Backlink mit 25 Outgoing Links auf Seite ABCD - Ergebnis

Ergebnis
Seite A PR2 (2,0209)
Seite B PR1 (0,8246)
Seite C PR1 (0,8246)
Seite D PR1 (0,8246)

(Vergleiche es mit dem vorherigen.)

Wenn wir uns nur auf den PageRank-Algorithmus konzentrieren und weitere Faktoren unberücksichtigt lassen, müssten wir doch den Saft (Linkjuice) durch nur eine Öffnung fließen lassen können, oder? Wozu der Aufwand, jede Unterseite mit Backlinks zu versorgen?

Setzen wir einmal alle vier PR3-Backlinks (mit je 4 ausgehenden Links) auf unsere Seite A:

PageRank - 4 PR3-Backlinks auf Seite A - Ergebnis

Ergebnis (!)
Seite A PR4 (4,4689)
Seite B PR1 (1,4162)
Seite C PR1 (1,4162)
Seite D PR1 (1,4162)

Interessant, ein oder zwei hochwertige Backlinks mehr und schon haben wir PR5 mit 3x PR2... (Vergleiche mit dem Ergebnis je 1 PR3-Backlink auf je 1 Seite oben...)

PDF: Google PageRank-Algorithmus - Verlinkung zwischen vier Seiten - A-BCD, B-A, C-A, D-A - Einfluß von eingehenden Links - Backlink auf Seite A oder B oder C oder D - Je 1 Backlink je Seite - 4 Backlinks auf Seite A - Übersicht - PageRank-Berechnung 04
(Berechnung 04 zum Blogpost PageRank 7)

Die verbreitete Theorie, dass eine hohe Anzahl von Backlinks notwendig wäre, ist falsch. Nur wenige gute Backlinks sind notwendig.

Warum funktioniert unser letztes Beispiel eher weniger in der Praxis?


  • Websites bestehen nahezu immer aus deutlich mehr als 4 Seiten, somit wären deutlich mehr hochwertige Backlinks notwendig

  • wir verschaffen uns oft keinen vollständigen Überblick mehr über alle Seiten unseres Internetauftritts, somit können wir auch nicht mehr die Anzahl und Qualität der ausgehenden Links von diversen Unterseiten kontrollieren

  • wir müssen in der Regel mit Veränderungen des PageRank von auf uns verlinkende Seiten rechnen

  • es gibt zwischenzeitlich zahlreiche weitere Faktoren für den PageRank, die eine Rolle spielen
Somit kann man das Ziel der höchsten Form von Optimierung der Linkstruktur kombiniert mit hoher Gewichtung der Domain gar nicht erreichen? Die Antwort auf diese Frage ist einfach: Doch, man kann. - Die Umsetzung ist allerdings etwas aufwendiger.

Wir erkennen nun, dass wir selbst für unseren PageRank durch die Qualität der internen Verlinkung verantwortlich sind. Wenn wir heute einen PR4 erreichen, fließt dieser zu keiner Zeit in eine zukünftige PageRank-Berechnung mehr ein. Jedes Mal wird von neuem der PageRank unserer Website ermittelt.

Wenn wir nun also ein PageRank-Ergebnis der internen Verlinkung berechnet haben, dient dieses als Basis für die Berechnung und Beeinflussung von extern eingehenden Links.

Die bisherige Investition von Zeit hat sich vollends gelohnt. Man könnte regelrecht sagen: Nie war der PageRank so einfach wie heute. Hohe Konzentration war erforderlich und viel Energie. Noch mehr davon wird zum Erreichen des Endes des Regenbogens notwendig sein...

PageRank-Posts

zurück: PageRank 6 (Teil 6)

Anfang: PageRank Einleitung




"Wulffy schmeißt hin und findet deutsche SEOS zum "kotzen"." von its me bei seoigg finde ich lustig. Wulffy schmeißt weder hin, noch findet er deutsche SEOs zum Kotzen.

Dieser Blogpost bezieht sich auf eine definierte Gruppe von Leuten, die vorgeben, die größten, die stärksten, die besten und die geilsten SEOs der Welt zu sein, keinesfalls auf alle deutschen SEOs.


EINIGE SEOs, die Blogs betreiben, scheinen echt Langeweile zu haben. Es wird ständig darüber berichtet, dass jemand etwas geschrieben hat über jemanden, der irgendetwas geschrieben hat. Das hilft keinem weiter.

YiGG ist eine hervorragende Social News-Plattform, die jedoch von einer Horde bestimmter aggressiver, gelangweilter SEOs dominiert wird und somit kein Ziel mehr für den Normalsterblichen bietet. Jeder, der nicht herumschleimt und der Meinung dieser dominierenden SEOs entspricht, wird umzingelt und herausgemobbt.

Wenn aus Meinung Wissen wird und diese Horde SEOs bestimmt, welches "Wissen" die Menschheit erfahren soll, dann hat das nichts mehr mit Social News zu tun. Anstelle von Michael (Reuter), dem Geschäftsführer von YiGG, würde ich alle SEO-Accounts löschen und jeden, der sich zukünftig anmeldet, beobachten. Sobald er sich als SEO herausstellt: Profil löschen. Ansonsten wird YiGG dabei draufgehen. Das Abakus-Forum ist daran gestorben. Es mag gut besucht sein, aber jeder, der dort seine Meinung preisgibt, wird von bestimmten SEOs attackiert. Und jeder dieser ist mit mehreren Accounts angemeldet.

Dieses Blog ist nie so richtig auf den Zug aufgesprungen. Ständig darüber zu berichten, was andere SEO-Blogger berichtet haben. Sich gegenseitig anzuschleimen und mit den wirklich großen Möchtegerns der Branche Gut Freund spielen.

Welchen Sinn macht es, den Leuten, die Hilfe benötigen, immer nur Tratsch und Schwachsinn zu liefern. Das tausendste Interview mit Mr. X. Es ist so langweilig. Was machst Du? Wer bist Du? Was willst Du?

Diese deutsche SEO-Szene (Anm. die SEO-Szene, die vorgibt, dass sie die SEO-Szene wäre) kotzt mich an. Sie ist sowas von krank. Dabei ist es nicht mal mehr die SEO-Szene. Es ist nur eine Gruppe von Möchtegern-SEOs, die zusammen jedem eine Szene machen. Die wirklichen SEOs betreiben eher keine Blogs und sind im deutschen Web nicht persönlich zu finden.

Dieses Blog wird in Kürze sortiert werden und in Zukunft keinerlei Tratsch mehr bringen. Dieser ganze Unfug, auf den ich mich eingelassen habe und die kontinuierliche Provokation und Aggression, auf die ich mehr oder weniger reingefallen bin, hat jetzt ein Ende.

Hier kommt nur noch das hinein, was Leuten weiterhilft.

Und bitte: es nervt auch, wenn ich fast jeden Tag irgendeine Mail mit der Bitte um Linktausch oder Bitte darum, über irgendeine Seite zu berichten, erhalte. Dieses Blog interessiert sich nicht für Linktausch und hier gibt es auch keinen Paid-Blogger. Wenn ich berichte, berichte ich über das, was mir persönlich gut gefällt. Ich lasse mich weder dafür bezahlen noch ändere ich meine Meinung über irgendetwas. Wenn ich eine Seite schlecht finde, berichte ich doch nicht für Geld gut über diese Seite.

Wulffy
Suchmaschinenoptimierung SEO Web 2.0




Déjà Vu - Viele von uns kennen es. Man erlebt etwas, was man glaubt, schon einmal in ähnlicher oder gleicher Art erlebt zu haben. Meistens hat man es längst verdrängt, gar vergessen. Erlebnisse in der Kindheit prägen uns insbesondere.

Eine andere Art des Wochenrückblicks erfolgt nun. Die Geschehnisse der letzten Woche, die mich sehr verärgert haben, beruhen auf Artikel von Baynado. Baynado, von dem ich bisher eigentlich sehr viel gehalten habe, erlaubte es sich, die Lorbeeren für meine Arbeiten zu ernten, ohne auch nur andeutungsweise auf seine Quellen hinzuweisen.

Dieses Sprichwort passt hier besonders gut. Es stammt aus der Zeit des Römischen Reiches. Damals war der Lorbeerbaum der Baum des Ruhmes. Doch jemand, der die Lorbeeren erntete, ohne dass ihm der Baum gehörte und er sich um die Aufzucht gekümmert hatte, stahl regelrecht das Eigentum eines anderen. Ursprünglich trugen lediglich römische Feldherren einen Kranz aus Lorbeeren, z. B. Caesar.

In der vergangenen Woche traute ich meinen Augen nicht und erinnerte mich an ein Erlebnis in meiner Kindheit. Von der 7. bis zur 9. Klasse hatte ich einen sehr guten Freund, mit dem ich ständig unterwegs war und irgendwie alles zusammen machte. Damals schrieb ich über diverse Erkenntnisse, die ich später in Klassenarbeiten einbrachte. Mein damaliger Freund lass häufig meine Texte. Irgendwann in der 9. Klasse schrieben wir eine Klassenarbeit in Deutsch. Ich erhielt eine 3. Mein damaliger Freund eine 1. Später las ich die Arbeit meines Freundes, die sich zu 90% aus meinen Texten und Erkenntnissen zusammensetzte. Ich selbst hatte in meiner Deutscharbeit natürlich 100% meiner Erkenntnisse eingebracht. Die gesamte Vorbereitungszeit, die ich aufgewendet hatte, entfiel für meinen Freund. Er las nur das Ergebnis von mir, schrieb es nahezu vollständig ab und bekam eine 1. Hinzu kam, dass er sehr beliebt bei der Lehrerin war, was ich nicht war, da ich mich lt. meiner Deutschlehrerin nie anpassen und Dinge akzeptieren konnte. Mein selbständiges Denken störte sie.

Als Baynado damals am 01.11.2007 mit SEO im Web 2.0 über die manipulative Macht der Social Networks über meine Blogposts* berichtete, fiel mir bereits auf, dass er fast alles von mir abgeschrieben hatte, anstatt nur zusammenfassend darüber zu schreiben, was ich schrieb. Er veröffentlichte einen Großteil der Ergebnisse meiner Arbeit vollständig in seinem Blog.

*Meine Blogposts:
31.10.2007
Das neue Ziel von Google - Beobachtung, Information, Auswertung, Wertschöpfung
01.11.2007
SEO Web 2.0 - Mehr Manipulationsmöglichkeiten als je zuvor


Über SEO-united.de wurde ich am 4. März 2008 auf den Artikel Strebt Google nach der Weltherrschaft? vom 1. März 2008 aufmerksam. Obwohl Constantin von SEO-united.de meine damaligen Blogposts kannte, lobte er im großen Stil Baynado für diesen "super Artikel". (Constantins Wochenrückblick 9/08: Facebook und SEO.

Baynado schrieb über "Google weiß, was ich gestern getan habe.Es weiß, welche E-Mails ich gelesen und geschrieben habe. Google weiß welches Video ich mir auf Youtube angeschaut habe,...", "Google arbeitet an einer Künstlichen Intelligenz", "RFID Technologie".

Somit fasste Baynado meine damaligen Blogposts mit meiner vom 21.02.2008: "Ein menschlicher Algorithmus" - Google Social Graph startet durch zusammen, schrieb noch ein paar Sätze hinzu und erhielt größtes Lob und 64 YiGGs für meine Arbeit.

Am Ende bestritt er auch noch in den Kommentaren zu seinem Artikel, dass es so ist.

Gut. Vergessen wir es, dachte ich. Baynado ist ein Klasse-Typ, ist mir von Anfang an sympathisch gewesen und ist ja nunmal schließlich auch Moderator bei YiGG. Ich wollte keinen Ärger.

Aber "Ein gebranntes Kind scheut das Feuer." Gestern Abend explodierte ich. Und heute bin ich froh, dass ich nicht schon gestern Abend darüber geschrieben hatte. Ich bezeichne es als Contentklau und Ideendiebstahl. Die Früchte meiner Arbeit zu ernten, ohne jemals auch nur eine einzige Pflanze gesäht und gepflegt zu haben.

Heute erhielt ich direkt eine Mail von einem Freund, der mich darauf hinwies, dass Baynado wohl jetzt das gleiche schreibt, nachdem ich es geschrieben habe.

Am 4. März schreibt doch der Vogel: Kann Google keine Kritik vertragen? und erhält über diesen Linkbait (eigentlich ja YiGGbait) 75 YiGGs für meine Ideen und Arbeit:

25.02.2008: Zensur bei Google?

Es war mehr als ein Déjà Vu, denn es war keine Täuschung einer Erinnerung, sondern es geschah wirklich.

Eine psychoanalytische Ausarbeitung werde ich dennoch nicht erstellen. "Abschreiben" bezeichnete man früher oft als Hochstapelei. Interessant finde ich, dass die Italiener einen Hochstapler als "cavaliere d' industria" betiteln. Sinngemäß einen Ritter mit großem Eifer.

Auch wenn die SEO Knights zwischenzeitlich aus vier Personen bestehen, wird Baynado mit Sicherheit niemals an unserer Tafelrunde speisen.