Dieser Blog wird zu SEO-Testzwecken nun für eine Woche dem Googlebot überlassen.

Die nächsten Themen werden sein:

Die Macht der Keywords

Feedarten für Google Blogger

Die neue Form der Backlinks

Die Zukunft von Webkatalogen

Die Macht der Tags und Attribute

Die Macht der internen Linkstrukturen

... und eine größere Visitor locations-Weltkarte... die alte ist voll.

Bis in einer Woche!

Beste Grüße,

Wulffy




Die Post ist eine Fortsetzung von 403 Forbidden Google Fehler!

Die Seite Google 403 Forbidden erscheint in letzter Zeit häufiger bei Suchanfragen. Bestimmte Suchbegriffe als auch Kombinationen werden bei Veränderung der Standardeinstellung der Google-Suchmaschine auf mehr als 10 Ergebnisse pro Seite pauschal mit der Fehlerseite "403 Forbidden Google Fehler" geblockt. Die zunächst erscheinende Captcha-Abfrage verschwindet sogar bei häufigerem Aufruf/Erscheinen der Fehlerseite vollständig.

Die Vorgeschichte
Seit Jahren beschäftigen sich Hacker mit dem sog. Google Hacking, um Zugriff zu Webservern, IRC-Chats etc. zu erhalten. Auch heute noch werden viele Abfragen von Google nicht erkannt, teilweise dadurch, dass man die Reihenfolge (!) der Parameter umstellte.

Selbst einfache Hacks, wie z. B. die Suche von robots.txt und darin enthaltenen disallows, um Unterseiten zu finden, die von Google nicht indiziert wurden (also nicht in den Suchergebnissen erscheinen), sind auch heute noch möglich.

Neben Hackern wird das sog. Google Hacking auch von Black Hat SEOs, Spammern und einigen aggressiven SEO-Ranking-Tools betrieben.

Es werden in einer gewissen Syntax Parameter verwendet, um auf Dateien aufmerksam zu werden, die Zugriffe in der gewünschten Art erlauben. Ob es nun ein Apache-Server ist oder auch nur ein Guestbook, um dort automatisierten Spam abzuladen.

Die Syntaxanalyse bezeichnet man als Parsing. In diesem Fall Google Parsing/Google Parser.

Auch wikipedia darf sich einmal irren, in dem es behauptet, dass diese Meldung etwas mit der häufigen Benutzung von Google durch SEO-Firmen zu tun hätte.

U. a. diese Parameter werden in gewissen Kombinationen geblockt:
site, inurl, intext, intitle, filetype, allinurl
(auch -site, -inurl, -intext... etc.)

Käme nun jemand auf die Idee extremer als der normale Besucher von Google zu suchen, kann es schnell dazu führen, die "403 Forbidden Google Fehler"-Seite zu erreichen. Z. B.:

"Hallo Google" -abcdef -site:abc.ab -site:def.ab -site:ghi.ab -site:jkl.ab

Durch das Captcha möchte Google herausfinden, ob es sich um einen menschlichen User oder um einen automatisierten Prozess (z. B. Wurm) handelt.

Auch wenn in diesem Fall die Wahrscheinlichkeit sehr gering ist, dass diese Meldung aufgrund einer tatsächlichen Verseuchung durch einen Wurm oder durch Spyware erscheint, sollte man seinen PC mit geeigneten Anti-Spyware-Tools regelmäßig durchsuchen lassen.

Im Juli 2007 schrieb Google zur 403 Forbidden Google Fehler"-Fehlerseite:
The reason behind the "We're sorry... message"




Eben sprach man mich auf den

403 Forbidden Google Fehler

an. Dieser erscheint bei bestimmten Suchabfragen browserunabhängig bzw. ggf. auch durch bestimmte SEO Firefox Extensions. Diese Fehlerseite existiert schon seit einigen Jahren:

Google  Fehler

Es tut uns Leid,

… aber Ihre Abfrage kann momentan nicht verarbeitet werden. Ein Computervirus oder eine Spyware-Anwendung sendet uns automatische Abfragen zu und es scheint, dass Ihr Computer bzw. Ihr Netzwerk infiziert wurde.

Wir werden Ihren Zugriff schnellstmöglich wiederherstellen, also probieren Sie es bald noch einmal. In der Zwischenzeit empfehlen wir Ihnen, anhand eines Virenscanners oder Spyware-Entferners zu überprüfen, dass auf Ihrem Computer kein Virus oder andere Störsoftware vorhanden ist.

Wir entschuldigen uns für eventuell entstandene Unannehmlichkeiten und hoffen, dass Sie bald wieder bei Google vorbeischauen.
Sollten Sie die Suche fortsetzen möchten, geben Sie bitte die nachstehenden Buchstaben ein:



Google  Error

We're sorry...,

... but your query looks similar to automated requests from a computer virus or spyware application. To protect our users, we can't process your request right now.

We'll restore your access as quickly as possible, so try again soon. In the meantime, if you suspect that your computer or network has been infected,
you might want to run a virus checker or spyware remover to make sure that your systems are free of viruses and other spurious software.

We apologize for the inconvenience, and hope we'll see you again on Google.

To continue searching, please type the characters you see below:



Nun habe ich mir erst einmal angeschaut, was andere dazu geschrieben haben:

SEO Marketing Blog rät dazu, sollte der Fehler bei "normaler" Suche auftreten, auf jeden Fall auf Viren und Spyware zu checken. Womit er Recht hat, solange man nicht ein SEO-Tool im Browser installiert hat. Die Erklärung ist die beste, die ich lesen konnte.

Affiliate Marketing Weblog spricht von einem Google Captcha.

codefreak.de glaubt, dass das Netz der Telekom verseucht ist.

Auch eine interessante Erklärung: Ranking-Konzept

Simon's Blog sagt, dass Powersurfer als Spyware-Schleuder abgestempelt werden.

und Cappellmeister meldet, dass es so ist.

Was aber steckt wirklich dahinter? Warum werden bestimmte Abfragen geblockt?

Die Antwort erhälst Du im nächsten Post:
403 Forbidden Google Fehler - Ursache




Die Post ist eine Fortsetzung von SEO Web 2.0 Tipps - Die Macht der Worte (Auflösung)!

Give me a reason - to hold on to what we've got hörte ich gerade als Remix von Jens O. (2007) und Original von Ian van Dahl (2002) und dachte dabei an den verblichenen PageRank. Die Masse der SEOs hängt immer noch an ihm fest.

"Eigentlich wäre sie in allen Fällen Wikipedia." (die gute Nachbarschaft), schrieb ich in meinem gestrigen Post. Warum meiner Meinung nach themenrelevante Links zu Wikipedia zu einer Aufwertung bei Google führen und die Positionierung in den Suchergebnissen beeinflussen, werde ich nun erklären.

Eine lange Geschichte
Der Weltraum, unendliche Weiten. Wir schreiben das Jahr 2005. Dies sind die Abenteuer des Raumschiffs Google, das mit seiner 4.183 Mann* starken Besatzung 3 Jahre lang unterwegs ist, um neue Welten zu erforschen, neues Leben und neue Zivilisationen. Viele Lichtjahre von der Erde entfernt, dringt Google in Galaxien vor, die nie ein SEO zuvor gesehen hat.
(Danke an Raumschiff Enterprise)
* Stand Juni 2005

Im Juni 2005 verkündete Wikimedia eine mögliche Zusammenarbeit mit Google in Bezug auf Hosting eines Teils seiner Seiten. Andere Stimmen behaupten, es wäre genau umgekehrt gewesen.

Am 16. Dezember 2005 berichtete Wikimedia:
"answers.com - An online answers service which includes Wikipedia among its 4-5 primary sources of information (in response to online queries). Run by Answers Corporation; now used by Google to provide related information about terms used in searches (replacing dictionary.com). Loves WP..."

"now used by Google" - Eine direkte Verbindung zwischen Google und Wikipedia wäre auffällig gewesen...

Am 12. April 2007 erschien von den HP Labs, Kalifornien, eine wissenschaftliche Ausarbeitung in einer vorläufigen Version (als pdf, die sich noch im HTML-Cache von Google befindet - aktuelle Version enthält das selbe Zitat):
Cooperation and quality in Wikipedia

Sie wurde im Information Dynamics Laboratory von Dennis M. Wilkinson and Bernardo A. Huberman erstellt.

"First, to account for topic popularity, we noted that Google pagerank has been shown to correlate strongly to the number of times a Wikipedia page is viewed."

Jetzt wird es aber interessant! Sie haben herausgefunden, dass der Google PageRank nachhaltig in Beziehung steht zur Anzahl der Seitenaufrufe bei Wikipedia. Demnach erhält eine Seite bei Wikipedia einen umso höheren PageRank, je öfter sie aufgerufen wird! Von Backlinks keine Rede.

"We found that article quality is indeed correlated with both number of edits and number of distinct editors."

Die Qualität eines Artikels bei Wikipedia steht tatsächlich in Beziehung zur Anzahl der Bearbeitungen und Anzahl der eindeutigen Editoren. Artikel, die von bestimmten Editoren bearbeitet wurden, erhielten einen höheren PageRank als Artikel aller anderen Autoren.

Soweit die Übersetzung.

Was würde das bedeuten? Es gibt für mich nur zwei Erklärungen, die einzeln oder beide zutreffen müssten:

- Google erhält Zugriff auf die Serverstatistiken von Wikipedia

- Google hostet Teile der freien Enzyklopädie in deren Data Center

Setzen wir noch einen darauf. Wikipedia speichert die IP-Adressen all derer, die editieren. Diese Liste ist online einseh- und herunterladbar. Virgil Griffith, ein Student und Sicherheitsexperte aus den USA fand vor kurzem heraus, dass bis zu 202 IP-Adressbereiche von Google bei Wikipedia editiert hatten. Und seitdem bietet er den Wikiscanner an, der eine aktuelle Abfrage zulässt. Die Google-Mitarbeiter aus Mountain View sind auch weiterhin sehr aktiv. Möchtest Du einmal sehen, wie aktiv: Wikiscanner.

Begonnen hatte ich mit der Recherche bereits vor einiger Zeit, als mir in den Google Webmaster-Tools ein Link zu Wikipedia zur Erklärung eines Begriffes auffiel. Vor drei Tagen habe ich auf meiner Website 33 Links auf Wikipedia-Artikel gesetzt, um den Besuchern bestimmte Begriffserklärungen anzubieten. Vor zwei Tagen erreichte sie 33% mehr Besucher. Vor einem Tag weitere 12,5% mehr Besucher. Heute bisher weitere 5% mehr Besucher. Die nun erzielten Besucherzahlen trafen zuletzt Ende Mai 2007 zu.

Für mich ein weiterer Beweis dafür, dass Links auf andere Seiten ein neues Kriterium für die Bewertung von Google geworden sind. Mache alles Erdenkliche, um langfristig eine Freundschaft mit Google aufzubauen. Unterstütze Google, indem Du auf Wikipedia verlinkst und Google wird Dir seine Dankbarkeit zeigen! Nutze z. B. den Feedburner, denn er gehört Google. Selbst AdSense/AdSense für Suchergebnisseiten/Empfehlungen könnte Deine Seite in den Suchergebnissen aufwerten.

Fazit: Sammle fortwährend Punkte bei Google, denn nur bei Google gibt es die Geschenke sofort!

Google erfasst Deine Links zu anderen Seiten, aber auch zu Wikipedia in jedem Fall. Das wissen wir alle. Was aber wäre, wenn Google die Referrer auswerten würde? Also die Spur, die Deine Besucher bei Wikipedia hinterlassen, wenn sie auf Deiner Website/in Deinem Blog über einen Link zu Wikipedia gelangen...

Never stop this feeling - SEO is my life
Klubbingman feat. Beatrix Delgado - Never stop this feeling (2007)




In meinem Post SEO Web 2.0 Tipps - Die Macht der Worte habe ich in Rätseln gesprochen. Die langersehnte Auflösung folgt nun. Du darfst gespannt sein, denn Du wirst Neues erfahren. Denke aber bitte daran, dass dies nur eine Strategie ist, die nur in Kombination mit anderen zum absoluten Erfolg führt.

Welche SEO Web 2.0-Technik habe ich im o. g. Post in erster Linie verwendet?

- Thematische Verlinkung (Empfehlung/Tag) auf zum jeweiligen Abschnitt des Posts passende Websites - hier: Wikipedia, Abakus

A. Beginnen wir mit der Funktionsweise von Blogs und das empfohlene Verhalten in Blogs, welches ich erwähnte. Hierbei gehe ich gezielt darauf ein, was ich meinte.

1. Netiquette
Es soll zur Netiquette gehören, dass man auf die Stelle (Quelle) im Web verlinkt, von der man inspiriert wurde. Ob es im Usenet, in Foren oder in Blogs geschieht, spielt keine Bedeutung dabei. Mit dem Google Web 2.0-Algorithmus (Bezeichnung vom Author) werden Websites nun sogesehen wie Blogs oder Foren behandelt. (Meinung des Authors)

2. Querdenker
Ein wenig hast Du mich bereits als Querdenker kennengelernt. Und auch hier denken wir nun einmal quer:

Google's Richtlinien für Webmaster:
"Meiden Sie insbesondere Links zu Webspammern oder schlechter Nachbarschaft im Web, da Ihre eigene Rangfolge durch solche Links negativ beeinflusst werden kann."

Wulffy's Richtlinien für Webmaster:
"Meiden Sie insbesondere Links zu Related Content und guter Nachbarschaft im Web auf keinen Fall, da Ihre eigene Rangfolge durch solche Links positiv beeinflusst werden kann."

3. Labels und Tags mit Anchortext
Wie auch immer man das Kind nennen möchte, das größte Problem, was ein Tag hat, ist, wenn er außerhalb des (Related) Contents steht. Schreibe Tags in den Post, direkt in den Related Content!

Das erste Interesse von Google ist es zu erfahren, worüber am meisten von wem diskutiert wird (z. B. für AdWords/AdSense). Stellen wir uns nun vor, dass der neue Google Web 2.0-Algorithmus seit Anfang August 2007 so arbeiten würde:

- alles, worüber diskutiert wird, ist wichtiger als alles, worüber nicht diskutiert wird und worüber diskutiert wurde

- der, der über alles, was wichtig ist, diskutiert, ist wichtiger als der, der nicht darüber diskutiert bzw. über andere Dinge diskutiert

- alles, worüber aktuell diskutiert wird, ist wichtiger als alles, worüber davor diskutiert wurde

- der, der aktuell diskutiert, ist wichtiger, als der, der davor diskutierte

(puuuh)

Wie könnte so etwas aussehen? Lese einfach mal hier:
URLFAN - How it works

Diese Liste würde sich dann ergeben:
Top 100 Ranked Sites

B. Thematische Verlinkung, aber wohin?
Auf jeden Fall nicht zum Nachbarn, wenn er für Dich zur schlechten Nachbarschaft gehört. Dann lieber auf den guten Freund! - Ernsthaft. Das meine ich so.

Würdest Du eine Filmseite betreiben, über Kino, DVD oder irgendetwas, was mit Film zu tun hat, kannst Du ja nicht auf Deine Konkurrenz verlinken. Das wäre Selbstmord.

Also würde man sich doch die gute Nachbarschaft aussuchen! Und die wäre halt Wikipedia (und imdb.com, bevor mich jemand schlägt). Und mit entsprechend verlinkten relevanten Themen machst Du aus der Filmseite erst eine richtige Filmseite! (imdb.com nicht vergessen...)

Eigentlich wäre sie in allen Fällen Wikipedia. Hmmm.

Warum das so ist, erfährst Du im nächsten Post SEO Web 2.0 - Gugelpedia? bei Wulffy's (SEO) Hilfeblog. Und der könnte Dir die Augen erst so richtig öffnen.

Die Zeiten von Backlinks sind vorbei. Links haben an Gültigkeit gewonnen. (Meine Auffassung hat sich auch weiterhin nicht geändert.)

Noch eine Anmerkung: jeder Blogger darf sich selbstverständlich auf diese Post beziehen. Ich würde mich sehr darüber freuen! Aber bitte keinen Ideen-/Content-Klau oder daraus eine Umfrage an seine Leser machen, ohne die Netiquette für Blogs zu beachten. ;-)




Ich habe einen schönen Tag auf einem "Summer Fest" in Leverkusen verbracht und kam wieder nicht dazu...

Meine Theorie stimmt! Ob das PageRank-TBPR-Update jetzt kommt oder nicht. Der PageRank hat seinen Wert verloren. Der Versuch uns glaubhaft zu machen, dass Google USA am letzten Mittwoch eine Pressemitteilung herausgegeben hätte, dass das PageRank-Update sich verzögert und sich nichts ändern würde, war schon im negativen Sinne klasse. In Deutschland hätte er jetzt ein ernsthaftes Problem, der Daniel. Habe auch lange überlegt, ob ich einen Link auf seinen Blog setze. Nun ja. Ich kann den Link ja noch später herauslöschen.

Nun habe ich gestern meine Website optimiert. Eigentlich nur die Startseite. Innerhalb von Stunden stand ich mit allen Tags auf Platz 1 in Google! Bis meine Website eben einen ersten Platz räumen musste. (&!%$*#)

Entweder gab es jemanden, der meine Post verstanden hatte oder jemanden, der das Prinzip genutzt hat(te) und sein Post aktueller sein mußte als die Optimierung meiner Website.

Nun ja. Er hatte das Prinzip genutzt. Es funktioniert ja auch nicht erst seit dem Web 2.0. Nur jetzt besser denn je.

Die Post, die eine Keywordkombination meiner Website von Platz 1 verwies. Sowas!

Warum war sein Post aktueller? Es war doch vom 6. Mai? Warum musste "Das Popcorn" nur erscheinen...
Kommentar von Das Popcorn am 19.08.2007 um 18:35

(Wink mit Zaunpfahl)

Neben dem verwendeten Prinzip fiel mir gerade auf, dass dieser Blog den Meta-Tag "DC.Title" verwendet. Interessant. Seit wann steht Google auf Meta-Tags? Schon immer?

SEO sein ist einfach nur GEIL!




Gestern hat mein Körper mir gezeigt, dass ich gewisse Grenzen nicht überschreiten sollte. Die Arbeit der letzten Monate hatte Auswirkungen, die dazu führten, dass ich für mehrere Stunden nicht in der Lage war, überhaupt irgendetwas zu erledigen. Ein Fernsehabend mit meiner Freundin tat aber wirklich mal wieder gut.

In Bezug auf meine Post SEO Web 2.0 Tipps - Die Macht der Worte besteht Klärungsbedarf, da ich diese wohl doch etwas Unerklärbar formuliert habe. Ich werde daher kurzfristig eine Ausarbeitung veröffentlichen, die genau erklären wird, was ich meinte. Eigentlich hatte ich nicht die Absicht Details in Tiefe zu nennen, da auch Mitarbeiter von Google mitlesen könnten... ;-)

Da die Leser dieses Blogs eine gemeinsame Lebenswelt mit mir teilen, wie es einmal Die Zeit definierte, wird dieser Blog ab sofort auf Duzen umgestellt. Auch möchte ich hier keine Hierarchiestufen vortäuschen, die Sinnbild für das Siezen in Deutschland sind.

Vielen Dank für die e-mails, die mich erreichten, und die abonnierten Feeds. Danke auch all denen, die diesen Blog besuchten und besuchen werden!

Eine e-mail-Adresse zum Kontakt mit mir wurde links in das Menü gestellt. Da ich aber auch auf anderen Baustellen tätig bin, kann es oft zu Verzögerungen kommen.

Ich freue mich auf eine weitere Zusammenarbeit mit euch allen!

Beste Grüße,
Wulffy




Dass White Hat SEOs auch Spass haben, möchte ich in diesem Post zum Ausdruck bringen. Natürlich ist er nicht ganz ernst gemeint. Oder vielleicht doch?

Eigentlich wollte ich diesen Post ausschließlich mit "Die Macht der Worte" betiteln, was natürlich keine sinnvollen Keywords dargestellt hätte. Zudem bezieht sich diese Art der Titelvergabe wohl eher auf BBC Dokumentationen.

Ich nutze die Gunst der Stunde, um Ihnen weitere Tipps zu vermitteln. Dabei empfehle ich Ihnen - in jeder Hinsicht - das Lesen des vollständigen Posts. Jeder Abschnitt ist durchdacht, auch wenn Sie während des Lesens vielleicht denken: "Was schreibt er da?"

Als mutmaßlicher Entdecker und Entschlüssler des Matt Cutts' "Schreibcodecs" in Bezug auf die tatsächlichen Auswirkungen der Verschiebung des Suplemental Index in den Main Web Index und den damit verbundenen Wert- und Statusverlust des PageRank muss ich mich doch jetzt feiern, was ich mir gestern Abend einfach herausnahm. Wenn ich "gestern Abend" schreibe, meine ich in etwa 2 Uhr nachts. Mit "Feiern" definiere ich einen Zeitraum von in etwa 5 min., der dazu ausreichte, den höchstmotivierenden Song "Let this love begin" von der englisch-niederländischen Gruppe Caught in the Act zu hören, die 1995 die Backstreet Boys nach Europa brachten, und ein Glas Cabernet Sauvignon zu geniessen.

Meine Feierlust und Motivation erhielt ich gestern Abend nochmals abschließend durch eine Antwort auf einen Einwurf zum Wegfall des ursprünglichen PageRanks von mir im ABAKUS Suchmaschinenoptimierung Forum von BennyDuck:
"Hab deinen Feed abonniert, ist komisch das Leben, einer berichtet über was - keiner glaubt es. Derjenige wird fertig gemacht. Zwei Tage später reden die Leute darüber, weil es jetzt überall in den News steht. Und keiner weiß mehr weiter. Ist eben Psycho. Du hast auf jedenfalls einen Stammgast generiert, mach weiter so.".

...

Als White Hat SEO aus Leidenschaft habe ich den kindlichen Spieltrieb nie verloren. Ohne diesen wären herausragende Ergebnisse im SEO nicht machbar. Die zweite Zutat ist eine gehörige Portion Zeit. Daher ist es auch nicht möglich, gleichzeitig Programmierer und SEO in Perfektion zu sein. 24 Stunden an einem Tag würden nicht ausreichen, um sich mit beiden Themenbereichen ernsthaft zu beschäftigen. Ein Programmierer sollte immer einen SEO zur Seite haben, um gesetzte Ziele auch wirklich erreichen zu können.

...

Schauen Sie sich die Funktionsweise von Blogs und das empfohlene Verhalten in Blogs an. Was man tun sollte, wenn man einen Post veröffentlicht, der von einem anderen Blog oder einer anderen Website inspiriert wurde.

Achten Sie darauf, was Google im Detail macht. Schauen Sie sich einmal auf diversen Websites und Blogs von Google um. Nehmen Sie sich viel Zeit dafür.

Lesen Sie diesen Post zwischen den Zeilen. Der Zeilenabstand sollte dafür ausreichen. - Mindestens einen "Wink mit dem Zaunpfahl" sollte es geben.

Kommentare sind ausdrücklich erwünscht. Setzen Sie aber auf keinen Fall einen Backlink zu Ihrer Website! Oder doch?




Thomas schrieb heute einen äußerst interessanten Kommentar zu meiner Post Der ausgeträumte Traum des Google PageRank (Main) von gestern.

Kommentar von Thomas:
"Natürlich gibt es Bereiche, die von Aktualität leben. Dies sind (wie hier) beispielswese Neuigkeiten zum PR. Was ist aber mit Bereichen, die keine großen Veränderungen erfahren?

Mir fällt dazu gerade als Beispiel "Direktbank" oder die "Geschichte von China im 9. Jahrhundert vor Chr." ein. Hier gibt es ja wenige Aktualität, wenig neue Informationen.

Würden nun Deiner Meinung nach die xxx Bank, xxxxxxx, Sparkasse xxxx xxxx nach "hinten rutschen", wenn ein Blog täglich/wöchentlich über Direktbanken schreiben würde?"


Thomas, nochmals danke für Deinen Kommentar.

Es ist bereits jetzt so, dass ältere und "hochdekorierte" Websites nach hinten fallen, weil sie nun mal im Main Web Index stehen, der verdrängt wird. Ich würde schon fast von einer Behinderung durch PageRank und Backlinks sprechen, was natürlich jeden Web 2.0-SEO begeistert, denn Backlinks wird man ja so schnell nicht los und kommt daher auch nicht in den Supplemental Index.

Das Ganze funktioniert erst seit einigen Wochen richtig, eher seit Anfang August mehr als je zuvor und bedarf mit Sicherheit noch vieler Anpassungen seitens Google. Entweder wird Google Teile des Algorithmus revidieren (...) oder weiter ausbauen. Natürlich in Richtung Zukunft und Web 2.0 (Web 3.0).

Das Ziel von Google sollte meiner Meinung nach sein, den aktuellsten Suchindex zu erhalten, den je eine Suchmaschine hätte erreichen können.

Und wenn meine Meinung zutrifft, werden wir in den nächsten Wochen und Monaten das Internet in Bezug auf SEO neu verstehen lernen müssen.

Das große Geheimnis, wie auch z. B. Banken und alle anderen Websitebetreiber das Ranking in den Suchmaschinen beibehalten können, ist kein Geheimnis und lediglich mit ein wenig Logik verbunden. Da man mich nun mehrfach gebeten hat, mit der Theorie aufzuhören und endlich etwas davon in der Praxis zu zeigen, möchte ich dieses nun auch tun.

Was muss eine Website bieten, um im Web 2.0 nicht zu verlieren?

1. Aus jetziger Sicht: Backlinks loswerden. (Es wird aber definitiv noch eine Änderung des Google Algorithmus erfolgen. Man muss abwarten.)

2. Jede Website muss einen Blog betreiben, der ständig News mit Links auf die Domain und Unterseiten publiziert. Dabei sollte man größten Wert auf White Hat SEO legen (und größten Wert auf meine o. g. Post in Bezug auf die Auswahl des Blogs).

3. Diese News (Posts) müssen sich im Web 2.0 verbreiten. Hilfreich hierzu sind Social Bookmarking Buttons für die wichtigsten Dienste.

4. Der/Die Websitebetreiber selbst, und das ist ja nunmal bisher das größte Manko überhaupt, muss endlich lernen, ständig aktuell(st)e Informationen zu liefern. Das Dasein vieler Firmenwebsites, einmal neu erstellt zu werden und dann mehrere Jahre auf der faulen Haut zu liegen, ist endlich beendet. Oder es werden die Websites beendet sein, die sich nicht anpassen. (Alternative: Plakatwerbung an Haltestellen mit Hinweis auf die Domain ;-))

DIE PRAXIS
Ich nehme zwei von mir absichtlich provozierte Beispiele, die aufzeigen, dass meine beschriebene Theorie zutrifft. Man sollte diese Art der Provokation aber tunlichst unterlassen, da sie alle Wettbewerber zunächst aus der Top 10 der Google-Suchergebnisse verdrängen kann/verdrängt, solange Google die Geschichte Suplemental Index und Main Web Index nicht zu Ende geschrieben hat.

animiertes Regenradar
Suche in Google.de (Öffnet im neuen Fenster)

Derzeit belegt Wulffy's Hilfeblog direkt die Plätze 4 und 5 und indirekt die Plätze 1, 2, 8 und 10.

animiertes Regenradar Deutschland
Suche in Google.de (Öffnet im neuen Fenster)

Derzeit belegt Wulffy's Hilfeblog direkt die Plätze 1 und 2 und indirekt die Plätze 3, 4, 8 und 10.

Wo sind nur die Wetterseiten hin? Prüfen Sie den PageRank und die Backlinks der großen Wetterseiten!

Weitere Details folgen demnächst. Bitte beachten Sie, dass all dieses lediglich meine Meinung darstellt. Sie sind selbst verantwortlich für den Weg, den Sie beschreiten, und die daraus resultierenden Folgen.




Fortsetzung meiner letzten Post:
Der ausgeträumte Traum des Google PageRank


Mit Eintreten in das Web 2.0-Zeitalter hat der Google PageRank seinen (Stellen-)Wert nun weitestgehend verloren, wenn er nicht mittelfristig sogar völlig verschwindet.

Bereits im Sommer 2003 schaltete Google auf das tägliche Update der Google Data Center und die tägliche Punktevergabe für den PageRank um. Auch wenn das Update nur von einem Teil des Indexes täglich erfolgte. Dennoch gab es vor jedem sog. PageRank-"Update" (TBPR) ein großes Wetteifern, welches bald, wenn es auch die Letzten eingesehen haben, ein Ende haben wird.

Eine ganze Gemeinde, die glaubte, dass der Wert einer Website dadurch steigen würde, dass Google die PageRank-Anzeige in der Google Toolbar mit dem PR-Wert aktualisiert, der Tage und Wochen zuvor bereits kontinuierlich vergeben war. - Tage? Dazu später mehr.

Eine Gemeinde, die auch glaubte, den Wert einer Website oder eines Blogs im Jahre 2007 in erster Linie über den PageRank (und die Anzahl(!) der Backlinks) bemessen zu können.

Matt Cutts von Google schrieb bereits im Januar 2007 in seinem Blog:
"As always, don’t expect traffic or rankings to dramatically change, because these PageRank values are already incorporated into our scoring."

...

Erst März 2007 wurde der Blog der deutschen Google Webmaster-Zentrale ins Leben gerufen. Die Webmaster, die in den Wochen zuvor nicht die amerikanischen Geschehnisse verfolgt hatten, gingen leer aus und beschäftigen sich auch heute noch mit PageRank, Linkhandel und dem ausgeträumten Traum, dass der Google PageRank einen wesentlichen Einfluss auf die Positionierung in den Suchergebnissen von Google hat.

Viele bemerkten in den letzten Wochen den Einfluss von Blogs und Social Bookmarking Diensten, allen voran Mister Wong (für D), im Google Index. Nahezu genauso viele wollten es nicht wahrhaben, denn es konnte ja nicht sein.

Social Bookmarks bei Mister Wong führten innerhalb von wenigen Stunden bis einem Tag dazu, dass die gebookmarkten Websites mit den bei Mister Wong hinterlegten Keywords in den Suchergebnissen nach oben kletterten. "Das kann alles nicht sein, da gibts nofollow!", mußte ich mir von mehreren anhören. Gibt es dort nofollow wirklich? Prüfen Sie selbst! Würde es bei Mister Wong nofollow geben, müßten die Googlebots diesen von Google selbst ins Leben gerufenen Tag nicht beachten. Würde es kein nofollow geben,...

Doch neu eingerichtete Unterseiten auf Websites benötigten Tage, um im Google Index zu erscheinen. Eine neu eingereichte sitemap.xml als auch entsprechende Backlinks (von anderen Domains und IPs) für diese Unterseite verkürzten den Prozess nicht mehr.

Am 6. August 2007 um 1:10 Uhr stellte ich erneut eine neu eingerichtete Unterseite auf einer täglich vom Googlebot besuchten Website ein und reichte sofort die aktualisierte sitemap.xml bei den Google Webmaster-Tools ein. In weniger als einer Stunde erschien die neue Unterseite im Google Index, ohne jemals einen Backlink gehabt zu haben. Sicherlich ein Zufallstreffer?

Um sicher zu gehen, erfolgten zunächst weitere Tests, die - mit großem Erstaunen - alle zum nahezu gleichen Ergebnis führten.

Im Vorfeld, vor ca. zwei Monaten, setzte ich bereits einen befreundeten Webmaster über die Geschehnisse in Kenntnis. Er zweifelte zunächst massiv, setzte dann aber alle von mir genannten Strategien ein und traute immer mehr seinen Augen nicht. Für ihn wichtige Keywordkombinationen, die sich auf den Plätzen 300 - 500 befanden und die er einfach nicht optimiert bekam, schossen in die Top 10 der Google Suchergebnisse.

Ich war nie ein Freund von Theorie und las "Matt Cutts: Gadgets, Google, and SEO"-Blog und den Official Google Webmaster Central Blog stets nur oberflächlich. Dennoch war ich mir sicher, einiges von dem gelesen zu haben, was ich nun erfuhr. Nur halt nicht in einem direkten Zusammenhang, sondern so, dass man sich die Puzzleteile hätte selbst zusammensetzen müssen. Die Zeit der Wahrheit war nun gekommen.

Im Nachfolgenden werde ich nicht jedes Datum dokumentieren und jedes Backlinkupdate von Google, lediglich die wesentlichen Merkmale der Veränderung.

...

Vorgeschichte
Bis Januar 2007 gab es einen Supplemental Index mit Websites, die keinen oder geringen PageRank und keine oder wenige Backlinks aufwiesen, und einen Main Web Index mit Websites und Blogs mit hohem PageRank und einer großen Anzahl von Backlinks. Reguläre Ergebnisse aus dem Main Web Index wurden oberhalb der ergänzenden Ergebnisse aus dem Supplemental Index gestellt. Eine Website oder ein Blog mit geringem PageRank oder wenigen Backlinks zu betreiben, war aussichtslos. Und gerade dieser Bereich des Internets ist wesentlich interessanter für das Web 2.0 als alle anderen Bereiche.

Es geht sich um die Aktualität einer Suchmaschine. Was nützt es Suchergebnisse von erfolgreichen Websites oder Blogs auf den ersten Plätzen zu präsentieren, wenn diese Tage oder gar Wochen alt sind? Google hatte sich bereits Ende der 90er Jahre vor alle andere Suchmaschinen gesetzt, da Google damals die einzige mit aktuelleren Suchergebnissen war. Und die Zukunft des Webs (Gegenwart?) liegt darin, aktuelle Suchergebnisse anzuzeigen. Und alles, was jetzt im Internet veröffentlich wird, ist aktuell. Und alles, was gestern im Internet veröffentlicht wurde, ist nicht mehr so aktuell.

Alles begann mit dem Post von Matt Cutts am 10. Januar 2007.

"If you used to have pages in our main web index and now they’re in the supplemental results,..." war die erste Ankündigung einer wesentlichen Veränderung. Eine Verschiebung von Suchergebnissen in den Supplemental Index, der sich später als neues Instrument für das Web 2.0 herausstellen wird.

"... a good hypothesis is that we might not be counting links to your pages with the same weight as we have in the past." Es war nicht nur eine Aussage, sondern eher eine Warnung.

Die erste große Umstellung des Google Algorithmus sollte folgen. Aber Matt gab uns noch eine weitere wichtige Information:

“The approach I’d recommend in that case is to use solid white-hat SEO to get high-quality links (e.g. editorially given by other sites on the basis of merit).”

Am 25. Januar 2007 gab es dann ein unwichtiges TBPR und ein umso wichtigeres Google Algorithmus-Update, worauf Matt Cutts unmittelbar postete, um uns weitere wesentliche Neuerungen zu verkünden. In diesem Artikel ging es sich eigentlich um den Einfluss von Google Bomben (Linkbomben). Daher interessierte er mich nicht sonderlich, bis ich ihn nun erneut las:

"Now we will typically return commentary, discussions, and articles where people attempt to cause someone else's site to rank for an obscure or meaningless query."

Und nun der Umkehrschluss. Google musste sich dadurch umso mehr mit der inhaltlichen Auswertung von Kommentaren, Foren- und Groups-Diskussionen und (Blog)-Artikeln beschäftigen. Mehr als sich Google jemals mit Website-Content auseinandergesetzt hatte. Der Web 2.0-Content, der aufgrund von zumeist fehlendem PageRank und fehlenden Backlinks fast ausschließlich im Supplemental Index landete, nahm an Gewicht und dadurch Gewichtung im Google Web Index zu.

Immer mehr und mehr fehlte es an Berechtigung, hoch bewertete Websites und Blogs auf die vorderen Plätze in den Suchergebnissen zu stellen. Denn Google wurde schneller und erweiterte sich zudem um neue Server-Standorte.

Zunächst wurden Blogs in nahezu Echtzeit in die Suchergebnisse aufgenommen. Aber nicht für alle Blogs existiert ein Priorisierungsalgorithmus, d. h. bestimmte Blogs werden bevorzugt.

Vor nicht allzulanger Zeit, am 27. April 2007, erfolgte das zweite PageRank-"Update" der Google Toolbar (TBPR) in 2007.

Am 1. Mai 2007 meldete sich Matt Cutts zurück:
"It can also be the case that links that used to carry more weight for a website might not be counting as much."
Ich sage nur: "used to carry".

"As Google changes algorithms over time, excessive reciprocal links will probably carry less weight."

Am 31. Juli 2007 schrieb schließlich Matt Cutts mit Prashanth Koppula im Official Google Webmaster Central Blog einen Artikel über den Supplemental Index, der am 1. August auch in deutscher Sprache über den Google Webmaster-Zentrale Blog veröffentlicht wurde:

"Seit 2006 haben wir unser System, welches die Supplemental Results crawlt und indexiert, vollständig überholt."

"Ebenso arbeiten wir darauf hin zunehmend mehr Supplemental Results anzuzeigen, indem wir sicherstellen, dass jede Anfrage im Supplemental Index durchgeführt werden kann. Wir haben vor, diese Neuerungen im Laufe des Sommers zu implementieren."

"Der Unterschied zwischen dem Hauptindex und dem Supplemental Index wird daher zunehmend geringer. In Anbetracht der bisherigen Fortschritte und im Hinblick auf zukünftige Verbesserungen haben wir uns entschieden, diese URLs zukünftig nicht mehr als "Supplemental Results" zu kennzeichnen."

...

Bereits im Januar 2007 war absehbar, dass die Entwicklungen bei Google so fortschreiten müssten, um aktuellste Suchergebnisse präsentieren zu können. Der Supplemental Index wird aus meiner Sicht den Main Web Index vollständig ablösen, was in diesem Fall das vollständige Ende des Google PageRanks bedeuten könnte. Google Algorithmen wird es immer geben, aber eher nicht mehr verbunden mit dem patentierten PageRank-System.

Nun erscheinen auch Änderungen an Websites, nicht nur an Blogs, in nahezu Echtzeit im Google Index, so wie wir es schon von den Google News gewohnt waren:

"vor 14 min. gefunden"

Noch können die Unterseiten Ihrer Website, die sich im Supplemental Index befinden, abgefragt werden:

site:www.domain.tld&

...

Während andere Suchmaschinen sich noch mit "Web 1.0"-Techniken beschäftigen, hat Google in seinem Siegeszug die Umstellung auf Web 2.0 nicht nur geschafft, sondern arbeitet mit dem kontinuierlichen Ausbau der Serverstandorte in nahezu "Lichtgeschwindigkeit" am kommenden Web 3.0, in dem "verzögerungsfreie" Real-Time-Suchergebnisse in Google erscheinen werden. Zumindest darf aus heutiger Sicht die Vorstellung erlaubt sein.

Ein paar Web 2.0 SEO-Tipps werde ich in der nächsten Zeit mit Sicherheit hier veröffentlichen, aber Sie können natürlich auch schon einmal zwischen den Zeilen bei Matt Cutts lesen: Whitehat SEO tips for bloggers, aber das haben Sie ja sicherlich schon längst getan!(?)




Mit Eintreten in das Web 2.0-Zeitalter hat der Google PageRank seinen Wert weitestgehend verloren. Erst im März 2007 wurde der Blog der deutschen Google Webmaster-Zentrale ins Leben gerufen. Die Webmaster, die in den Wochen zuvor die amerikanischen Geschehnisse nicht verfolgt hatten, gingen leer aus und beschäftigen sich auch heute noch mit PageRank, Linkhandel und dem ausgeträumten Traum, dass der Google PageRank einen wesentlichen Einfluss auf die Positionierung in den Suchergebnissen von Google hat.

Aus einem Nebenprodukt von Google wurde ein Hauptprodukt und so kam es und ist es so, dass Websites und vor allen Dingen Blogs und Social Bookmarking-Dienste selbst ohne jeglichen PageRank und ohne Backlinks auf den ersten Plätzen in den Suchergebnissen landeten und die alten "PageRank-Hasen" verdrängten.

Die Zeiten haben sich geändert.

Mehr dazu in ausführlichem Umfang in meinem Post:
Der ausgeträumte Traum des Google PageRank (Main)




Welche Art der Verschlüsselung von e-mail-Adressen bietet wirklich Schutz vor Spammern?

Die e-mail-Adresse auf einer Website zu verschlüsseln und somit vor Spammern zu schützen, stellt eine Notwendigkeit für jede Website dar. Schaut man sich aber den Quellcode vieler Websites und vor allen Dingen Firmenwebsites an, kann man nur den Kopf schütteln. Zumeist sind e-mail-Adressen unverschlüsselt aufgeführt:

<a href="mailto:anton.meier@firmenadresse2222.de">mailto:anton.meier@firmenadresse2222.de</a>

Dabei stellt eine Verschlüsselung von e-mail-Adressen die einzige Möglichkeit dar, die eine e-mail von Anfang an vor SPAM schützt.

Anstelle dessen kaufen Firmen teure Anti-SPAM-Software, um den Mitarbeiter vor SPAM zu schützen, anstatt im Vorfeld eine vernünftige Internetagentur mit der Erstellung der Firmenwebsite zu beauftragen.

Ich kenne einen international tätigen Konzern, der auch an mehreren Standorten in China sitzt. Chinesische Lieferanten können den Mitarbeitern keine e-mail senden, da alle e-mail-Adressen mit chinesischer Endung (.cn) pauschal als SPAM gelöscht werden. Der Mitarbeiter erhält weder die e-mail-Nachricht des Lieferanten noch - logischerweise - eine Benachrichtigung, dass ihn eine e-mail-Nachricht nicht erreichen konnte...

Hinzu kommen aberwitzige Tipps auf der Masse der Internetseiten, die zwar wirkungsvoll aussehen, aber längst nicht mehr vor den SPAMbots schützen. Ob es die häufig empfohlene Unicode-Kodierung der Zeichen der Mailadresse ist, eine Umwandlung in Grafik oder der verzweifelte Versuch eines unwissenden Webmasters, seine e-mail mit

email (at) adresse.de

zu schützen.

Häufig wird die e-mail-Adresse auch einfach beschädigt:

email (at) DASHIERENTFERNENadresse.de.

Nervig für den Besucher Ihrer Website, der Ihnen eine e-mail senden möchte. Ich denke, fast alle werden keine senden. Genauso wenig eine (at)-e-mail-Adresse abtippen.

Spammer setzen häufig sogenannte Harvester ein. Harvester sind SPAMbots, die das Web crawlen (alle Websites durchwühlen) und Millionen e-mail-Adressen sammeln, die darauf über Datenbanken für "Mailingaktionen" der Spammer verwendet, aber auch verkauft werden.

Sobald Sie eine e-mail öffnen oder auch nur im Vorschaufenster betrachten, werden sichtbare oder unsichtbare Grafiken von Servern des Spammers nachgeladen. Ein Beweis dafür, dass Ihre e-mail-Adresse existiert und verwendet wird. Jetzt ist sie wertvoll und kann gewinnbringend weiterverkauft werden! Je weiter sie sich verteilt, desto mehr SPAM erhalten Sie.

Es gibt Community-Lösungen wie SPAMfighter.com, die e-mails auf dem PC des Users bei Empfang prüfen. Jeder User hat die Möglichkeit, eine e-mail-Nachricht über einen Button als SPAM zu markieren und zu übermitteln. Je mehr User eine e-mail-Nachricht als SPAM markieren, desto eher wird diese bei allen anderen automatisch entfernt. Eine sehr zeitaufwendige Lösung, da man jede SPAM dennoch sieht und prüfen muss, aber auch alle automatisch aussortieren SPAMs durchschauen und löschen muss.

Spassigerweise kam jemand vor einigen Jahren auf die Idee von Wegwerf-e-Mail-Adressen, die Sie nur verwenden, um sich auf Websiten anzumelden und freischalten zu lassen. Was für ein Aufwand.

Privatleute fallen in letzter Zeit ganz massiv auf Gewinnspiele im Internet herein und geben ihre Lieblings-email-Adresse an. Gewinnen wird man nichts - außer SPAM. Wer's mag.

Auch in Deutschland besteht ein legaler e-mail-Adressen-Handel. Oft akzeptieren Sie die Weitergabe Ihrer e-mail-Adresse an beteiligte Firmen o. ä. gemäss AGB.

Kommen wir auf den Punkt. Wie schütze ich eine e-mail-Adresse auf einer Website zeitgemäß und wirkungsvoll?

Was nur einen geringen Schutz gegen Spammer darstellt:

HASH-Zeichen
<a href="mailto:%65%6D%61%69%6C%40%65%6D%61%69%6C%2D%41%64%72%65%73%73%65%2E%64%65">Beispiel-e-mail</a>

Vertauschte Zeichen per Javascript
<SCRIPT language="javascript">eval(unescape('%76%61%72%20%73%3D%27%61%6D%6C%69%6F%74%65%3A%61%6D%6C%69%65%40%61%6D%6C%69%41%2D%72%64%73%65%65%73%64%2E%65%27%3B%76%61%72%20%72%3D%27%27%3B%66%6F%72%28%76%61%72%20%69%3D%30%3B%69%3C%73%2E%6C%65%6E%67%74%68%3B%69%2B%2B%2C%69%2B%2B%29%7B%72%3D%72%2B%73%2E%73%75%62%73%74%72%69%6E%67%28%69%2B%31%2C%69%2B%32%29%2B%73%2E%73%75%62%73%74%72%69%6E%67%28%69%2C%69%2B%31%29%7D%64%6F%63%75%6D%65%6E%74%2E%77%72%69%74%65%28%27%3C%61%20%68%72%65%66%3D%22%27%2B%72%2B%27%22%3E%42%65%69%73%70%69%65%6C%2D%65%2D%6D%61%69%6C%3C%2F%61%3E%27%29%3B'))</SCRIPT>

Beide können Sie z. B. über dieses e-mail-Verschlüsselungs-Tool erzeugen: eMail-Spamschutz

Am Ende gibt es, wie oft, das Beste. Die wirkungsvollste e-mail-Verschlüsselung, die ich je gesehen habe. Endlich Ruhe vor Spammern!

BEIDE nachfolgenden Methoden funktionieren NICHT im Google Blogger, da er, selbst in einem HTML/JavaScript-Seitenelement, nicht vollständig javascriptfähig ist.

Ein "Verdunkler" von e-mail-Adressen, der Email Obfuscator.

Neben dem Eintrag Ihrer e-mail-Adresse und dem Anchor Text (Linktext, z. B. Ihr Name), bietet dieses Tool noch zwei weitere Features: Geben Sie einen Link zu einer Seite auf Ihrer Website mit einem Kontaktformular an, um Besuchern, die Javascript ausgeschaltet haben, eine Kontaktmöglichkeit zu bieten. Und: verarschen Sie die Spammer! Man will ja schließlich eine wertvolle e-mail-Adresse liefern und den Spammer ködern!

Wie verarsche ich einen Spammer?
Legen Sie neben der e-mail-Adresse, die Sie verwenden, eine weitere e-mail-Adresse an, die nur für Spammer ist! Diese tragen Sie als Decoy email ein.

Vom Email Obfuscator erzeugter Code sieht dann so aus:
<span id="phlinkob361126"></span>
<script type="text/javascript" language="Javascript">
var erp = new Array;
erp[0] = 2004184166;
erp[1] = 1719222377;
erp[2] = 1768500589;
erp[3] = 1634298926;
erp[4] = 1684356670;
erp[5] = 1044134972;
erp[6] = 1467313254;
erp[7] = 1719214144;
erp[8] = 542602604;
erp[9] = 1717991772;
erp[10] = 1549543283;
erp[11] = 541616492;
erp[12] = 1717920364;
erp[13] = 28519;
var em = '';
var tmp;
for(i=0;i<erp.length;i++){
tmp = erp[i];
if(Math.floor((tmp/Math.pow(256,3)))>0){
em += String.fromCharCode(Math.floor((tmp/Math.pow(256,3))));
};
tmp = tmp - (Math.floor((tmp/Math.pow(256,3))) * Math.pow(256,3));
if(Math.floor((tmp/Math.pow(256,2)))>0){
em += String.fromCharCode(Math.floor((tmp/Math.pow(256,2))));
};

tmp = tmp - (Math.floor((tmp/Math.pow(256,2))) * Math.pow(256,2));
if(Math.floor((tmp/Math.pow(256,1)))>0){
em += String.fromCharCode(Math.floor((tmp/Math.pow(256,1))));
};
tmp = tmp - (Math.floor((tmp/Math.pow(256,1))) * Math.pow(256,1));
if(Math.floor((tmp/Math.pow(256,0)))>0){

em += String.fromCharCode(Math.floor((tmp/Math.pow(256,0))));
};
};
var tmp = new Array;
tmp = em.split('>>><<<');
em = tmp[0];
var an = tmp[1];
var nl = document.createElement('a');
nl.setAttribute('id', 'linkob361126');
nl.setAttribute('href', 'mailto:' + em);
document.getElementById('phlinkob361126').appendChild(nl);
document.getElementById('linkob361126').innerHTML = an;
</script>
<noscript>We're sorry, but Javascript must be enabled in order to access our email.</noscript>


Hier noch ein weiteres Online-Tool zur Verschleierung von e-mail-Adressen, welches diesen Code liefert:
<script type='text/javascript'>var a = new Array('l.de','essenmai','abcd@adr');document.write("<a href='mailto:"+a[2]+a[1]+a[0]+"'>"+a[2]+a[1]+a[0]+"</a>");</script>




Welche Eindrücke in den ersten 20 Stunden mit Windows Vista entstehen. Lohnt sich der Kauf für einen Privatanwender? Ist ein Umstieg von Windows XP auf Windows Vista empfehlenswert? - Ein kurzer Bericht, mit einer Portion Humor geschrieben.

Nach 20 Stunden ersten Einblicks in ein vorinstalliertes Windows Vista liegt es mir fern, einen ausführlicheren Test von Windows Vista durchzuführen. Ich möchte auch nicht aus Sicht eines Netzwerkadministrators berichten, sondern aus Sicht eines normalsterblichen Users.

Windows XP ist zwischenzeitlich weitestgehend ausgereift und bietet eine wirklich stabile Oberfläche für den Betrieb eines PCs. Den Nachfolger Windows Vista betrachte ich derzeit als Spielobjekt für Netzwerkadministratoren. User sollten jedoch die Finger von Windows Vista lassen, da es keinen höheren Nutzen für den Privatanwender bietet, insofern er sich nicht umfassend mit Betriebssystemen wie Windows XP und Linux, Firewalls und Netzwerk auskennt.

Windows Vista erschien mir, würde ich ein Gamer sein, als eine Art Grafik-Mod, installiert auf der "Windows XP-Engine". Hinter nahezu allen optischen Kulissen erscheint dem Anwender dann doch wieder die Windows XP-Optik, die für den Anwender kaum Verbesserungen bringt.

Direkt zu Beginn bietet eine amüsante Benachrichtigung Ablenkung und Verblüffung. "Ein Stecker wurde eingesteckt." erschien als Meldung. Dieses verleitete dazu, den Stecker wieder zu entfernen: "Ein Stecker wurde herausgezogen." - Nun ja, sehr kommunikatives Betriebssystem. - Leider kam Windows Vista aber irgendwann nicht mehr mit, nachdem ich die Geschwindigkeit des Stecker-Einsteckens und Stecker-Entfernens erhöhte. Kurz danach kam die Ernsthaftigkeit wieder ins Leben zurück...

Ich suchte den Arbeitsplatz und fand den Computer. Der stand vor mir, aber der Arbeitsplatz heißt nun auch Computer. Woran das liegt, wurde mir erst später klar. Microsoft hat sich mit Linux auseinandergesetzt und eine von Linux bekannte Funktionalität in Windows Vista integriert: Windows Vista ist im Hintergrund englisch und standardisiert. Und damit der User nicht alles mitbekommt, setzt man nun Links (nicht Verknüpfungen!) auf die Ordner. Bei uns halt deutsche Links. Bei häufig verwendeten Verzeichnissen, wie Program Files (bei uns: Programme), erfolgt nun die Installation immer im richtigen Verzeichnis, egal ob es zusätzlich auch einen deutschen oder anderssprachigen Namen hat. Jedes Verzeichnis kann somit mehrere Bezeichnungen haben bzw. erhalten.

Windows Vista startet nicht schneller als Windows XP. Der Eindruck wird zunächst vielleicht vermittelt, es liegt aber einfach daran, dass jedes frisch installierte Betriebssystem mit kleiner Registry schneller startet. Nach Installation der gewohnten Umgebung mit zahlreichen Tools und Programmen, hat man wieder die von Windows XP gewohnte Wartezeit beim Booten des Betriebssystems erreicht.

Unbedingt sollte man den Windows Media Player als Erstes starten und konfigurieren, da er sich das Recht herausnimmt, alles an Video und Ton wiedergeben zu wollen und für sich zu blockieren, was je an Formaten herausgekommen ist. Darauf kann man dann getrost den Apple QuickTime Player, VLC media player und Winamp installieren.

Bei jeder Installation blockiert Windows Vista direkt am Anfang. Jede Ausführung muss zugelassen werden, was sich als extrem nervig herausstellt, wenn man dutzende Programme installiert. Natürlich kann man diese Funktion abschalten, verliert dieses Sicherheitsmerkmal aber damit.

Der Windows Vista Firewall blockiert jedes Programm, selbst wenn das Programm überhaupt nicht nach draußen kommunizieren will/kann... Es erscheint jeweils eine Abfrage, ob das Programm blockiert werden soll oder ob es sich über das Internet verbinden darf.

Startet man das ein oder andere Programm oder Spiel, erscheint oft die nervige Meldung: "Das Farbschema wurde geändert." - Schön, wissen wir, weil ja nunmal die Einstellungen des Programms ausgeführt werden. Wir wollen es aber nicht auch noch jedesmal angezeigt bekommen.

Sendet man Fotos oder Dateien an den DVD-Brenner, brennt dieser nach kurzer Bestätigung sofort los. Ohne Abfrage, welche Geschwindigkeit verwendet werden soll. Bei max. Brenngeschwindigkeit können Schreibfehler auftreten, aber das scheint Windows Vista nicht zu interessieren. Und wenn man nur eine DVD einlegt, die 8-fach Brennen erlaubt und Windows Vista die max. Brenngeschwindigkeit des Brenners, in diesem Fall 16-fach, verwendet, frage ich mich, wie groß der Stapel der defekten DVDs werden wird.

Sicherlich ist die Konfiguration der Brenngeschwindigkeit möglich, dennoch ist eine einmalige Abfrage einer generellen Einstellung - oder auf Wunsch vor jedem Brennvorgang - notwendig. Und diese fehlt.

Interessant wird es erst, wenn man ein anderes Brennprogramm installiert hat und brennen möchte. Es erscheint eine Megaliste: Möchten Sie mit diesem, jenen oder welchem Programm brennen? Der User denkt nur, dass er eigentlich gar keine Lust mehr hat, überhaupt etwas zu brennen.

Kommen wir zum letzten Punkt dieser ersten kurzen Erfahrung. Eine der wohl größten Katastrophen von Windows Vista: das Startmenü. Das Startmenü befindet sich zwar an gewohnter Stelle, besteht aber nur noch aus einem Rechteck, welches sich von der Größe her offenbar nicht verändert und auch nicht verändern lässt. Alle Programmnamen, die länger als die verfügbare Breite sind, können nicht vollständig gelesen werden. Scrollbalken wären hier eine Notlösung gewesen, nur wer möchte ein Startmenü mit Scrollbalken?

Im oberen Bereich des Windows Vista-Startmenüs bleiben die Microsoft-eigenen Programme stehen. Alles andere erscheint darunter. Die gewohnte Sortierfunktion Nach Namen sortieren konnte ich nicht auffinden. Offenbar wurde diese Sortierfunktion vergessen in das Context-Menü der rechten Maustaste im Startmenü einzublenden. Diese kann mit rechter Maustaste auf START und Eigenschaften wieder integriert werden.

Wie gesagt, es war ein erster Eindruck. Es mag sein, dass alles anders sein kann, aber eben nicht ohne großen Zeitaufwand zu investieren.

Fazit:
Der normale Anwender ist mit Windows Vista völlig überfordert und genervt. Und ein paar bunte Bildchen und Animationen über die für den Normaluser bekannte Windows XP-Funktionalität zu legen, reicht nicht und rechtfertig weder eine Neuanschaffung noch den hohen Preis.

Wenn Sie nicht wieder tage- und wochenlang über verschwundene Features rätseln und sich wundern wollen, wenn Sie nicht Tage Ihres Lebens in Diskussionsforen über Windows Vista verbringen wollen, dann gebe ich Ihnen eine Empfehlung: bleiben Sie bei Windows XP.

Windows Vista wird vielleicht, nach ein bis zwei ServicePacks, in 2008 oder 2009 verwendbar - aber veraltet - sein. Man wird eher im Jahre 2010 auf den dann erscheinenden Nachfolger von Windows Vista: Windows 7 (Arbeitstitel) umsteigen, und Windows Vista als einen Flopp, wie schon damals die Windows Millennium Edition (Windows ME), begraben.

Jetzt arbeiten wir lieber weiter mit Windows XP und freuen uns über ein stabiles und bedienbares Betriebssystem.




Animiertes Regenradar


Worauf kann man bei diesem Wetter anderes kommen als auf Wetter und Regenradar?! Wettervorhersage ist derzeit auch ein Thema, aber beschäftigen wir uns zunächst mit... Regen und Anbietern für ein:

Animiertes Regenradar Deutschland


Meine Lieblings-Website mit animiertem Regenradar für Deutschland ist

WetterOnline.de

 , auch weil direkt bei Aufruf der Website das animierte Regenradar erscheint. Alternativ bookmarken Sie einfach den Direktlink zum Regenradar.

Links im Menü rufen Sie entweder Animationen mit Loop 90 Minuten oder Loop 3 Stunden auf oder darunter die Regenradar-Bilder der letzten drei Tage. Mittig über Bildvergrößerung vergrößern Sie die Regenanimation. Bei Klick auf die Bundesländer im Menü links oder auf das jeweilige Bundesland auf der Deutschlandkarte erhalten Sie eine vergrößerte Darstellung des Regenradars für das Bundesland.

Schließlich können Sie oben links mit Europa ein Regenradar für Europa aufrufen. Leider aber nicht vollständig, sondern für Niederlande und Teile von Belgien, Frankreich, Österreich, Schweiz und Tschechische Republik.

Vorteilhaft ist die Darstellung über animierte Gif-Bilder, die man mit Rechter Maustaste und Bild senden sofort an einen Kollegen oder Bekannten mailen kann, um ihm ein aktuelles Bild der Wetterlage zu vermitteln.

Seit einiger Zeit bietet wetter.com ebenso ein animiertes Niederschlags-Radar für Deutschland unter diesem Direktlink Niederschlags-Radar an. Auch hier gibt es ein Regenradar-Archiv für die letzten drei Tage. Mit SAT-Film startet man das animierte Regenradar. Unter Anpassen besteht zusätzlich eine äußerst interessante Möglichkeit, sich die komplette Regenanimation der letzten drei Tage anzuschauen. Mit Einzelbildern im 15-, 30- oder 60 min.-Takt. Sehr gut! Mit Vergrößern erhalten Sie eine bildschirmfüllende Regenanimation. Sehr nachteilig ist die Darstellung über Sun Java Applets, die einen längeren Start der Regenanimation benötigen und häufig, insbesondere bei erneuten Aufrufen einer Website, zum Totalabsturz des Internet Explorers führen. Zusätzlich muss sich der User darum kümmern, stets die aktuelle Sun Java-Version (Java Runtime Environment) installiert bzw. geupdated zu haben.

Interessant ist das Angebot von Meteox.de. Ein animiertes Regenradar für nahezu ganz Europa auf einen Blick! Mit Loops über 3, 6, 12 und 24 Stunden! Unter Mein Radarbild können Sie sich mit Hilfe von Google Maps bis zu drei Orte auswählen, die darauf links im Menü erscheinen. Mit diesen erhalten Sie auf Klick einen Regenradar für den jeweiligen Ort. Negativ ist hierbei die geringe Auflösung des Regenradars und dass der Browser ziemlich in die Knie gehen kann. Den Menüpunkt Zoomen sollten Sie nicht anklicken, da er eine 3 MB große, bildschirmfüllende Regenanimation nachlädt, die nur mit besseren Grafikkarten lauffähig ist. Ein historisches Regenradar vom 7. August 2006 bis heute ist abrufbar.

Hoffen wir auf besseres Wetter...




Gestern gab Google bekannt, dass der PageRank abgekündigt ist. Das Ende vieler SEO-Fans oder gar das Ende des gesamten Internets?

Der Google PageRank-Algorithmus, der von Lawrence "Larry" Page an der Stanford University entwickelt und 1998 veröffentlicht wurde, wird ab dem 1. September 2007 nicht mehr angewendet werden.

Kontinuierlich ansteigende Manipulationen waren der ausschlaggebende Grund für diese Entscheidung, da immer weniger von Google entdeckt werden konnten. Manipulationen, die nachhaltig zu verfälschten Suchergebnissen führten.

Im kommenden Google Toolbar-Update wird die PageRank-Anzeige entfernt sein.

Blog: Google PageRank wurde abgekündigt
Vielen Dank an ONLINEWAHN.de für dieses tolle Tool, welches erst richtig interessant mit eigenen Grafiken bzw. Fotos wird! Robert Sontheimer, Inhaber von ONLINEWAHN.de, hatte damit eine wirklich klasse Idee! - Ein bisschen Spaß muss sein... ;-) - Vielen Dank ebenfalls an SMS kostenlos mit 5-SMS.de für den Tipp!





Fast alle von uns kennen diese Situation. Wir haben vor sieben Jahren ein e-mail-Konto angelegt und uns bisher über Outlook, Outlook Express, IncrediMail oder einem anderen Mailprogramm in den Mailaccount eingeloggt. Irgendwann steigt man auf einen neuen PC um und merkt bei den Vorbereitungen, dass man absolut nirgends seine Zugangsdaten zum e-mail-Konto finden kann.

Die Sicherheitsabfrage: "Wie lautet der Kosename des Lieblingstieres Ihrer Schwiegermutter?" können Sie auch nicht beantworten, da Sie seit fünf Jahren geschieden sind und sich eigentlich nicht mal mehr an den Vornamen Ihrer Ex-Frau erinnern, geschweige denn an irgendwelche Tiere in der Ex-Familie.

Bei mehreren e-mail-Adressen kann es zudem noch lästig und zeitaufwendig werden.

Sprechen wir heute nicht über das Thema Sicherheit, sondern über eine Lösung zur Wiederherstellung des/der Passwörter bzw. Zugangsdaten zu unseren e-Mail-Accounts.

Es gibt viele kostenpflichtige Tools, sog. Password Recovery Tools. Die meisten sind bei bis zu dreistelligen Passwörtern kostenlos. Aber es gibt keine e-mail-Adresse mit dreistelligem Passwort... Viele benötigen eine halbe Stunde oder sogar Stunden für das Auslesen eines einzigen Passworts. Keine Alternative.

Was machen wir jetzt? Wir lesen die Passwörter und Zugangsdaten einfach aus. In einem Schritt. Ohne besondere Kenntnisse!

Sie glauben mir jetzt wahrscheinlich nicht, da Ihr PC ja sicher ist. Nun gut.

Wenn Sie eines der nachfolgenden e-mail-Programme verwenden, sieht es sehr gut aus!

- Outlook Express
- Microsoft Outlook 2000 (POP3, SMTP, IMAP)
- Microsoft Outlook 2002/2003/2007 (POP3, IMAP, HTTP, SMTP)
- Windows Mail
- IncrediMail
- Eudora
- Netscape 6.x/7.x
- Mozilla Thunderbird
- Group Mail Free
- Yahoo! Mail
- Hotmail/MSN
- Gmail (Google Mail)

Sie werden gleich zu jedem Ihrer e-mail-Konten den Namen des e-mail-Kontos, des e-Mail-Programms, in dem die Zugangsdaten gespeichert sind, Ihre e-mail, den POP3/SMTP/IMAP-Server, den Server-Typ, Ihren Benutzernamen und das Passwort angezeigt bekommen.

Es handelt sich um ein Trojaner/Viren/Spyware-freies Tool des genialen Programmierers Nir Sofer, welches ich seit einigen Jahren selbst verwende. Dennoch muss ich darauf hinweisen, dass Sie selbst das Risiko tragen, auch wenn ich definitiv keines sehe.

Download Mail PassView

Download Deutsche Übersetzung (mailpv_lng.ini)

Entpacken Sie die mailpv.zip in ein Verzeichnis. Entpacken Sie darin die mailpv_lng.ini, damit das Tool in deutscher Sprache angezeigt wird.

Starten Sie die mailpv.exe und seien Sie überrascht!




Seit Februar 2007 arbeite ich nun beruflich mit der Office 2007 tagein tagaus. Neben dem üblichen Schriftverkehr habe ich zahlreiche Word-Vorlagen erstellt und mich versucht, in der völlig neuen Menüführung zurecht zu finden, was mir (als Word-Profi seit 1996) nicht gelingt. Fast alles ist völlig anders und abends bin ich froh, mit meiner Lieblings-Office 2000 wieder arbeiten zu können.

Dabei muss ich sagen, dass ich auch von Word 2002 und Word XP (2003) absolut nicht überzeugt bin.

Kommen wir zurück zur Office 2007 und in diesem Fall Word 2007. Eigentlich eine Test- oder Beta-Version und kein verkaufsfähiges Produkt, aber das kennen wir ja von Microsoft...

(M)Ein Tag mit Word 2007

Shutdown (Herunterfahren) ist ja ein Begriff. Ich wünsche mir einen Shutup!*-Modus für Word 2007.
*Klappe halten



Nach automatischem Neustart von Word 2007 will man das „wiederhergestellte“ Dokument schließen:



Oder öffnen:



Nein, diese Information war nicht hilfreich!!!

Kurz bevor man auf den Monitor einschlägt, erscheint dann auch noch:



Bei Aufruf der Hilfe zu „Welche Datei soll gespeichert werden?“ folgt:



*OHNE WORTE*

Hier werden ja Lösungen angeboten. Lösung: "Wollen Sie Office 2007 wirklich vollständig entfernen?" JAAAAAA!!!




Hin und wieder passiert es, dass man Dateien löscht, die man eigentlich noch benötigt hätte. Idealerweise dann auch noch eine für den Papierkorb zu große Datenmenge, so dass ein Wiederherstellen der gelöschten Dateien über den Papierkorb nicht mehr möglich ist.

Es gibt viele Softwarelösungen zur Wiederherstellung gelöschter Dateien. Die meisten sind nicht bedienbar. Eine Software funktioniert und ist auch von Normalsterblichen sehr einfach zu bedienen. Es handelt sich um TuneUp Utilities ().

TuneUp Utilities 2007 bietet viel mehr als nur das Wiederherstellen von gelöschten Dateien. Interessant ist die Bedienbarkeit, die keine Fortgeschrittenenkenntnisse voraussetzt. Dazu später mehr.

Ihnen sollte im Vorfeld bewusst werden, dass derartige Dateiwiederherstellungen viel Zeit in Anspruch nehmen. Je länger Sie einen PC besitzen, desto mehr Dateien wurden gespeichert, aber auch gelöscht. Hunderttausende oder gar Millionen von Dateien sind es. Viele davon durch Windows temporär erzeugt, viele aber auch von nahezu allen Programmen, die Sie verwenden, geschrieben, überschrieben und gelöscht.

Die Wiederherstellung von Dateien kann bis zum letzten Ende nicht zwingend erfolgreich sein, d. h. selbst wenn Sie Dateien in guten Zustand wiederherstellen, ist es dennoch möglich, dass sie nicht mehr funktionieren.

Starten Sie TuneUp Utilities 2007.

Klicken Sie im Menü links Daten retten & Vernichten.

Klicken Sie TuneUp Undelete.

Wählen Sie das Laufwerk aus, auf dem Sie Dateien gelöscht haben und die anderen Laufwerke ab.

Sie müssen nun einen Suchbegriff eingeben (Dateiname oder Teil des Dateinamens oder Dateiendung einer gelöschten Datei), da die Liste sonst zu lang wird und nicht ausgewertet werden kann.

Haben Sie z. B. Videodateien gelöscht, geben Sie als Suchbegriff ein: *.mpg; *.mpeg; *.m2v; *.avi; *.vob; *.wmv; *.divx; *.mov;

Sie sehen, Sie können viele Suchbegriffe kombinieren und mit Platzhaltern arbeiten. * für beliebig viele Zeichen und ? für ein Zeichen.

Belassen Sie die Einstellung
0-Byte große Dateien nicht anzeigen.

Wählen Sie
Nur Dateien in gutem Zustand anzeigen und Weiter.

Die Suche nach gelöschten Dateien läuft...

Nicht alle Dateien können zwingend gefunden und wiederhergestellt werden. Geben Sie aber nicht auf!

Warten Sie, bis die Suche beendet ist!

Haben Sie eine Datei gefunden, klicken Sie den Dateinamen an und unten rechts den Button Wiederherstellen....

Da der ursprüngliche Ordner oft unbekannt ist, wählen Sie An einem anderen Ort wiederherstellen und Ok..

Wählen Sie ein Zielverzeichnis. Erstellen Sie darin einen neuen Ordner und Ok..

Sie haben die Datei wiederhergestellt.

Wiederholen Sie o. g. Schritte solange, bis Sie fertig sind und klicken dann auf Abbrechen.

Sicherlich werden Sie sich in Zukunft sehr genau überlegen, ob Sie Dateien oder Verzeichnisse löschen oder auch nicht.

Noch ein Tipp dazu:
Rechte Maustaste auf dem Papierkorb auf Ihrem Desktop
Eigenschaften
Schieben Sie den Regler Maximale Größe des Papierkorbs von 10% auf 90%.
Ok.
Nach dieser Einstellung können Sie in Zukunft auch große Dateimengen über den Papierkorb wiederherstellen.




Die Server von Google laufen wieder heiß! Das nächste Google PageRank-Update soll in diesen Tagen beginnen!

Auch wenn der Google PageRank ständig aktualisiert wird und eigentlich mit dem "PageRank-Update" das Update der Google Toolbar gemeint ist, wartet die ganze SEO-Fan-Gemeinde sehnsüchtig darauf! Endlich eine höhere Bewertung für seine Website sichtbar erhalten! Leider gehen viele leer aus, andere verlieren sogar ihren PageRank vollständig.

Melanie Weiß und Dominik Laube aus Berlin bieten als phpLD Network einen wirklich wichtigen, aber kostenfreien Dienst für die SEO-Welt an. Sobald das PageRank-Update startet, erhält man eine e-mail. Kostenlose Anmeldung zur PagRank-Update Infomail.

Google Dance hat begonnen! Eigentlich wie jeden Monat. Aber dieses Mal erfolgt das Google Toolbar-Update! - Die einzelnen sog. Google Data Center liefern unterschiedliche Suchergebnisse und PageRank. Lt. New York Times existieren aktuell mehr als 450.000 Linux-Server in mehr als 25 Google-Rechenzentren weltweit. Anfang 2001 waren es noch 8000... Die Standorte der Google Data Center sollen weitestgehend geheim bleiben. Selbst über neue Google-Standorte darf nicht gesprochen werden und alle Beteiligten müssen Geheimhaltungserklärungen unterschreiben. Bekannt sind jedoch Google Data Center in Santa Clara, Kalifornien, Dublin, Irland uvm. 2008 wird in Saint-Ghislain, Belgien, ein neues Google Data Center entstehen und im Frühjahr 2009 in Council Bluffs, Iowa. Bewerbungen werden noch angenommen! ;-) (Bei 48.000 US-$ Durchschnittsgehalt pro Jahr lohnt sich ein Umzug!)

Google entscheidet sich offenbar in erster Linie für Standorte mit günstigem Strom und einem Überangebot an Glasfaserkabeln.

Eine dreistellige Anzahl von Google Data Centern kann man übrigens hier live abfragen: Raketforskning.com - Es wird der aktuelle PageRank angezeigt und man erkennt sofort, wenn Google Dance gestartet ist. Dann zeigen die einzelnen Google Data Center unterschiedlichen PageRank an.

Nicht wundern, falls einige PageRank 0 anzeigen. Der Google PageRank muss zunächst zurückgesetzt werden, um neu ermittelt werden zu können.

Eine weitere Abfragemöglichkeit der wesentlichen Google Data Center bietet iWebtool. Hier wird der PageRank bei 33 Centern live geprüft und kann als csv- oder txt-Datei exportiert werden. Prüfen wir dieses für
Google Data Center Abfrage für wulffy.blogspot.com

und mein Projekt: Google Data Center Abfrage für wulfmansworld.com

Viel Erfolg mit Ihrer Website und dem Google PageRank!


PageRank™ und Google™ sind geschützte Marken der Google Inc., Mountain View CA, USA, auch wenn diese aus Gründen des Layouts nicht als solche gekennzeichnet sind.