Google möchte Geschwindigkeit der Web-Seite beim Ranking berücksichtigen

7. Dezember 2009 at 08:57

Google will die Ladezeit der Webseite als Faktor beim Ranking in den Suchergebnissen berücksichtigen. Das macht durch aus Sinn, da schnellere Webseiten besser für Nutzer sind und die Benutzer sind von langsamen Seiten „generven“. Google hat ebenfalls seine Webmaster Tools erweitert, um eine neue, noch experimentelle Funktion „Website Leistung“. Dort werden statistische Daten zur Ladegeschwindigkeit der eigenen Webseiten aus Sicht der Nutzer angezeigt. Die Daten werden im Zeitverlauf dargestellt, versehen mit einer Einordnung, wie schnell die eigenen Seiten im Vergleich mit anderen von Google besuchten Seiten laden.

google-webmastertool-webseitenleistung

Konkrete Daten für andere Webseiten gibt Google nicht an, es wird lediglich erläutert wie viel Prozent der Webseiten schneller laden.

GD Star Rating
loading...
GD Star Rating
loading...

Google personalisiert Suche auch für nicht angemeldete Nutzer

5. Dezember 2009 at 18:53

Wie zu erwarten personalisiert Google ab sofort auch die Suchergebnisse von nicht angemeldeten Nutzern. Diese Funktion existiert schon seit geräumiger Zeit für angemeldete Benutzer. So ist es z.B. möglich Suchergebnisse manuell auf oder ab zu werten. So lernt die Suchmaschine auf welche Links die Nutzer besonders häufig klicken und positioniert diese Seiten künftig höher in den Suchergebnissen.

Wie Google am Freitag in seinem Blog bekannt gab, wird dafür auf die Search-History der letzten 180 Tage zurück gegriffen. Aufgezeichnet wird diese laut Google über einen „anonymen Cookie im Browser“, der sämtliche Suchanfragen und die danach vom User ausgewählten Ergebnisse beobachtet. Eine Verknüpfung dieser Daten mit denen im Google-Account findet laut Google nicht statt, die Daten würden komplett getrennt behandelt.

Der Benutzer erkennt die personalisierten Suchergebnisse an dem Web-Protokoll-Link „“View customizations“, der am oberen rechten Eck des Browser-Fensters erscheint. Ein Klick auf diesen Link informiert darüber, wie die Suchergebnisse zustande kommen und wie die Personalisierung beendet werden kann.

Datenschützer haben bereits ihre Bedenken gegen die Änderung angemeldet, so berichtete die „New York Times“ diesen Freitag.

GD Star Rating
loading...
GD Star Rating
loading...

Richtig verlinken nach dem Link-Pyramiden Konzept

23. November 2009 at 11:01

Konzept

Linkjuice (Vererbung von Pagerank, Trustrank, etc…) wird jeweils über ein Link von einer Seite zur nächsten weitergegeben. Eine Ranking-Penalty einer Suchmaschine endet dagegen in der Regel bei der nächsten Stufe.

Deshalb werden die Seiten mit der niedrigsten Qualität nur auf die nächst höhere Seite in dem aufzubauenden Netzwerk verlinkt. Die Links können auch seitlich oder nach oben zeigen, aber niemals nach unten (oben = hochwertige Seiten, unten = weniger wichtige).

Stufe 1: Das Fundament

Das Fundament der Pyramide bildet sich aus einem Netzwerk von Websites von kostenlosen Free-Hostern, Blog-Hosts, Freehostern oder Gästebüchern. Auf diesen Seiten werden keine Ads (Werbung in Suchmaschinen) geschaltet. Diese Seiten linken grundsätzlich nur auf andere qualitativ hochwertige Seiten im Internet und auf Seiten aus der 2. Stufe deiner Link-Pyramide. Die einzigen Links welche auf solche Seiten zeigen sollen sind freie „Spam-Links“ von Web-Katalogen, Gästebüchern oder automatisierte Linkeinträge bei Kommentaren.

Stufe 2: Die Absicherung

Hier werden eigene Domains bei billigen Shared-Hostern gehosted um mögliche Spuren zu verbergen. Diese Seiten werden zwar von den Basisseiten von Stufe 2 verlinkt, linken aber nicht mehr zu diesen zurück. Auch der dezente Einsatz von „Spam-Links“  (siehe Stufe 1) sind ggf. vertretbar. Vorzugsweise sind Einträge aus Webkatalogen und Pressediensten zu bevorzugen!

Stufe 3: Die Basis / Die goldene Krone

Die wirklich wichtigen Seiten, wie z.B. Authorities in Nischen, stehen in dieser Stufe und verlinken jeweils wieder auf die nächst höhere Stufe sowie ggf. untereinander. Gestärkt werden diese Seiten von der Verlinkung aus Level 2 Seiten, Linktausch, Linkbait und Linkkauf. Diese Seiten können monetarisieren, ihr primäres Ziel ist allerdings die Verbindung zur Spitze der Pyramide.

Stufe 4: Die Spitze der Pyramide

Diese Stufe ist die eigentlich zu optimierende Zielseite (Seite des Kunden, etc.). An dieser werden die Erfolge gemessen und meist wird nur diese dem Kunden präsentiert sowie in den SERPs (Search Engine Result Pages) gerankt. Diese Seite besteht aus guten redaktionellen Inhalten, die als Linkbait fungieren und sind in der Regel Seiten des daily Business (z.B. eCommerce-Seiten welche Umsatz generieren).

Optimal ist es, wenn möglich, Blogger zu bezahlen um diese Seite zu besprechen und entsprechend zu verlinken. Generell sollte nur Links höchster Qualität einkaufen. Diese Seite wird selbst verständlich durch Links von Seiten aus der vorherigen Stufe 3 aus deinem eigenen Netzwerk gestützt.

Zum Schluss noch mal der wichtige Hinweis: Niemals quer durch das Netzwerk verlinken!

Quelle: seoblackhat.com/2009/07/10/link-pyramids

Ihr habt weitere gute Tipps zum Thema Richtig verlinken / Link-Konzepte?

Teilt Sie mit uns und anderen Lesern dieses Artikels und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

SOUNDTRACK zur SEO CAMPIXX 2010

19. November 2009 at 17:27

Hier der Soundtrack zur SEO CAMPIXX 2010 in Berlin.

GD Star Rating
loading...
GD Star Rating
loading...

SEO-Konferenz am 26.02.2010 SEMSEO in Hannover

19. November 2009 at 17:14

Am 26.02.2010 findet in Hannover (übrigens Heimatstadt von Fly2Mars-Media) wieder die eintägige Branchen-Konferenz SEMSEO statt. Diese seit 2007 einmal jährlich statt findende Konferenz erwartet 2010 rund 350 Mitarbeiter und Führungskräften aus mittelständischen und großen Unternehmen aller Branchen. Großer Wert wird auf den Austausch zwischen den Besuchern (SEO- & SEM-Experten, Marketing- & Kommunikationsexperten sowie Fachentscheider) gelegt.

Im Anschluss findet abends die legendäre Pubkonferenz (PubCon) statt, laut den Veranstaltern das größte SEO-Networking-Event im deutschsprachigen Raum. Veranstaltungsort ist wiederholt die HBX-Brauerei am Aegi in Hannover. Für alle SEMSEO-Teilnehmer ist der Eintritt zu diesem Event kostenfrei.

Weitere Infos findet ihr unter semseo.abakus-internet-marketing.de

GD Star Rating
loading...
GD Star Rating
loading...

Was sind Reziproke Links? Was ist Crosslinking?

17. November 2009 at 13:45

Für die Positionierung in den Suchergebnissen (Ranking) spielt die Verlinkung der eigenen Webseite von externen Seiten eine wichtige Rolle. Eine gängige Methode zum Link-Aufbau war es Links zu tauschen, ganz nach dem Prinzip  „Verlinkst du mich, verlinke ich dich“. Solch eine gegenseitige Verknüpfung wird reziproke Verlinkung genannt.

Neben dem Link-Kauf wurde auch dieser „unnatürliche“ Link-Wachstum von den Suchmaschinenanbietern, z.B. Google, schnell durchschaut und durch die Abwertung der Webseiten abgestraft.

Um das Defizit auszugleichen wurden das Konzept der Verlinkung überarbeitet, Suchmaschinenoptimierer (SEOs) erweiterten die Linkpartnerschaften zu kompletten Kooperationen. Beruhte der ursrüngliche Linktausch noch auf dem Prinzip:A verlinkt nach B und B nach A.

So ist das Konzept beim crosslinking (Linkpartnerschaften) wie folgt: A verlinkt nach B, B nach C und C verlinkt wieder nach A. Die sich daraus ergebene Kooperation ist kein direkter Link-Tausch mehr und werden deshalb von Suchmaschinenbetreibern geduldet. Diese Art der reziproken Verlinkung wird nicht mehr durch die Suchmaschinen abgestraft, allerdings weniger gewichtet, da sie unnatürlich erscheinen.

Wichtig ist der gesunde Link-Wachstum zur Webseite, eine gesunde Mischung an Links sind das A & O, um dies zu beschleunigen sind ein paar reziproke Links von Vorteil, als Schlüsselfaktor sollten sie nicht gesehen werden!

GD Star Rating
loading...
GD Star Rating
loading...

kostenlose Backlink Checker Tools (Online)

16. November 2009 at 10:16

Die manuelle Recherche nach gesetzten Backlinks ist, vor allem bei gut verlinkten Seiten, zwar über Google zu recherchieren, wird allerdings schnell zu einem zeitlichen overhead. Nützlich sind da Backlink-Checker um Listen mit der Anzahl der Backlinks, IPs und ggf. Pagerank zu generieren. So erhalten Sie eine Aufstellung Ihrer Linkpopularität Ihrer Seite. Zusätzlich zeigen wir auch alle Links von Unterseiten mit an. Mit den folgenden kostenlosen Online Tools können Sie genau sehen, von welchen Adressen Ihre Mitbewerber verlinkt werden.

So erfahren Sie warum diese in der Suchmaschine besser oder hoffentlich schlechter gefunden werden als Sie. Je mehr Backlinks mit einem hohen PR, desto wichtiger ist Ihre Seite für Suchmaschinen wie z.B. Google. Dabei ist zu beachten dass es wichtig ist dass die Links von verschiedenen IP´s (Rechnern) stammen (mehre Domains auf einem Rechner mit der selben IP werden von Google als weniger wichtig eingestuft).

Folgende kostenlose Backlink-Checker möchten wir euch empfehlen:

bei Internetbaron.de

bei www.linkdiagnosis.com

bei backlinkwatch.com

Kennt ihr weitere gute kostenlose Back-Link-Checker (egal ob online oder als Desktop-Applikation)?

Teilt Sie uns und anderen Lesern diesen Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Caffeine – Die Google-Suche bekommt neues Update

10. November 2009 at 17:26

google-seo-vergleich-caffeine

Im August begann Google mit der Test-Phase des neuen Search Engine Update Caffeine. Den Namen erklärt Google wie folgt: „Genau, wie unser einer durch die allmorgentlich Dröhnung Kaffee erst richtig in die Puschen kommt, war mit Caffeine auch bei Google der Fokus auf Schnelligkeit und Agilität gelegt.“ Die Google-Sandbox, welche im Rahmen der Testphase veröffentlicht wurde, ist seit heute nicht mehr erreichbar bzw. es erscheint nur noch folgende Meldung:

We appreciate all the feedback from people who searched on our Caffeine sandbox.
Based on the success we’ve seen, we believe Caffeine is ready for a larger audience. Soon we will activate Caffeine more widely, beginning with one data center. This sandbox is no longer necessary and has been retired, but we appreciate the testing and positive input that webmasters and publishers have given.

Daraus schließt die Inernet-Gemeinde dass die Testphase erfolgreich abgeschlossen ist und das Rollout begonnen hat. Laut Google soll die neue Version weit aus schneller sein als die Vorgängerversion. Wann das Rollout abgeschlossen ist und das Update für alle Zugänglich ist, gab Google nicht bekannt.

Wir sind gespannt welche Auswirkungen der neue Search-Engine für die SEO-Welt mit sich bringt! 🙂

GD Star Rating
loading...
GD Star Rating
loading...

Kostenlose SEO Programme (Freeware)

6. November 2009 at 13:22

Bei der Suchmaschinenoptimierung (SEO) gibt es immer wieder kehrende Tätigkeiten welche es zu automatisieren gilt. Vor allem kostenlose Programme vereinfachen die Arbeit enorm. Hier finden Sie eine Übersicht an kostenlosen Freeware Tools, die Sie herunterladen und auf Ihrem Rechner installieren können.

Xenu

Ein sehr gutes Freeware Programm zur Analyse von Webportalen. Mit Analyse der Downloadgröße, eingehender und ausgehender Links jeder Seite, Gesamtanzahl der internen Links etc.

Download Xenu

Free Monitor for Google

Ein kostenlose Tool um für Ihre Webseiten die aktuelle Platzierung in der Suchmaschine Google anhand definierter Keywords heraus zu finden.

Download Free Monitor for Google

Online Tool von Seitenreport

Online bietet die Seite Seitenreport ein kostenlosen Online-Live-Check der Webseite, einfach URL eingeben und nach ein paar Sekunden erscheint die Auswertung!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Aufbau der Datei robots.txt – Seiten für die Robots konfigurieren

29. Oktober 2009 at 14:04

Oft ist es sinnvoll bestimmte Seiten oder gar Bereiche einer Web-Seite vor der Indizierung von Suchmaschinen zu schützen. Zum Beispiel wenn es sich um Administrative, oder Seiten an denen noch gearbeitet wird, handelt.
Ggf. wollen Sie auch bestimmte Bilder, Logfiles oder Programmdateien vor der Indizierung der Suchmaschinen schützen damit diese nicht in den Suchergebnissen angezeigt werden.

Um dem gerecht zu werden wurde der Robots Exclusion Standard eingeführt, an den sich seriöse Suchmaschinen wie Google, Bing oder Yahoo! orientieren.

Nach diesem Standard muss eine Textdatei mit dem Namen robots.txt erstellt und diese im Stammverzeichnis der Domain platziert werden, so dass die Robots sie finden und beachten können.

<pre>http://www.beispiel.de/robots.txt
http://download.beispiel.de/robots.txt
http://beispiel.de:8080/robots.txt
</pre>

Der Aufbau der robots.txt erfolgt nach dem folgendem Shema. Zuerst gibt man an für welchen Crwaler eine Anweisung gelten soll, gefolgt von den einzelnen Anweisungen:

# robots.txt fuer http://www.beispiel.de/
User-agent: BeispielRobot
Disallow: /temp/       # Die Dateien sind nur Temporär und nicht von Bedeutung
Disallow: /logfiles/   # Sollen nicht allg. Verfügbar sein
Disallow: /bilder/     # Bilder sind teilweise geschützt und nicht zum download bestimmt
Disallow: /cgi-bin/    # CGI Ausgaben nicht indizieren
Disallow: /privat.html # Die pirivat.html soll nicht über die Suchmaschine gefunden werden

Mit User-agent: BeispielRobot bestimmt man, dass die Anweisungen nur für den genannten Crawler (BeispielRobot) gelten. Mit Hilfe der einzelnen Disallow Einträgen werden Verzeichnisse und Dateien bestimmt, welche nicht indiziert werden sollen. Mit Hilfe des Raute-Symbol (#)können Kommentare definiert werden, diese werden von den Robots ignoriert.

Ein Ausschluss aller Crawler ist mit Hilfe des sog. Wildchar * möglich:

# Alle Robots ausschließen
User-agent: *
Disallow: /temp/

Sollen nur bestimmte Crawler ausgeschlossen werden, sondern kann man diese wie folgt realisieren:

# Download-Tools vom CGI Verzeichnis fernhalten
User-agent: webmirror
User-agent: webzip
User-agent: webcopy
User-agent: wget
Disallow: /cgi-bin/

Eine Seite ganz von der Indizierung durch Suchmaschinen auszuschließen geht wie folgt:

# Komplette Webseite für alle Robots sperren
User-agent: *
Disallow: /

Durch entfernen des Slash (/) wird die Seite ganz für die Indizierung frei gegeben:

# Ganze Seite für Robots freigeben
User-agent: *
Disallow:

Die Groß- und Kleinschreibung wird bei Disallow Einträgen nicht durch die Robots berücksichtigt.

Sie Benötigen Unterstützung bei der Anpassung Ihrer robots.txt oder Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie in diesen und vielen anderen Bereichen rund um das Thema Internet & IT!

Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...