Banner - Blog zu den Themen Programmierung, SEO, SEM, Social Media, Internet Marketing, Webdesign, IT-Service und Mehr - SEO Hannover - IT-Dienstleistungen und SEO Agentur Fly2Mars-Media.de

Archiv

Archiv für die Kategorie ‘Suchmaschinen-optimierung’

SEO: Googles Trust Factor als Ranking-Faktor (Was beeinflusst diesen?)

Häufig wird davon gesprochen dass Google einer Seite ein bestimmten Trust zuweist. Nicht jedem ist klar was damit gemeint ist bzw. welche Kriterien für Google bedeutend sind und damit den Trust beeinflussen.

Wie setzt sich der Google Trust Factor zusammen?

Aus diesem Grund möchte ich an dieser Stelle kurz erklären welche Faktoren für den Google Trust Factor bedeutend sind.

Der Google Trust Factor setzt sich aus einzelnen Faktoren zusammen (OnPage als auch OffPage Faktoren). Je höher dabei der Trust einer Seite ist, desto wahrscheinlicher ist es, dass bestimmte Seiten/Artikel zu bestimmten Suchanfragen in den SERPS besser ranken als Seiten mit vergleichbaren Inhalten.

Folgende Faktoren sind wichtig für den Google Trust Factor:

  • viele Lange Artikel und einzigartige Inhalte
  • die Website enthält AGBs und eine Datenschutzerklärung
  • Ausgehende Links auf andere Trust-Seiten (z.b. wikipedia.de)
  • die Anzahl an Social Signals (likes, +1, etc. auf google+ oder facebook)
  • eine lange Verweildauer der Besucher auf der Website
  • die Anzahl Backlinks von Seiten mit hohem Trust
  • eine geringe Ladegeschwindigkeit der WebSeite

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...

SEO: Image-Tags optimieren

11. Oktober 2013 1 Kommentar

Bei allen Bildern optimierte Alternativ-Texte setzen welche wichtige Keywords enthalten. Durch die Verwendung von SEO-Beschreibungen werden die Bilder besser durch bestimmte Keywords, z.B. in der Google-Bilder-Suche, gefunden. Die Bilder-Suche ist nach der Hauptsuche mit einer der meist genutzten Such-Funktion.

Bsp.: <img src=”http://domain.com/link-zum-bild.jpg” alt=”Produkt xy in blau in Größe 5 von der Marke asdf” />

http://de.selfhtml.org/html/grafiken/einbinden.htm

Ein mögliches Tool zum überprüfen der URLs: Das Tool Screamingfrog ( http://www.screamingfrog.co.uk/seo-spider/ ) .

Ebenfalls interessant und zu empfehlen ist es, eine Bilder-Sitemap.xml anzulegen, siehe auch:

http://support.google.com/webmasters/bin/answer.py?hl=de&answer=178636&topic=20986&ctx=topic

GD Star Rating
loading...
GD Star Rating
loading...

robots.txt

11. Oktober 2013 1 Kommentar

Die robots.txt dient zur Rechteverwaltung einer Webseite für die Crawler der Suchmaschinen, nähere Infos unter:

http://de.wikipedia.org/wiki/Robots.txt

Zusätzlich sollte dort die jeweilige sitemap.xml eingetragen werden. Magento verwaltet die Sitemap.xml’s auf Webseitenebene, daher ist es wichtig pro Webseite eine eigene sitemap.xml anzulegen sowie diese regelmäßig zu aktualisieren.

Ebenfalls zu beachten ist, dass bei einem Multi Domain Shop jeweils eine eigene robots.txt pro Domain ausgeliefert wird und auch die Sitemap.xml jeweils mit der korrekten Domain verlinkt ist.

Irrelevante Seiten sperren

Auch die interne Linkstruktur ist ein wesentlicher Faktor für die Suchmaschinenoptimierung. Nicht alle Seiten einer Webseite sind auch für Suchmaschinen interessant. Folgende Seiten bzw. Links sollten nicht in den Index der Suchmaschinen aufgenommen werden und deshalb mittels dem meta-robots  „noindex“-Attribut (<meta name=”robots” content=”noindex,follow”>) gesperrt werden, z.B.:

  • Kundenkonto-Login
  • Warenkorb
  • Hinzufügen zum Warenkorb aus Produkten
  • Kommentar/Bewertungs-Funktion
  • Allgemeine Geschäftsbedingungen
  • Datenschutzerklärung

 

GD Star Rating
loading...
GD Star Rating
loading...

seokanzler – neuer SEO Contest zur Ermittlung des SEO Kanzler für Deutschland und Österreich – SEOkomm

7. Oktober 2013 12 Kommentare

seokanzler contestGanz Deutschland im Wahl-Fieber, nach dem Landtags-, Bundestag- sowie teilweise Bürgermeisterwahlen, wird jetzt der SEO-Kanzler für Deutschland auf dem SEO-Day in Köln (Ranking in google.de) sowie für Österreich auf der SEOkomm(Ranking in google.at) in Salzburg gekürt?

SEO Urgestein Fabian Rossbacher hat heute um 10.00 Uhr das (Un-)Wort für den aktuellsten SEO-Contest veröffentlicht, welches lautet: seokanzler.

Das Keyword zur bestimmung des Rankings ist wie immer ein fiktives Wort (wie zuletzt war es seophonist), um das Ranking in den Google-Suchergebnislisten (kurz: SERP) wird ab sofort heiß gekämpft. Neu an diesem Contest ist, dass sowohl der SEOKanzler für Deutschland (google.de) als auch für Österreich (google.at) gesucht wird.

Der Sieger bzw. SEOKanzler in Deutschland wird am 16.10.2013 um 18.00 Uhr bestimmt auf dem SEO Day in Köln. Die Preise im SEO-Contest können sich diesmal echt sehen lassen: Es gibt unter Anderem ein Life-Time-Ticket für den SEO-Day,  diverse Medaillen, Urkunden, ein Hightech Grill sowie diversen Gutscheinen für die wichtigsten und bekanntesten SEO-Tools.

Am 22.11.2013 um 22 Uhr wird der SEOKanzler für Österreich (Ranking in google.at) bestimmt. Der Gewinner darf sich u.a. über ein SEOKomm 2014 Megaticket freuen.

Ich bin gespannt auf das Ergbnis und vor allem die Analyse des Gewinners.

Weitere Informationen zur seokanzler-Wahl gibt es auf diesen beiden Seiten (weiterführende Links):

seokomm.at
seo-day.de

GD Star Rating
loading...
GD Star Rating
loading...

SEO: Das semantische Web – Web 3.0 – Internet im Jahr 2012/2013

19. September 2012 Keine Kommentare

Immer wieder stolpert man über die Begriffe “Web 2.0″ und “Web 3.0″. Aber was steckt dahinter? Sind es nur neue Buzz-Wörter der Social-Media-Jugend?

Das Web 2.0

Mit Web 2.0 ist das heutige für die Benutzer weitestgehend interaktive Internet gemeint. Die Mehrzahl der Inhalte werden von den Anwendern generiert, nicht mehr primär statisch von den Webseitenbetreibern vorgegeben wie im “Web 1.0″. Als gute Beispiele sind Wikipedia, Youtube oder Facebook zu nennen. Ohne die von den Anwendern bei gesteuerten Inhalte wären diese Seiten nahezu nutzlos. Aber genau das Gegenteil ist der Fall, die Seiten erleben nahezu ein mega Boom, die Besucherzahlen sind enorm, die Akzeptanz sehr positiv und der Bekanntheitsgrad sehr hoch, weniger aktive Internet-Anwender kennen und nutzen diese Plattformen.

Web 3.0

Aber was ist jetzt das Web 3.0?

Das Web 3.0 ist ein semantisches Web. Die Daten auf der Webseite werden so gekennzeichnet, dass sie von Maschinen (zb Suchmaschinen wie Google.de) detailliert erkannt, kategorisiert und anschließend verarbeitet bzw angezeigt werden können. Aktuell können Maschinen die Daten zwar in der Summe einlesen, allerdings nicht immer detailliert trennen. Wir Menschen unterscheiden die verschiedenen Daten (zb Preis, Name eines Produktes, Beschreibung des Produktes, Artikel-Nr., etc.) durch die Formatierungen, Labels, Überschriften oder anhand anderer Kennzeichen.

Für zb Suchmaschinen ist diese Unterscheidung nicht ohne weiteres Möglich. Aus diesem Grund werden diese Daten explizit eindeutig gekennzeichnet, so das auch Maschinen diese erkennen. Hier ein Beispiel für ein semantische Kennzeichnung:

<stadt>Hannover</stadt> liegt an der <fluss>Leine</fluss>.<author>Daniel Briegert</author> hat diesen Text geschrieben.

Hierdurch ergeben sich viele positive Optimierungsmöglichkeiten, gerade im Umfeld der Suchmaschinenoptimierung (kurz: SEO).
Google selbst liest diese Daten bereits aus und stellt sie gesondert da. Primär über Rich Snippets (seit 2009).

Semantisches Web für SEOs

Welche Auszeichnungen über Rich Snippets sind aktuell am wichtigsten und damit für SEO ein “must have”?
Allgemein kann man sagen: “je mehr, umso besser und sei es nur um für die Zukunft gerüstet zusein!”. Nachteil ist allerdings ggf ein erhöhter Wartungsaufwand, ändern sich die Auszeichnungsstandards leider immer noch in unregelmäßigen Abständen bzw werde ergänzt oder ersetzt.

Aktuell kann die Auszeichnung von Bewertungen, Autoren und die Anzahl der Kommentare die Klickrate in den SERPS deutlich erhöhen, und das bei Gleichzeitig sinkender Absprungrate. Deshalb empfehle ich diese zu implementieren.

Semantische Auszeichnungen in Webshops

Neben der genannten Bewertungsauszeichnungen ist es sinnvoll bei Webshops gerade auf den Produktseiten die jeweiligen Produkteigenschaften auszuzeichnen.

Diese können sein:
Preis
Artikelnummer
rabattierter Preis
Hersteller
Größe
Farbe
Währung
Etc.

Allg. wichtig ist die Auszeichnung der jeweilig relevanten Eigenschaften folgender Seiten bzw Daten:

Events und Veranstaltungen
Produkte und Angebote
Bewertungen
Geschäfte, Restaurants und Organisationen
Filme, Bücher und Rezepte

Zur Auszeichnung empfiehlt sich das Microdata-Markup gemäß schema.org zu verwendet. Zur Validierung, ob das Markup korrekt implementiert wurde, empfehle ich das kostenlose Google Rich Snippet Testing Tool.

Ergänzende Artikel:

Wenn dir der Artikel gefallen hat bzw ein Mehrwert für dich war, wäre ich dankbar wenn du diesen Artikel in den Sozialen-Medien teilen und “liken” könntest, danke!

GD Star Rating
loading...
GD Star Rating
loading...

Sitemap mit robots.txt verlinken – SEO Tipps

Die Sitemap kann manuell über die Google Webmastertools für eine Webseite definiert werden. Für die Suchmaschinenoptimierung (kurz: SEO) ist die Auslieferung einer sitemap.xml für Suchmaschinen zu empfehlen.

Automatisch geht das auch über die folgende Definition in der robots.txt :

Sitemap: http://www.mysite.com/sitemap.xml

GD Star Rating
loading...
GD Star Rating
loading...

7 wertvolle SEO OnSite Tipps

1) Was ist bei einem für SEO optimierten Text wichtig?

Häufig wird von Keyword-Density (Keyword-Dichte) gesprochen, wobei darauf zu achten ist das kein Keyword-SPAM entsteht welcher schlimmstenfalls zu einem Google-Penalty (Abstrafung durch Google) führt. Praxis-Tests haben gezeigt, dass lange Texte besser im Ranking positioniert werden, also kurz optimierte Texte. Google legt immer mehr Wert auf guten und viel Content, umso mehr, umso besser. Ca. 100 Wörter ist eine gute Richtlinie, auch weil viele Webseiten-Besucher Texte über diese Länge meiden bzw. zu Ende lesen. Bei kürzeren Texten kommt meist der Informationsgehalt zu kurz.

Keyword-Density ist unwichtig! Ein Keyword am Anfang, in der Mitte und zum Ende des Textes reichen völlig in der Größenordnung von ca. 100 Wörtern.

Wichtiger ist dagegen an Neben-Keywords zu denken. Ein Keyword-Optimizer kann helfen ähnliche Wörter/Kombinationen oderKombinationen finden, wichtig vor allem um besseren Longtail zu erhalten.

2) Welcher Mehrwert haben Bilder, Videos oder optimierte Listen?

Durch Bilder wird die Seite auf, des weiteren wird die Seite bzw. die Bilder in der Google-Bildersuche gefunden, wodurch der Besucherstrom/Webseitenreichweite verbessert wird und Schluss endlich der Longtail optimiert.

Videos sind gut um die Verweildauer zu verlängern.

Eine Strukturierte Webseite mit Zwischenüberschriften und Listen kann durch Google besser indexiert werden, hinzu kommt das eine semantisch gute Webseite (Stichwort: Web 3.0) besser für jegliche Maschinen, Clients, etc. gelesen werden kann.

3) Welche Meta-Angaben sind wichtig?

Das Meta-Tag “Description” kann die Klickrate bei Google verbessern.

Die Sprach- und Länderangaben können sehr nützlich sein, auch weil Google das Ranking von dem Standort des Suchmaschinen-Benutzers abhängig macht.

Tags die “noodp” (besagt dass der Beschreibungs-Text nicht aus dem Open Directory Project übernehmen werden soll) und anderte, kann verzichtet werden.

4) Welche Meta-Angaben sind denn wirklich wichtig?

Das Meta-Tag “Description” ist für die Durchklickrate bei Google wichtig.

Auch Sprach- und Länderangaben können sehr nützlich sein.

Auf “noodp” (= nicht den Text aus dem Open Directory Project übernehmen) und den meisten anderen Kram können wir verzichten.

Zu erst sollt man analysieren welche Seiten “wichtig” und welche “unwichtig” sind!

Unwichtige Seiten sind z.B. Fehler-Seiten (404 Error Page), Leere Ergebnisseiten aus Filterfunktionen, paginierte Kategorieseiten (Duplicate Content vermeiden), etc.

Allg. kann man sagen, alle Seiten welche kein Mehrwert für den Besucher bringen.

Die einfachste Möglichkeit Google zu sagen, dass diese Webseiten nicht indexiert werden soll ist den “noindex” Tag auf der Seite zu setzen. Bei Übersichtsseiten (Listen) sollte ein “follow” dahinter gesetzt werden, wenn eine Indexierung der verlinkten Seiten erwünscht ist.

Ebenfals nützlich ist das Cononical-Tag, auch um für Google bei Duplicate Content die Ursprungsseite zu markieren.

5) Welche sind die häufigsten Einsteiger-Fehler im Bereich SEO?

Die Verwendung falscher Keywörter ohne Abgleich nach dem Suchvolumen. Selbst eine Keywort optimierte Seite bringt keine Besucher, wenn niemand danach sucht.

Zu glauben, dass man mit einer beliebigen Firmenwebseite mit einem heiß umkämpften Keyword (z.B. “Arzt”), ohne weiteres auf Platz 1 landen kann. Wichtig wäre dagegen mehr auf Suchphrasen zu optimieren.

Die Verwendung unnötiger oder veralteter Tags, z.B. das Meta-Keyword-Tag wird nicht mehr von den Suchmaschinen verwendet, muss deshalb auch nicht gesetzt sein. Viele Einsteiger setzen hingegen dies gar manuell, einfach verschwendete Zeit.

6) Welche Fehler machen erfahrene SEOs am häufigsten?

Zu lange Inhalte mit falscher Keyword-Density von z.B. 10 Prozent, danach Penalty durch Google oder gar Ausschluss aus dem Index.

Weiterbildung, selbst wenn vor 2-3 Jahren ein Projekt mit diversen Praktiken/Tricks gut gerankt hat, so muss dies heute nicht mehr gelten. Google verändert nahezu täglich ihren Algo und die Gewichtung der Einfluss-Faktoren. Z.B. Social-Media war vor 2 Jahren kaum ein wichtiger Ranking-Faktor, aktuell hat Google den Social-Graph geschaffen und eine Webseite welche gut im Social-Media-Umfeld vernetzt ist deren Wert steigt bei Google und damit ebenfalls das Ranking.

Die Optimierung sollte jeweils passend zur Seite sein, die Methoden zur Optimierung sind bei einem Webshiop anders als bei einem Portal, einer Community oder Affiliate-/Landing-Page.

Projekte nicht regelmäßig beobachten und Erfolge auswerten. Gerade aufgrund des sich regelmäßig sich ändernden Algorhytmus und die Gewichtung der Einflussfaktoren, sollte eine Webseite in regelmäßigen Abständen (mind. alle 1/2 Jahre) neu auf die aktuelle SEO & Social-Media-Optimierung analysiert werden.

Schauen was die anderen Webseiten so machen. Gerade wenn es um Werbeeinnahmen, Besuchertreue oder Konversion-Optimierung geht, ist Verweildauer ein wichtiges Thema. Vielleicht wird dieser Faktor gar in der Zukunft ein wichtiges Ranking-Kriterium? Eine kurze Verweildauer spiegelt auch den Wert der Webseite wieder, maßnahmen zur Verlängerung sollten umgesetzt, zu minntest diskutiert werden.

7) Welche Tipps und Trends im Bereich Onsite gibt es für das SEO Jahr 2011?

HTML5

Rich Snippets für Bewertungen, Kommentare und viele andere Informationen.

Integration in Social-Media – Google lässt die Besucher entscheiden welche Webseite wertvoll ist. Umso mehr “Likes”, Tweeds, Verlinkungen, etc. umso höher der Wert des Artikels oder der Seite (Stichwort: Social Media Graph)

Semantisches Web 3.0 (Jedes Jahr auf’s neue, bis es endlich flächen deckend umgesetzt wurde)

Webseiten ohne Flash mit Alternativer Umsetzung mit HTML5 oder Java-Script (Stichwort: Barrierefreie Webseiten)

und noch viele weitere, 1 Internet Jahr kann sehr lang sein, das internet ist schließlich sehr schnelllebig

GD Star Rating
loading...
GD Star Rating
loading...

SEO: Non-defensive URL construction – no duplicate content – regex

Um zu verhindern dass durch verschiedene Schreibweisen von URLs duplicate content entsteht,  ist es ratsam einheitliche URLs zu erzeugen (z.B. nur die kleinschreibweise zu akzeptieren).

Aus gründen der besseren Benutzbarkeit (usability) ist es natürlich von Vorteil auch verschiedene Schreibweisen der URL zu berücksichtigen, im Detail:

http://www.fly2mars-media.de/seoblog/

sollte genauso berücksichtigt werden wie

http://www.Fly2Mars-Media.de/SeoBlog/

allerdings soll für Google nur eine Schreibweise verwendet werden, da sonst ggf. ein duplicate content problem entsteht.

Die Lösung ist ein rewrite der URL über mod_rewrite, hier die Lösung:

RewriteEngine On
 # lowercase request_uri and redirect 301
 RewriteMap  lc int:tolower
 RewriteCond %{REQUEST_URI} [A-Z]
 RewriteRule (.*) ${lc:$1} [R=301,L]

Beachtet auch diesen Tipp: Apache: RewriteMap not allowed here Problem

Möchtet ihr bestimmte Ordner ausschließen, so könnt ihr dies z.b. für die Ordner tmp und cache wie folgt:

RewriteCond %{REQUEST_URI} !^/(tmp|cache)
GD Star Rating
loading...
GD Star Rating
loading...

SEO: Im Firefox Webseite als Googlebot laden / Googlebot im Firefox als user agent konfigurieren

Als SEO ist es manchmal für Tests notwendig sich als Googlebot auszugeben.

Dies geht mit diversen Tools, allerdings auch durch ändern der Konfiguration des Firefox.

Dieser bietet die Möglichkeit, den User Agent frei zu wählen und den Browser als Googlebot auszugeben.

Und so geht’s:

In der Adressleiste des Browsers eingeben: about:config  -> Rechte Maustaste -> Neu -> String -> Eigenschaftsname: general.useragent.override -> Wert: Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Danach gibt sich der Webbrowser Firefox als Googlebot aus.

Um die Änderung rückgänig zu machen, sucht ihr anhand der Filter den Wert “general.useragent.override”, klickt mit der rechten Maustaste auf diesen und bestätigt das Feld zurücksetzen.

Es kann übrigens zu Schwierigkeiten kommen, wenn man sich dauerhaft als googlebot ausgibt und mit dieser Einstellung im Internet surft. Z.B. beim speichern des Artikels in WordPress gibt es Probleme, solange der Firefox sich als Google-Bot identifiziert. Wahrscheinlich funktioniert eine Javascript-Weiche nicht richtig.

GD Star Rating
loading...
GD Star Rating
loading...

SEO: Mit PHP heraus finden ob Besucher Googlebot/Spider?

8. Dezember 2010 1 Kommentar

Mit der folgenden Funktion könnt ihr heraus finden ob es sich beim dem Besucher um ein Googlebot oder -Spider handelt:

public function isSpider()
 {
    if (strpos($_SERVER['HTTP_USER_AGENT'],"Googlebot"))
      return true;
    else
      return false;
 }
GD Star Rating
loading...
GD Star Rating
loading...