Google & SEO: HTTPS als Ranking-Signal

7. August 2014 at 11:24

Google-logo-wikipedia

Google sagt offiziell dass sie ein HTTPS überall Netz wollen und seit geraumer Zeit HTTPS als Ranking-Signal verwenden, daher Webseiten mit HTTPS werden bei der Positionierung von Suchergebnissen besser behandelt als HTTP_Seiten.

Daher sollte aus SEO-Gesichtspunkten (und ggf. für eine bessere Sicherheit) dieWebseiten alle nur noch im HTTPS-Modus laufen.

BTW: Die SSL-Sicherheit einer Webseite kann geprüft werden über die Webseite https://www.ssllabs.com/ssltest/
Quelle (Google Webmaster Blog):

http://googlewebmastercentral-de.blogspot.de/2014/08/https-als-ranking-signal.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+blogspot/vIRG+(Webmaster-Zentrale+Blog)

SEO: Die Bedeutung des Canonical-Tag – sinnvoll oder falsch verwendet?

13. Februar 2014 at 18:31

Ständig fällt in Bezug auf „unique Links“ das Wort „Canonical-Tag wurde gesetzt“ … toll, aber das Problem ist damit nicht gelöst.

Warum?

– Der Canonical-Tag ist nur ein Verweis auf das Original
– Link Juicy geht weiterhin komplett verloren
– Die Original-Seite erhält nicht den Link-Power den sie bekommen würde wenn es nur die eine Seite gebe (oder die doppelte per 301 auf diese geht)

Wie ist eure Meinung dazu?

SEO: Googles Trust Factor als Ranking-Faktor (Was beeinflusst diesen?)

6. Januar 2014 at 12:34

Häufig wird davon gesprochen dass Google einer Seite ein bestimmten Trust zuweist. Nicht jedem ist klar was damit gemeint ist bzw. welche Kriterien für Google bedeutend sind und damit den Trust beeinflussen.

Wie setzt sich der Google Trust Factor zusammen?

Aus diesem Grund möchte ich an dieser Stelle kurz erklären welche Faktoren für den Google Trust Factor bedeutend sind.

Der Google Trust Factor setzt sich aus einzelnen Faktoren zusammen (OnPage als auch OffPage Faktoren). Je höher dabei der Trust einer Seite ist, desto wahrscheinlicher ist es, dass bestimmte Seiten/Artikel zu bestimmten Suchanfragen in den SERPS besser ranken als Seiten mit vergleichbaren Inhalten.

Folgende Faktoren sind wichtig für den Google Trust Factor:

  • viele Lange Artikel und einzigartige Inhalte
  • die Website enthält AGBs und eine Datenschutzerklärung
  • Ausgehende Links auf andere Trust-Seiten (z.b. wikipedia.de)
  • die Anzahl an Social Signals (likes, +1, etc. auf google+ oder facebook)
  • eine lange Verweildauer der Besucher auf der Website
  • die Anzahl Backlinks von Seiten mit hohem Trust
  • eine geringe Ladegeschwindigkeit der WebSeite

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

SEO: meta-tags & title ohne double encode

19. Dezember 2013 at 14:56

Werden die Daten für die meta-tags sowie dem title aus einem cms ausgelesen, so kann es passieren das Sonderzeichen (special chars) enthalten sind. Diese sind natürlich nicht erwünscht, z.b. das doppelte Hochkomma („) kann so gar den html-tag „zerstören“.

Die Lösung ist selbstverständlich in php die Funktion htmlspecialchars() .

Doch wird diese nicht mit entsprechenden Parametern ausgeführt, so werden ggf. doppelte encodings vorgenommen so wird aus einem

$einString = „‚Honey‘ & süße \“Schokolade\““;

ein

'Honey' & süße "Schokolade"

Das ist nicht unbedingt erwünscht. Daher lieber wie folgt aufrufen

echo htmlspecialchars($string, ENT_QUOTES, "UTF-8", false)";

und ihr erhaltet als Ausgabe

&#039;honey&#039; &amp; s&uuml;&szlig;e &quot;Schokolade&quot;<br>

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

robots.txt vs. noindex

13. Dezember 2013 at 17:51

seokanzler contest

Des Öfteren werde ich gefragt welche die Beste Möglichkeit ist die indexierung einer Seite durch Google zu unterbinden.

Methoden um die indexierung von webseiten zu unterbinden

Dazu gibt es bekannterweise verschiedene Möglichkeiten, am interessantesten ist hierbei der Einsatz der robots.txt sowie den meta noindex-Metatag .

Klingt erst mal einfach, ist es aber nicht! 😉

Der Irrglaube

Weit verbreitet ist der Irrglaube dass eine in der robots.txt mit disallow markierte URL nicht indexiert werden kann. Das ist schlichtweg falsch! Die robots.txt dient nur zur Steuerung des jeweiligen Crawlers der Suchmaschinenanbieter. In der Regel halten sich diese an die Einträge in der robots.txt, eine Pflicht dazu gibt es allerdings nicht. Praxis Erfahrungen zeigen das selbst Google sich nicht immer an diese Einträge hält.

Übrigens der historische Zweck der robots.txt war, den Crawler von den Bereichen der Website fern zu halten, die eine besonders hohe Serverlast erzeugten. Der Nebeneffekt dabei: die per robots.txt “geschützten” URLs konnten nicht in den Index gelangen.

Aktuell ist es allerdings so, das Google selbst eintscheidet welche Links sie verfolgen und indexieren und welche nicht. Hat ein Link bzw. eine Seite für Google eine sehr hohe Bedeutung, so kann bereits ein Link auf eine URL reichen um die URL in den Index mit aufzunehmen. Dabei nimmt Google so gar Seiten auf, wenn sie vom Crawler noch nicht einmal besucht wurden.

Und schwups sind Seiten im Index die per robots.txt gesperrt sind.

Die Praxis-Falle

In der Praxis würde jetzt der Webseitenbetreiber nachträglich ein meta-tag mit noindex setzen – <meta name=“robots“ content=“noindex“>. Gut gemeint aber jetzt passiert folgendes: nix

???

Da die Seite per Disallow-Anweisung in der robots.txt-Datei für den crawler gesperrt ist, besucht dieser die Seite nicht und z.B. Google kennt diesen Meta-Tag auf dieser Seite nicht, da die Seite selbst nicht besucht wird.

Der Einsatz von robots.txt und des Noindex-Metatags widerspricht sich hiermit und deshalb sollten die Einträge abgestimmt werden!

robots.txt und metatag-nofollow richtig einsetzen

Wie lösen wir jetzt das Problem bzw. wie setzen wir die beiden „Tools“ korrekt ein?

Die robots.txt sollte immer nur dann verwendet werden, wenn es erwünscht ist dass ein Crawler auf eine geschützten URLs nicht zugreifen soll oder einfach die Last des Servers gesenkt werden soll. Das kann sein z.b. der Login-Bereich, bestimmte Bilder, Dateien, etc. pp, auch das duplicate Content Problem kann damit angegangen werden.

So erreichen wir dass der Crawler sich nicht mit unnötigen URLs verlustiert und anschließend keine Ressourcen mehr für die wichtigen Seiten übrig hat. Aus SEO-Sicht müssen wir ggf. damit leben, dass manche URLs trotzdem im Google-Index gelistet werden.

Wollen wir definitiv das Listing einer Seite im Google-Index verhindern, so kommen wir um den Einsatz eines noindex-Metatag nicht herum. Dabei ist zu berücksichtigen dass die Suchmaschinen Zugriff auf diese Seite haben und sie NICHT per robots.txt als disallow markiert ist.

Übrigens, der Einsatz des nofollow-attributes für links ist nur eine Empfehlung für die Suchmaschinen diese Seite nicht zu indexieren. In der Praxis hält sich Google sowieso nicht daran, bewertet die Links nur schlechter beim Ranking. Hinzu kommt das Google seiten auch negativ sieht welche nur nofollow-tags haben. Ist ja klar, die Seite erlaubt Google keine ausgehenden Links zu scannen und ist für den Crawler eine Sackgasse.

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

Content Marketing: Darauf sollten Website-Betreiber achten

5. Dezember 2013 at 15:56

Dies ist ein Gast-Artikel von Fabian Heyer von seosupport.de

Die inhaltliche Aufstellung des eigenen Web-Angebots ist naturgemäß ausgesprochen wichtig. Ganz klar, der gebotene Content, also Texte, Bilder und Videos, ist eines der ausschlaggebenden Kriterien, geht es um eine anständige Konversionsrate.

Um aber erst einmal für gute Besucherzahlen zu sorgen, braucht es ebenfalls entsprechenden Inhalt, denn für die Suchmaschinenoptimierung (SEO) ist neuer und frischer Content so wichtig wie eh und je.

In einigen Fällen kollidieren allerdings diese beiden Aspekte des Onpage-Contents. Denn der bereits erstelle und veröffentliche Inhalt mag zwar ideal sein, um Besucher zu einem Kaufabschluss zu bewegen, weißt aber nicht zwangsläufig alle relevanten Merkmale auf, die für die SEO-Arbeit wichtig sind. Einige Website-Betreiber tun sich schwer damit, vorhandene Texte entsprechend umzuschreiben, so dass auch der Suchmaschinenoptimierer glücklich ist. Hier lohnt es sich, den vorhandenen Content durch weiteren Inhalt zu ergänzen, der diesen Vorgaben entspricht.

Der schwere Weg zum „unique content“

Seit schon längerer Zeit predigen die SEOs „Content, Content, Content“, denn Google wertet neuen Inhalt erst einmal positiv. Schließlich kann nur ein gerade erst eingestellter Beitrag etwas Neues und somit Interessantes für die User bereithalten, so die Annahme. Eine regelmäßige Erstellung von neuen Beiträgen ist also ein großes Plus für die SEO-Arbeit einer Seite.

Was viele Webmasters dabei immer wieder missachten: Der Content muss unbedingt „unique“, also absolut einzigartig sein! Einen Beschreibungstext zu einem bestimmten Produkt von der Website des Herstellers zu übernehmen, ist so genannten duplicate content (etwa: doppelter, duplizierter Inhalt). Google wertet dieses nicht nur als nutzlos, sondern unterstellt sogleich auch noch den Versuch, die Website absichtlich interessanter zu machen als sie eigentlich ist. Eine Herabstufung bei den Suchergebnissen ist die Folge.

Selbstgemacht muss nicht unbedingt aufwendig sein

Es bleibt also nichts anderes übrig, als immer wieder für neuen, eigenen Inhalt zu sorgen. Es muss nicht immer gleich ein langer Beitrag sein, ein neues Video oder eine Bildershow (gerne mit Beschreibungstext) sind ebenfalls eine gute Sache.

Hier ein paar Anhaltspunkte, die man bei der Erstellung und Nutzung von Content für die Suchmaschinenoptimierung berücksichtigen sollte:


Content-Marketing:21 neue Regeln

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

SEO: Image-Tags optimieren

11. Oktober 2013 at 11:26

Bei allen Bildern optimierte Alternativ-Texte setzen welche wichtige Keywords enthalten. Durch die Verwendung von SEO-Beschreibungen werden die Bilder besser durch bestimmte Keywords, z.B. in der Google-Bilder-Suche, gefunden. Die Bilder-Suche ist nach der Hauptsuche mit einer der meist genutzten Such-Funktion.

Bsp.: <img src=“http://domain.com/link-zum-bild.jpg“ alt=“Produkt xy in blau in Größe 5 von der Marke asdf“ />

http://de.selfhtml.org/html/grafiken/einbinden.htm

Ein mögliches Tool zum überprüfen der URLs: Das Tool Screamingfrog ( http://www.screamingfrog.co.uk/seo-spider/ ) .

Ebenfalls interessant und zu empfehlen ist es, eine Bilder-Sitemap.xml anzulegen, siehe auch:

http://support.google.com/webmasters/bin/answer.py?hl=de&answer=178636&topic=20986&ctx=topic

Sitemap.xml

11. Oktober 2013 at 10:49

Es muss eine sitemap.xml erstellt werden zur einen Auflistung der einzelnen Seiten für die Suchmaschinen. Diese sollte regelmäßig bei Änderungen automatisch durch ein Cron aktualisiert werden.

Infos zur Sitemap.xml unter http://de.wikipedia.org/wiki/Sitemaps-Protokoll

Bei Sitemaps mit vielen Inhalten, daher > 10.000 URLs bitte eine gepackte sitemap.gz zur Verfügung stellen. Google akzeptiert zum aktuellen Stand max. 50.0000 Produkte/URLs pro ungepackter sitemap.xml.

Die sitemap.xml sollte in der robots.txt sowie in den Google Webmastertools eintragen werden.

Zu beachten ist, dass Links nicht doppelt gelistet werden dürfen und die Links immer eindeutig sein müssen. Daher auch darauf achten dass die Links einheitlich sind, z.B immer mit oder ohne endenden Slash, etc.!

Wenn z.B. an allen URLs automatisch per 301-Weiterleitung ein endender Slash angehängt wird, um zu vermeiden dass dadurch duplicate Content entsteht, so muss die endende URL in der Sitemap.xml eingetragen werden. In der Sitemap dürfen keine Links enthalten sein welche umgeleitet werden, dies führt zu Fehlermeldungen seitens Google. Generell ist in den Google Webmastertools zu prüfen ob die Sitemap.xml erfolgreich validiert wurde bzw. entsprechende Fehlermeldungen auszuwerten.

Die enthaltenen URLs müssen identisch mit den real verwendeten Shop-URLs sein, daher keine Weiterleitungen, da diese bei der Aufnahme durch Google abgelehnt werden.

Tipp

Ebenfalls zu beachten ist, dass bei einem Multi Domain Shop jeweils eine eigene robots.txt pro Domain ausgeliefert wird und auch die Sitemap.xml jeweils mit der korrekten Domain verlinkt ist.

robots.txt

11. Oktober 2013 at 10:31

Die robots.txt dient zur Rechteverwaltung einer Webseite für die Crawler der Suchmaschinen, nähere Infos unter:

http://de.wikipedia.org/wiki/Robots.txt

Zusätzlich sollte dort die jeweilige sitemap.xml eingetragen werden. Magento verwaltet die Sitemap.xml’s auf Webseitenebene, daher ist es wichtig pro Webseite eine eigene sitemap.xml anzulegen sowie diese regelmäßig zu aktualisieren.

Ebenfalls zu beachten ist, dass bei einem Multi Domain Shop jeweils eine eigene robots.txt pro Domain ausgeliefert wird und auch die Sitemap.xml jeweils mit der korrekten Domain verlinkt ist.

Irrelevante Seiten sperren

Auch die interne Linkstruktur ist ein wesentlicher Faktor für die Suchmaschinenoptimierung. Nicht alle Seiten einer Webseite sind auch für Suchmaschinen interessant. Folgende Seiten bzw. Links sollten nicht in den Index der Suchmaschinen aufgenommen werden und deshalb mittels dem meta-robots  „noindex“-Attribut (<meta name=“robots“ content=“noindex,follow“>) gesperrt werden, z.B.:

  • Kundenkonto-Login
  • Warenkorb
  • Hinzufügen zum Warenkorb aus Produkten
  • Kommentar/Bewertungs-Funktion
  • Allgemeine Geschäftsbedingungen
  • Datenschutzerklärung

 

seokanzler – neuer SEO Contest zur Ermittlung des SEO Kanzler für Deutschland und Österreich – SEOkomm

7. Oktober 2013 at 11:18

seokanzler contestGanz Deutschland im Wahl-Fieber, nach dem Landtags-, Bundestag- sowie teilweise Bürgermeisterwahlen, wird jetzt der SEO-Kanzler für Deutschland auf dem SEO-Day in Köln (Ranking in google.de) sowie für Österreich auf der SEOkomm(Ranking in google.at) in Salzburg gekürt?

SEO Urgestein Fabian Rossbacher hat heute um 10.00 Uhr das (Un-)Wort für den aktuellsten SEO-Contest veröffentlicht, welches lautet: seokanzler.

Das Keyword zur bestimmung des Rankings ist wie immer ein fiktives Wort (wie zuletzt war es seophonist), um das Ranking in den Google-Suchergebnislisten (kurz: SERP) wird ab sofort heiß gekämpft. Neu an diesem Contest ist, dass sowohl der SEOKanzler für Deutschland (google.de) als auch für Österreich (google.at) gesucht wird.

Der Sieger bzw. SEOKanzler in Deutschland wird am 16.10.2013 um 18.00 Uhr bestimmt auf dem SEO Day in Köln. Die Preise im SEO-Contest können sich diesmal echt sehen lassen: Es gibt unter Anderem ein Life-Time-Ticket für den SEO-Day,  diverse Medaillen, Urkunden, ein Hightech Grill sowie diversen Gutscheinen für die wichtigsten und bekanntesten SEO-Tools.

Am 22.11.2013 um 22 Uhr wird der SEOKanzler für Österreich (Ranking in google.at) bestimmt. Der Gewinner darf sich u.a. über ein SEOKomm 2014 Megaticket freuen.

Ich bin gespannt auf das Ergbnis und vor allem die Analyse des Gewinners.

Weitere Informationen zur seokanzler-Wahl gibt es auf diesen beiden Seiten (weiterführende Links):

seokomm.at
seo-day.de