Google & SEO: HTTPS als Ranking-Signal

7. August 2014 at 11:24

Google-logo-wikipedia

Google sagt offiziell dass sie ein HTTPS überall Netz wollen und seit geraumer Zeit HTTPS als Ranking-Signal verwenden, daher Webseiten mit HTTPS werden bei der Positionierung von Suchergebnissen besser behandelt als HTTP_Seiten.

Daher sollte aus SEO-Gesichtspunkten (und ggf. für eine bessere Sicherheit) dieWebseiten alle nur noch im HTTPS-Modus laufen.

BTW: Die SSL-Sicherheit einer Webseite kann geprüft werden über die Webseite https://www.ssllabs.com/ssltest/
Quelle (Google Webmaster Blog):

http://googlewebmastercentral-de.blogspot.de/2014/08/https-als-ranking-signal.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+blogspot/vIRG+(Webmaster-Zentrale+Blog)

SEO: Die Bedeutung des Canonical-Tag – sinnvoll oder falsch verwendet?

13. Februar 2014 at 18:31

Ständig fällt in Bezug auf „unique Links“ das Wort „Canonical-Tag wurde gesetzt“ … toll, aber das Problem ist damit nicht gelöst.

Warum?

– Der Canonical-Tag ist nur ein Verweis auf das Original
– Link Juicy geht weiterhin komplett verloren
– Die Original-Seite erhält nicht den Link-Power den sie bekommen würde wenn es nur die eine Seite gebe (oder die doppelte per 301 auf diese geht)

Wie ist eure Meinung dazu?

SEO: Googles Trust Factor als Ranking-Faktor (Was beeinflusst diesen?)

6. Januar 2014 at 12:34

Häufig wird davon gesprochen dass Google einer Seite ein bestimmten Trust zuweist. Nicht jedem ist klar was damit gemeint ist bzw. welche Kriterien für Google bedeutend sind und damit den Trust beeinflussen.

Wie setzt sich der Google Trust Factor zusammen?

Aus diesem Grund möchte ich an dieser Stelle kurz erklären welche Faktoren für den Google Trust Factor bedeutend sind.

Der Google Trust Factor setzt sich aus einzelnen Faktoren zusammen (OnPage als auch OffPage Faktoren). Je höher dabei der Trust einer Seite ist, desto wahrscheinlicher ist es, dass bestimmte Seiten/Artikel zu bestimmten Suchanfragen in den SERPS besser ranken als Seiten mit vergleichbaren Inhalten.

Folgende Faktoren sind wichtig für den Google Trust Factor:

  • viele Lange Artikel und einzigartige Inhalte
  • die Website enthält AGBs und eine Datenschutzerklärung
  • Ausgehende Links auf andere Trust-Seiten (z.b. wikipedia.de)
  • die Anzahl an Social Signals (likes, +1, etc. auf google+ oder facebook)
  • eine lange Verweildauer der Besucher auf der Website
  • die Anzahl Backlinks von Seiten mit hohem Trust
  • eine geringe Ladegeschwindigkeit der WebSeite

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

SEO: meta-tags & title ohne double encode

19. Dezember 2013 at 14:56

Werden die Daten für die meta-tags sowie dem title aus einem cms ausgelesen, so kann es passieren das Sonderzeichen (special chars) enthalten sind. Diese sind natürlich nicht erwünscht, z.b. das doppelte Hochkomma („) kann so gar den html-tag „zerstören“.

Die Lösung ist selbstverständlich in php die Funktion htmlspecialchars() .

Doch wird diese nicht mit entsprechenden Parametern ausgeführt, so werden ggf. doppelte encodings vorgenommen so wird aus einem

$einString = „‚Honey‘ & süße \“Schokolade\““;

ein

'Honey' & süße "Schokolade"

Das ist nicht unbedingt erwünscht. Daher lieber wie folgt aufrufen

echo htmlspecialchars($string, ENT_QUOTES, "UTF-8", false)";

und ihr erhaltet als Ausgabe

&#039;honey&#039; &amp; s&uuml;&szlig;e &quot;Schokolade&quot;<br>

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

robots.txt vs. noindex

13. Dezember 2013 at 17:51

seokanzler contest

Des Öfteren werde ich gefragt welche die Beste Möglichkeit ist die indexierung einer Seite durch Google zu unterbinden.

Methoden um die indexierung von webseiten zu unterbinden

Dazu gibt es bekannterweise verschiedene Möglichkeiten, am interessantesten ist hierbei der Einsatz der robots.txt sowie den meta noindex-Metatag .

Klingt erst mal einfach, ist es aber nicht! 😉

Der Irrglaube

Weit verbreitet ist der Irrglaube dass eine in der robots.txt mit disallow markierte URL nicht indexiert werden kann. Das ist schlichtweg falsch! Die robots.txt dient nur zur Steuerung des jeweiligen Crawlers der Suchmaschinenanbieter. In der Regel halten sich diese an die Einträge in der robots.txt, eine Pflicht dazu gibt es allerdings nicht. Praxis Erfahrungen zeigen das selbst Google sich nicht immer an diese Einträge hält.

Übrigens der historische Zweck der robots.txt war, den Crawler von den Bereichen der Website fern zu halten, die eine besonders hohe Serverlast erzeugten. Der Nebeneffekt dabei: die per robots.txt “geschützten” URLs konnten nicht in den Index gelangen.

Aktuell ist es allerdings so, das Google selbst eintscheidet welche Links sie verfolgen und indexieren und welche nicht. Hat ein Link bzw. eine Seite für Google eine sehr hohe Bedeutung, so kann bereits ein Link auf eine URL reichen um die URL in den Index mit aufzunehmen. Dabei nimmt Google so gar Seiten auf, wenn sie vom Crawler noch nicht einmal besucht wurden.

Und schwups sind Seiten im Index die per robots.txt gesperrt sind.

Die Praxis-Falle

In der Praxis würde jetzt der Webseitenbetreiber nachträglich ein meta-tag mit noindex setzen – <meta name=“robots“ content=“noindex“>. Gut gemeint aber jetzt passiert folgendes: nix

???

Da die Seite per Disallow-Anweisung in der robots.txt-Datei für den crawler gesperrt ist, besucht dieser die Seite nicht und z.B. Google kennt diesen Meta-Tag auf dieser Seite nicht, da die Seite selbst nicht besucht wird.

Der Einsatz von robots.txt und des Noindex-Metatags widerspricht sich hiermit und deshalb sollten die Einträge abgestimmt werden!

robots.txt und metatag-nofollow richtig einsetzen

Wie lösen wir jetzt das Problem bzw. wie setzen wir die beiden „Tools“ korrekt ein?

Die robots.txt sollte immer nur dann verwendet werden, wenn es erwünscht ist dass ein Crawler auf eine geschützten URLs nicht zugreifen soll oder einfach die Last des Servers gesenkt werden soll. Das kann sein z.b. der Login-Bereich, bestimmte Bilder, Dateien, etc. pp, auch das duplicate Content Problem kann damit angegangen werden.

So erreichen wir dass der Crawler sich nicht mit unnötigen URLs verlustiert und anschließend keine Ressourcen mehr für die wichtigen Seiten übrig hat. Aus SEO-Sicht müssen wir ggf. damit leben, dass manche URLs trotzdem im Google-Index gelistet werden.

Wollen wir definitiv das Listing einer Seite im Google-Index verhindern, so kommen wir um den Einsatz eines noindex-Metatag nicht herum. Dabei ist zu berücksichtigen dass die Suchmaschinen Zugriff auf diese Seite haben und sie NICHT per robots.txt als disallow markiert ist.

Übrigens, der Einsatz des nofollow-attributes für links ist nur eine Empfehlung für die Suchmaschinen diese Seite nicht zu indexieren. In der Praxis hält sich Google sowieso nicht daran, bewertet die Links nur schlechter beim Ranking. Hinzu kommt das Google seiten auch negativ sieht welche nur nofollow-tags haben. Ist ja klar, die Seite erlaubt Google keine ausgehenden Links zu scannen und ist für den Crawler eine Sackgasse.

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

SEO: Image-Tags optimieren

11. Oktober 2013 at 11:26

Bei allen Bildern optimierte Alternativ-Texte setzen welche wichtige Keywords enthalten. Durch die Verwendung von SEO-Beschreibungen werden die Bilder besser durch bestimmte Keywords, z.B. in der Google-Bilder-Suche, gefunden. Die Bilder-Suche ist nach der Hauptsuche mit einer der meist genutzten Such-Funktion.

Bsp.: <img src=“http://domain.com/link-zum-bild.jpg“ alt=“Produkt xy in blau in Größe 5 von der Marke asdf“ />

http://de.selfhtml.org/html/grafiken/einbinden.htm

Ein mögliches Tool zum überprüfen der URLs: Das Tool Screamingfrog ( http://www.screamingfrog.co.uk/seo-spider/ ) .

Ebenfalls interessant und zu empfehlen ist es, eine Bilder-Sitemap.xml anzulegen, siehe auch:

http://support.google.com/webmasters/bin/answer.py?hl=de&answer=178636&topic=20986&ctx=topic

robots.txt

11. Oktober 2013 at 10:31

Die robots.txt dient zur Rechteverwaltung einer Webseite für die Crawler der Suchmaschinen, nähere Infos unter:

http://de.wikipedia.org/wiki/Robots.txt

Zusätzlich sollte dort die jeweilige sitemap.xml eingetragen werden. Magento verwaltet die Sitemap.xml’s auf Webseitenebene, daher ist es wichtig pro Webseite eine eigene sitemap.xml anzulegen sowie diese regelmäßig zu aktualisieren.

Ebenfalls zu beachten ist, dass bei einem Multi Domain Shop jeweils eine eigene robots.txt pro Domain ausgeliefert wird und auch die Sitemap.xml jeweils mit der korrekten Domain verlinkt ist.

Irrelevante Seiten sperren

Auch die interne Linkstruktur ist ein wesentlicher Faktor für die Suchmaschinenoptimierung. Nicht alle Seiten einer Webseite sind auch für Suchmaschinen interessant. Folgende Seiten bzw. Links sollten nicht in den Index der Suchmaschinen aufgenommen werden und deshalb mittels dem meta-robots  „noindex“-Attribut (<meta name=“robots“ content=“noindex,follow“>) gesperrt werden, z.B.:

  • Kundenkonto-Login
  • Warenkorb
  • Hinzufügen zum Warenkorb aus Produkten
  • Kommentar/Bewertungs-Funktion
  • Allgemeine Geschäftsbedingungen
  • Datenschutzerklärung

 

seokanzler – neuer SEO Contest zur Ermittlung des SEO Kanzler für Deutschland und Österreich – SEOkomm

7. Oktober 2013 at 11:18

seokanzler contestGanz Deutschland im Wahl-Fieber, nach dem Landtags-, Bundestag- sowie teilweise Bürgermeisterwahlen, wird jetzt der SEO-Kanzler für Deutschland auf dem SEO-Day in Köln (Ranking in google.de) sowie für Österreich auf der SEOkomm(Ranking in google.at) in Salzburg gekürt?

SEO Urgestein Fabian Rossbacher hat heute um 10.00 Uhr das (Un-)Wort für den aktuellsten SEO-Contest veröffentlicht, welches lautet: seokanzler.

Das Keyword zur bestimmung des Rankings ist wie immer ein fiktives Wort (wie zuletzt war es seophonist), um das Ranking in den Google-Suchergebnislisten (kurz: SERP) wird ab sofort heiß gekämpft. Neu an diesem Contest ist, dass sowohl der SEOKanzler für Deutschland (google.de) als auch für Österreich (google.at) gesucht wird.

Der Sieger bzw. SEOKanzler in Deutschland wird am 16.10.2013 um 18.00 Uhr bestimmt auf dem SEO Day in Köln. Die Preise im SEO-Contest können sich diesmal echt sehen lassen: Es gibt unter Anderem ein Life-Time-Ticket für den SEO-Day,  diverse Medaillen, Urkunden, ein Hightech Grill sowie diversen Gutscheinen für die wichtigsten und bekanntesten SEO-Tools.

Am 22.11.2013 um 22 Uhr wird der SEOKanzler für Österreich (Ranking in google.at) bestimmt. Der Gewinner darf sich u.a. über ein SEOKomm 2014 Megaticket freuen.

Ich bin gespannt auf das Ergbnis und vor allem die Analyse des Gewinners.

Weitere Informationen zur seokanzler-Wahl gibt es auf diesen beiden Seiten (weiterführende Links):

seokomm.at
seo-day.de

Magento SEO: URL mit /index.php/ in der URI umleiten auf URL ohne

15. April 2013 at 15:32

Per Standard ist es in Magento möglich alle URLs jeweils mit /index.php/ in der URI, als auch ohne aufzurufen.
Hierdurch entsteht im schlimmstenfall ein „duplicate content“ Problem.

Um das Problem zu lösen, ist es sinnvoll die URL mit der /index.php/ auf die URL ohne diesen URI-Part zu leiten,
daher per mod_rewrite von z.b. /index.php/katalog auf /katalog

So geht’s:

RewriteRule ^index.php/(.*) $1 [R=301,QSA,L]

Zu empfehlen ist den Admin-Bereich auszugliedern, da Suchmaschinen auf diesen sowieso kein Zugriff haben (sollten)!

Admin Bereich als Ausnahme definierfen

RewriteCond %{REQUEST_URI} !^/index.php/admin/
RewriteRule ^index.php/(.*) $1 [R=301,QSA,L]

 

Fandet ihr diesen Tipp nützlich?
Dann bewertet diesen doch bitte und teilt ihn bei Google+ oder Facebook, danke!

Robots.txt in Magento

5. März 2013 at 15:32

Die Robots.txt dient zur Steuerung der Webcrawler diverse Suchmaschinen, primär wird dort fest gelegt welche Seiten nicht gecrawlt werden sollen.

Magento hat viele Ordner und Dateien sowie Parameter/Filter, etc. welche nicht gescannt werden sollten, sei es aus Sicherheitsgründen als auch um das Duplicate Content Problen in den Griff zu bekommen:

## robots.txt for Magento Community and Enterprise

## GENERAL SETTINGS

## Enable robots.txt rules for all crawlers
User-agent: *

## Crawl-delay parameter: number of seconds to wait between successive requests to the same server.
## Set a custom crawl rate if you’re experiencing traffic problems with your server.
# Crawl-delay: 30

## Magento sitemap: uncomment and replace the URL to your Magento sitemap file
# Sitemap: http://www.example.com/sitemap/sitemap.xml

## DEVELOPMENT RELATED SETTINGS

## Do not crawl development files and folders: CVS, svn directories and dump files
Disallow: CVS
Disallow: .svn
Disallow: .idea
Disallow: .sql
Disallow: .tgz

## GENERAL MAGENTO SETTINGS

## Do not crawl Magento admin page
Disallow: /admin/

## Do not crawl common Magento technical folders
Disallow: /app/
Disallow: /downloader/
Disallow: /errors/
Disallow: /includes/
Disallow: /lib/
Disallow: /pkginfo/
Disallow: /shell/
Disallow: /var/

## Do not crawl common Magento files
Disallow: /api.php
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /get.php
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /README.txt
Disallow: /RELEASE_NOTES.txt

## MAGENTO SEO IMPROVEMENTS

## Do not crawl sub category pages that are sorted or filtered.
Disallow: /*?dir*
Disallow: /*?dir=desc
Disallow: /*?dir=asc
Disallow: /*?limit=all
Disallow: /*?mode*

## Do not crawl 2-nd home page copy (example.com/index.php/). Uncomment it only if you activated Magento SEO URLs.
## Disallow: /index.php/

## Do not crawl links with session IDs
Disallow: /*?SID=

## Do not crawl checkout and user account pages
Disallow: /checkout/
Disallow: /onestepcheckout/
Disallow: /customer/
Disallow: /customer/account/
Disallow: /customer/account/login/

## Do not crawl seach pages and not-SEO optimized catalog links
Disallow: /catalogsearch/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/

## SERVER SETTINGS

## Do not crawl common server technical folders and files
Disallow: /cgi-bin/
Disallow: /cleanup.php
Disallow: /apc.php
Disallow: /memcache.php
Disallow: /phpinfo.php

## IMAGE CRAWLERS SETTINGS

## Extra: Uncomment if you do not wish Google and Bing to index your images
# User-agent: Googlebot-Image
# Disallow: /
# User-agent: msnbot-media
# Disallow: /

Verschiedene versionen der robots.txt pro domain/store per htaccess ausliefern – so geht’s

Mit hilfer der folgenden Einträge in der .htaccess-Datei könnt ihr anhand der Domain/Subdomain verschiedene robots.txt ausliefern:

 RewriteEngine on

RewriteCond %{HTTP_HOST} ^.*?domain2\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version1.txt

RewriteCond %{HTTP_HOST} ^.*?domain1\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version2.txt