Google & SEO: HTTPS als Ranking-Signal

7. August 2014 at 11:24

Google-logo-wikipedia

Google sagt offiziell dass sie ein HTTPS überall Netz wollen und seit geraumer Zeit HTTPS als Ranking-Signal verwenden, daher Webseiten mit HTTPS werden bei der Positionierung von Suchergebnissen besser behandelt als HTTP_Seiten.

Daher sollte aus SEO-Gesichtspunkten (und ggf. für eine bessere Sicherheit) dieWebseiten alle nur noch im HTTPS-Modus laufen.

BTW: Die SSL-Sicherheit einer Webseite kann geprüft werden über die Webseite https://www.ssllabs.com/ssltest/
Quelle (Google Webmaster Blog):

http://googlewebmastercentral-de.blogspot.de/2014/08/https-als-ranking-signal.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+blogspot/vIRG+(Webmaster-Zentrale+Blog)

SEO: Googles Trust Factor als Ranking-Faktor (Was beeinflusst diesen?)

6. Januar 2014 at 12:34

Häufig wird davon gesprochen dass Google einer Seite ein bestimmten Trust zuweist. Nicht jedem ist klar was damit gemeint ist bzw. welche Kriterien für Google bedeutend sind und damit den Trust beeinflussen.

Wie setzt sich der Google Trust Factor zusammen?

Aus diesem Grund möchte ich an dieser Stelle kurz erklären welche Faktoren für den Google Trust Factor bedeutend sind.

Der Google Trust Factor setzt sich aus einzelnen Faktoren zusammen (OnPage als auch OffPage Faktoren). Je höher dabei der Trust einer Seite ist, desto wahrscheinlicher ist es, dass bestimmte Seiten/Artikel zu bestimmten Suchanfragen in den SERPS besser ranken als Seiten mit vergleichbaren Inhalten.

Folgende Faktoren sind wichtig für den Google Trust Factor:

  • viele Lange Artikel und einzigartige Inhalte
  • die Website enthält AGBs und eine Datenschutzerklärung
  • Ausgehende Links auf andere Trust-Seiten (z.b. wikipedia.de)
  • die Anzahl an Social Signals (likes, +1, etc. auf google+ oder facebook)
  • eine lange Verweildauer der Besucher auf der Website
  • die Anzahl Backlinks von Seiten mit hohem Trust
  • eine geringe Ladegeschwindigkeit der WebSeite

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

robots.txt vs. noindex

13. Dezember 2013 at 17:51

seokanzler contest

Des Öfteren werde ich gefragt welche die Beste Möglichkeit ist die indexierung einer Seite durch Google zu unterbinden.

Methoden um die indexierung von webseiten zu unterbinden

Dazu gibt es bekannterweise verschiedene Möglichkeiten, am interessantesten ist hierbei der Einsatz der robots.txt sowie den meta noindex-Metatag .

Klingt erst mal einfach, ist es aber nicht! 😉

Der Irrglaube

Weit verbreitet ist der Irrglaube dass eine in der robots.txt mit disallow markierte URL nicht indexiert werden kann. Das ist schlichtweg falsch! Die robots.txt dient nur zur Steuerung des jeweiligen Crawlers der Suchmaschinenanbieter. In der Regel halten sich diese an die Einträge in der robots.txt, eine Pflicht dazu gibt es allerdings nicht. Praxis Erfahrungen zeigen das selbst Google sich nicht immer an diese Einträge hält.

Übrigens der historische Zweck der robots.txt war, den Crawler von den Bereichen der Website fern zu halten, die eine besonders hohe Serverlast erzeugten. Der Nebeneffekt dabei: die per robots.txt “geschützten” URLs konnten nicht in den Index gelangen.

Aktuell ist es allerdings so, das Google selbst eintscheidet welche Links sie verfolgen und indexieren und welche nicht. Hat ein Link bzw. eine Seite für Google eine sehr hohe Bedeutung, so kann bereits ein Link auf eine URL reichen um die URL in den Index mit aufzunehmen. Dabei nimmt Google so gar Seiten auf, wenn sie vom Crawler noch nicht einmal besucht wurden.

Und schwups sind Seiten im Index die per robots.txt gesperrt sind.

Die Praxis-Falle

In der Praxis würde jetzt der Webseitenbetreiber nachträglich ein meta-tag mit noindex setzen – <meta name=“robots“ content=“noindex“>. Gut gemeint aber jetzt passiert folgendes: nix

???

Da die Seite per Disallow-Anweisung in der robots.txt-Datei für den crawler gesperrt ist, besucht dieser die Seite nicht und z.B. Google kennt diesen Meta-Tag auf dieser Seite nicht, da die Seite selbst nicht besucht wird.

Der Einsatz von robots.txt und des Noindex-Metatags widerspricht sich hiermit und deshalb sollten die Einträge abgestimmt werden!

robots.txt und metatag-nofollow richtig einsetzen

Wie lösen wir jetzt das Problem bzw. wie setzen wir die beiden „Tools“ korrekt ein?

Die robots.txt sollte immer nur dann verwendet werden, wenn es erwünscht ist dass ein Crawler auf eine geschützten URLs nicht zugreifen soll oder einfach die Last des Servers gesenkt werden soll. Das kann sein z.b. der Login-Bereich, bestimmte Bilder, Dateien, etc. pp, auch das duplicate Content Problem kann damit angegangen werden.

So erreichen wir dass der Crawler sich nicht mit unnötigen URLs verlustiert und anschließend keine Ressourcen mehr für die wichtigen Seiten übrig hat. Aus SEO-Sicht müssen wir ggf. damit leben, dass manche URLs trotzdem im Google-Index gelistet werden.

Wollen wir definitiv das Listing einer Seite im Google-Index verhindern, so kommen wir um den Einsatz eines noindex-Metatag nicht herum. Dabei ist zu berücksichtigen dass die Suchmaschinen Zugriff auf diese Seite haben und sie NICHT per robots.txt als disallow markiert ist.

Übrigens, der Einsatz des nofollow-attributes für links ist nur eine Empfehlung für die Suchmaschinen diese Seite nicht zu indexieren. In der Praxis hält sich Google sowieso nicht daran, bewertet die Links nur schlechter beim Ranking. Hinzu kommt das Google seiten auch negativ sieht welche nur nofollow-tags haben. Ist ja klar, die Seite erlaubt Google keine ausgehenden Links zu scannen und ist für den Crawler eine Sackgasse.

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

Google zertifiziert Online-Händler alternative zu Trusted Shops

28. November 2013 at 16:50

Google-logo-wikipedia

Wie schon Mitte 2012 angekündigt ist mittlerweile das Google Zertifizierungs Programm für Webshops in Deutschland verfügbar.

Durch Google Zertifizierte Shops erhalten ein Gütesiegel, ähnlich wie Trusted Shops oder dem TÜV-Siegel. Damit lässt sich natürlich schön werben und Kunden mögen so etwas ja. Hinzu kommt das google die Shops besser listet und schlussendlich sicher auch besser ranked, vor allem in google shopping.

Bereits zu sehen in deutschen Stores von Pearl, Campz, fahrrad.de, Atelco, hardwareversand.de und Spartoo.

Was noch?

Käuferschutz … wie von paypal & der ehemals beliebten versteigerungsplattform „ebay“ bekannt, erhält der Käufer ein Käuferschutz von max. 1000€ pro Käufer.

Googles möchte ganz klar ein wenig mehr vom Kuchen eCommerce abhaben, zu letzt wurde ja die hauseigen music & app-plattform gelaunched, hinzu kommt dass google shopping bald shops besser listet die sich einkaufen. Die ersten Google Offline-Shops kommen mit dem Rollout von Google-Glasses.

Und was bringt es wenn ein Shop zertifiziert wird?

Ich sehe dieses zertifizierung ganz klar als Alternative bzw. Ergänzung zum TÜV bzw. Trusted Shops. Mehr Trust beim Käufer heißt mehr Conversion und damit mehr Umsatz.

Webseite von Google zu „Google Zertifizierte Händler“

Weitere News zum Thema z.b. hier

Sitemap.xml

11. Oktober 2013 at 10:49

Es muss eine sitemap.xml erstellt werden zur einen Auflistung der einzelnen Seiten für die Suchmaschinen. Diese sollte regelmäßig bei Änderungen automatisch durch ein Cron aktualisiert werden.

Infos zur Sitemap.xml unter http://de.wikipedia.org/wiki/Sitemaps-Protokoll

Bei Sitemaps mit vielen Inhalten, daher > 10.000 URLs bitte eine gepackte sitemap.gz zur Verfügung stellen. Google akzeptiert zum aktuellen Stand max. 50.0000 Produkte/URLs pro ungepackter sitemap.xml.

Die sitemap.xml sollte in der robots.txt sowie in den Google Webmastertools eintragen werden.

Zu beachten ist, dass Links nicht doppelt gelistet werden dürfen und die Links immer eindeutig sein müssen. Daher auch darauf achten dass die Links einheitlich sind, z.B immer mit oder ohne endenden Slash, etc.!

Wenn z.B. an allen URLs automatisch per 301-Weiterleitung ein endender Slash angehängt wird, um zu vermeiden dass dadurch duplicate Content entsteht, so muss die endende URL in der Sitemap.xml eingetragen werden. In der Sitemap dürfen keine Links enthalten sein welche umgeleitet werden, dies führt zu Fehlermeldungen seitens Google. Generell ist in den Google Webmastertools zu prüfen ob die Sitemap.xml erfolgreich validiert wurde bzw. entsprechende Fehlermeldungen auszuwerten.

Die enthaltenen URLs müssen identisch mit den real verwendeten Shop-URLs sein, daher keine Weiterleitungen, da diese bei der Aufnahme durch Google abgelehnt werden.

Tipp

Ebenfalls zu beachten ist, dass bei einem Multi Domain Shop jeweils eine eigene robots.txt pro Domain ausgeliefert wird und auch die Sitemap.xml jeweils mit der korrekten Domain verlinkt ist.

Robots.txt in Magento

5. März 2013 at 15:32

Die Robots.txt dient zur Steuerung der Webcrawler diverse Suchmaschinen, primär wird dort fest gelegt welche Seiten nicht gecrawlt werden sollen.

Magento hat viele Ordner und Dateien sowie Parameter/Filter, etc. welche nicht gescannt werden sollten, sei es aus Sicherheitsgründen als auch um das Duplicate Content Problen in den Griff zu bekommen:

## robots.txt for Magento Community and Enterprise

## GENERAL SETTINGS

## Enable robots.txt rules for all crawlers
User-agent: *

## Crawl-delay parameter: number of seconds to wait between successive requests to the same server.
## Set a custom crawl rate if you’re experiencing traffic problems with your server.
# Crawl-delay: 30

## Magento sitemap: uncomment and replace the URL to your Magento sitemap file
# Sitemap: http://www.example.com/sitemap/sitemap.xml

## DEVELOPMENT RELATED SETTINGS

## Do not crawl development files and folders: CVS, svn directories and dump files
Disallow: CVS
Disallow: .svn
Disallow: .idea
Disallow: .sql
Disallow: .tgz

## GENERAL MAGENTO SETTINGS

## Do not crawl Magento admin page
Disallow: /admin/

## Do not crawl common Magento technical folders
Disallow: /app/
Disallow: /downloader/
Disallow: /errors/
Disallow: /includes/
Disallow: /lib/
Disallow: /pkginfo/
Disallow: /shell/
Disallow: /var/

## Do not crawl common Magento files
Disallow: /api.php
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /get.php
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /README.txt
Disallow: /RELEASE_NOTES.txt

## MAGENTO SEO IMPROVEMENTS

## Do not crawl sub category pages that are sorted or filtered.
Disallow: /*?dir*
Disallow: /*?dir=desc
Disallow: /*?dir=asc
Disallow: /*?limit=all
Disallow: /*?mode*

## Do not crawl 2-nd home page copy (example.com/index.php/). Uncomment it only if you activated Magento SEO URLs.
## Disallow: /index.php/

## Do not crawl links with session IDs
Disallow: /*?SID=

## Do not crawl checkout and user account pages
Disallow: /checkout/
Disallow: /onestepcheckout/
Disallow: /customer/
Disallow: /customer/account/
Disallow: /customer/account/login/

## Do not crawl seach pages and not-SEO optimized catalog links
Disallow: /catalogsearch/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/

## SERVER SETTINGS

## Do not crawl common server technical folders and files
Disallow: /cgi-bin/
Disallow: /cleanup.php
Disallow: /apc.php
Disallow: /memcache.php
Disallow: /phpinfo.php

## IMAGE CRAWLERS SETTINGS

## Extra: Uncomment if you do not wish Google and Bing to index your images
# User-agent: Googlebot-Image
# Disallow: /
# User-agent: msnbot-media
# Disallow: /

Verschiedene versionen der robots.txt pro domain/store per htaccess ausliefern – so geht’s

Mit hilfer der folgenden Einträge in der .htaccess-Datei könnt ihr anhand der Domain/Subdomain verschiedene robots.txt ausliefern:

 RewriteEngine on

RewriteCond %{HTTP_HOST} ^.*?domain2\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version1.txt

RewriteCond %{HTTP_HOST} ^.*?domain1\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version2.txt

SEO: Das semantische Web – Web 3.0 – Internet im Jahr 2012/2013

19. September 2012 at 11:50

Immer wieder stolpert man über die Begriffe „Web 2.0“ und „Web 3.0“. Aber was steckt dahinter? Sind es nur neue Buzz-Wörter der Social-Media-Jugend?

Das Web 2.0

Mit Web 2.0 ist das heutige für die Benutzer weitestgehend interaktive Internet gemeint. Die Mehrzahl der Inhalte werden von den Anwendern generiert, nicht mehr primär statisch von den Webseitenbetreibern vorgegeben wie im „Web 1.0“. Als gute Beispiele sind Wikipedia, Youtube oder Facebook zu nennen. Ohne die von den Anwendern bei gesteuerten Inhalte wären diese Seiten nahezu nutzlos. Aber genau das Gegenteil ist der Fall, die Seiten erleben nahezu ein mega Boom, die Besucherzahlen sind enorm, die Akzeptanz sehr positiv und der Bekanntheitsgrad sehr hoch, weniger aktive Internet-Anwender kennen und nutzen diese Plattformen.

Web 3.0

Aber was ist jetzt das Web 3.0?

Das Web 3.0 ist ein semantisches Web. Die Daten auf der Webseite werden so gekennzeichnet, dass sie von Maschinen (zb Suchmaschinen wie Google.de) detailliert erkannt, kategorisiert und anschließend verarbeitet bzw angezeigt werden können. Aktuell können Maschinen die Daten zwar in der Summe einlesen, allerdings nicht immer detailliert trennen. Wir Menschen unterscheiden die verschiedenen Daten (zb Preis, Name eines Produktes, Beschreibung des Produktes, Artikel-Nr., etc.) durch die Formatierungen, Labels, Überschriften oder anhand anderer Kennzeichen.

Für zb Suchmaschinen ist diese Unterscheidung nicht ohne weiteres Möglich. Aus diesem Grund werden diese Daten explizit eindeutig gekennzeichnet, so das auch Maschinen diese erkennen. Hier ein Beispiel für ein semantische Kennzeichnung:

<stadt>Hannover</stadt> liegt an der <fluss>Leine</fluss>.<author>Daniel Briegert</author> hat diesen Text geschrieben.

Hierdurch ergeben sich viele positive Optimierungsmöglichkeiten, gerade im Umfeld der Suchmaschinenoptimierung (kurz: SEO).
Google selbst liest diese Daten bereits aus und stellt sie gesondert da. Primär über Rich Snippets (seit 2009).

Semantisches Web für SEOs

Welche Auszeichnungen über Rich Snippets sind aktuell am wichtigsten und damit für SEO ein „must have“?
Allgemein kann man sagen: „je mehr, umso besser und sei es nur um für die Zukunft gerüstet zusein!“. Nachteil ist allerdings ggf ein erhöhter Wartungsaufwand, ändern sich die Auszeichnungsstandards leider immer noch in unregelmäßigen Abständen bzw werde ergänzt oder ersetzt.

Aktuell kann die Auszeichnung von Bewertungen, Autoren und die Anzahl der Kommentare die Klickrate in den SERPS deutlich erhöhen, und das bei Gleichzeitig sinkender Absprungrate. Deshalb empfehle ich diese zu implementieren.

Semantische Auszeichnungen in Webshops

Neben der genannten Bewertungsauszeichnungen ist es sinnvoll bei Webshops gerade auf den Produktseiten die jeweiligen Produkteigenschaften auszuzeichnen.

Diese können sein:
Preis
Artikelnummer
rabattierter Preis
Hersteller
Größe
Farbe
Währung
Etc.

Allg. wichtig ist die Auszeichnung der jeweilig relevanten Eigenschaften folgender Seiten bzw Daten:

Events und Veranstaltungen
Produkte und Angebote
Bewertungen
Geschäfte, Restaurants und Organisationen
Filme, Bücher und Rezepte

Zur Auszeichnung empfiehlt sich das Microdata-Markup gemäß schema.org zu verwendet. Zur Validierung, ob das Markup korrekt implementiert wurde, empfehle ich das kostenlose Google Rich Snippet Testing Tool.

Ergänzende Artikel:

Wenn dir der Artikel gefallen hat bzw ein Mehrwert für dich war, wäre ich dankbar wenn du diesen Artikel in den Sozialen-Medien teilen und „liken“ könntest, danke!

Google gegen sexuelle Aufklärung und Gesundheitstipps – Verbot dieser Themen bei Google Adsense Schaltung

14. Juni 2012 at 10:23
Walpurgisnacht in Bad-Grund

© Rainer Dollichon / piqs.de

Im Jahr 2012 unglaublich, aber wahr.

Google bzw. Google Adsense verbietet Webseitenbetreiber jegliche Artikel zum Thema sexuelle Aufklärung oder Gesundheitstipps. Im Detail schreiben Sie:

Sehr geehrte AdSense-Kundin, sehr geehrter AdSense-Kunde, bei der letzten Überprüfung Ihres Kontos haben wir festgestellt, dass Sie derzeit Google-Anzeigen auf eine Art und Weise schalten, die gemäß unseren Programmrichtlinien nicht zulässig ist (https://www.google.com/support/adsense/bin/answer.py?hl=de&answer=48182&stc=aspe-1pp-en).

 

GEFUNDENE VERSTÖSSE:

NICHT JUGENDFREIE THEMEN / SEXUELLE GESUNDHEIT / TIPPS BEZÜGLICH
SEXUALITÄT: Gemäß unseren Programmrichtlinien dürfen AdSense-Publisher
keine Google-Anzeigen auf Seiten mit nicht jugendfreiem Content bzw.
Content für Erwachsene schalten. Dies gilt möglicherweise auch für Themen
wie sexuelle Gesundheit und Tipps oder Ratschläge bezüglich Sexualität.
Weitere Informationen zu dieser Richtlinie erhalten Sie in der
AdSense-Hilfe
(https://www.google.com/adsense/support/bin/answer.py?hl=de&answer=105957).

GEFORDERTE AKTION: Bitte nehmen Sie alle erforderlichen Änderungen
innerhalb der nächsten 72 Stunden vor.

Wenn die Verstöße innerhalb des genannten Zeitraums behoben werden, wird
die Anzeigenschaltung nicht beeinträchtigt. Sollten keine Änderungen
vorgenommen bzw. andere Richtlinienverstöße während des Freigabeverfahrens
festgestellt werden, wird die Anzeigenschaltung für Ihre Website
deaktiviert.

Das hätte der Papst bzw. die katholische Kirche nicht besser schreiben können.

Da es so unglaublich ist, hier noch einmal:

GEFUNDENE VERSTÖSSE:

NICHT JUGENDFREIE THEMEN / SEXUELLE GESUNDHEIT / TIPPS BEZÜGLICH
SEXUALITÄT: Gemäß unseren Programmrichtlinien dürfen AdSense-Publisher
keine Google-Anzeigen auf Seiten mit nicht jugendfreiem Content bzw.
Content für Erwachsene schalten. Dies gilt möglicherweise auch für Themen
wie sexuelle Gesundheit und Tipps oder Ratschläge bezüglich Sexualität.

Keine Aufklärung zu Themen wie sexuelle Gesundheits oder Tipps oder Ratschläge bezüglich Sexualität.

Nee is klar … Hier wird wohl sehr negativ ersichtlich dass Google ein amerikanischens und daher arg prüdes Unternehmen ist.
Sexuelle Aufklärung ist da nicht erwünscht, Krankheiten werden generell tot geschwiegen und die Welt ist schön.

Armes Google ….armes Internet …

Résumé: google is evil!

SEO – Mehrsprachigkeit: Was ist besser? Mehrere Länderdomains oder eine .com?

8. Mai 2012 at 18:23

Auf der Suche nach geeigneten Domains für eine neue Webseite wird oft die Frage gestellt „Mehrere Länderdomains oder eine .com?“. Als Beispiel fällt mir ein Web-Shops ein, welcher in verschiedenen Ländern präsent sein soll.

Klares Pro-Argument ist ein psychologischer Faktor, und zwar werden bei der breiten Masse der Internetbenutzer (primär ältere Nutzer) Webseiten mit der Länderdomain des jeweiligen Landes, als vertrauenswürdiger angesehen und damit auch mehr genutzt. Google selbst kann die Seiten ebenfalls besser zuordnen, vor allem bei der lokalen-Suche kann dieser Faktor ein Mehrwert sein. Auch kann es durchaus sein dass Anwender die jeweilige Domain intuitiv eingeben oder teile der Domain bei google.de, so dass diese als Vorschlag erscheint.

Aber was ist jetzt SEO-technisch die beste Lösung?

Da großer internationaler Konzern, lieber eine „große“ .com oder .eu Domain mit vielen Unterseiten und den jeweiligen Sprachversionen als Unterkategorien oder doch lieber mehrere Domains mit Länderendungen (.de, .co.uk, .fr, etc.)?

Und was ist jetzt bei gleichsprachigen Ländern wie z.B. Österreich (.at) und gleichzeitig Deutschland (.de)?
Wie wird da verhindert das Google beide  Seiten bzgl. duplicate content abstraft?

Viele Fragen, auf die ich in diesem Artikel eingehen möchte.

Bei der Lösung mit jeweils eigenständigen Länder-Domains, erfolgt eine Aufsplittung der eingehenden Linkpower, wobei bei der 1-Domain-Lösung (z.B. über .com oder .eu mit jeweils Unterseiten pro Land) die Domain den gesamten Link-Juice abbekommt.

Ist das überhaupt ein Problem? Ist mit diesem Faktor schon die Entscheidung gefallen?

Nicht ganz und vor allem ist es weit wichtiger, auch über die regionalen Suche gefunden zu werden.

Mit der .com wird die Seite zwar auch gefunden, wenn jemand „Seiten aus Deutschland“ bei Google anklickt (oder je nach dem aus welchem Land die IP kommt), jedoch nicht Seiten aus Östereich / Seiten aus der Schweiz etc.!

Mit .de, .ch, .at etc. wird automatisch auch die Seite mit der Regionalen Suche gefunden. Was wiederum einfacher zu optimieren ist.

Und wie lösen wir das Duplicate Content Problem bei Seiten mit der selben Sprache aber unterschiedlicher Domain?

Jetzt steht weiterhin dass Problem, der doppelten Inhalte auf zwei verschiedenen Webseiten/Domains mit der selben Sprache, im Raum (z.B. .de und .at). Wie lösen? Durch 301 oder canonical-link würden nicht beide Varianten auch in den SERPs gelistet, was allerdings gewollt ist.

Internationale und mehrsprachige Websites

Schauen wir doch mal bei Google in der FAQ dort wird unser Beispiel genannt.
Gerade im spanischen Raum (Latainamerika, Spanien, etc.) kommt es zu ähnlichen Problen.
Hier geht Google im Detail auf das Problem „Duplizierter Content und internationale Websites“ ein.

Interessant ist meiner Meinung nach die Kombination beider Varianten, daher schon auf die jeweiligen Länderdomains setzen, allerdings auch ein offizielles Länder-Kürzel mit in die URL aufzunehmen, z.B. bei der kanadischen Domain:

http://example.ca/fr/vélo-de-montagne.html http://fr.example.ca/vélo-de-montagne.html

Google sagt dazu

Ein Hinweis auf die Sprache in der URL kann auch dabei helfen, Probleme mit mehrsprachigem Content auf Ihrer Website zu ermitteln.

„Ein Hinweis auf die Sprache in der URL kann auch dabei helfen, Probleme mit mehrsprachigem Content auf Ihrer Website zu ermitteln.

Zusätzlich geht Google auf das Thema „Duplizierter Content und internationale Websites“ ein, allerdings wird genau das Problem nicht erklärt, sondern darauf verwiesen per canonical oder redirect auf die als „bevorzugte Version“ fest gelegte Seite zu leiten. Aber genau das wollen wir ja nicht, die Seiten sollen sowohl mit der .de-domain in den deutschen SERPs als auch mit der .AT-Domain in den Österreichischen SERPs gelistet werden, auch mit dem selben Content.

Ich denke dieser Weg ist Bestandteil der Lösung (neben einbinden der Sprache in der URI):

Einstellungen für die geografische Ausrichtung (Geotargeting). Mithilfe des Geotargeting-Tools in den Webmaster-Tools können Sie für Google angeben, dass Ihre Website auf ein bestimmtes Land ausgerichtet ist. Dies sollten Sie jedoch nur tun, falls Ihre Website eine gTLD (Generic Top-Level Domain) aufweist. Falls sich Ihre Website an mehrere Länder richtet, sollten Sie dieses Tool nicht verwenden. Es wäre beispielsweise sinnvoll, für eine Website über Restaurants in Montreal „Kanada“ als Ziel einzustellen. Hingegen ist dieses Ziel für eine Website, die sich an französischsprachige Nutzer in Frankreich, Kanada und Mali richtet, nicht geeignet.

Zuständlich sollte das Markup Linkelements „rel=“alternate“ hreflang  zur Auszeichnung verwendet werden:

<link rel="alternate" hreflang="es" href="http://www.example.com/" />
<link rel="alternate" hreflang="es-ES" href="http://es-es.example.com/" />
<link rel="alternate" hreflang="es-MX" href="http://es-mx.example.com/" />
<link rel="alternate" hreflang="en" href="http://en.example.com/" />

Anwendungsbeispiel für Österreich, Schweiz & Deutschland

URL: www.website.de/beispielseite/
<link rel=“alternate“ hreflang=“de-AT“ href=“http://www.website.at/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-CH“ href=“http://www.website.ch/beispielseite/“ />

URL: www.website.ch/beispielseite/
<link rel=“alternate“ hreflang=“de-AT“ href=“http://www.website.at/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-DE“ href=“http://www.website.de/beispielseite/“ />

URL: www.website.at/beispielseite/
<link rel=“alternate“ hreflang=“de-CH“ href=“http://www.website.ch/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-DE“ href=“http://www.website.de/beispielseite/“ />

Über hreflang wird also neben der Sprache auch die Region hinterlegt, in der die jeweilige Seite ausgespielt werden soll.

Quelle: googlewebmastercentral-de.blogspot.de/2011/12/neues-markup-fur-mehrsprachige-inhalte.html

Was meint Ihr zu diesem Thema?
Ich würde mich freuen wenn ihr eure Meinung als Kommentar schreibt.

 

Anwendungsbeispiel


URL: www.website.de/beispielseite/

<link rel=“alternate“ hreflang=“de-AT“ href=“http://www.website.at/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-CH“ href=“http://www.website.ch/beispielseite/“ />

URL: www.website.ch/beispielseite/
<link rel=“alternate“ hreflang=“de-AT“ href=“http://www.website.at/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-DE“ href=“http://www.website.de/beispielseite/“ />

URL: www.website.at/beispielseite/
<link rel=“alternate“ hreflang=“de-CH“ href=“http://www.website.ch/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-DE“ href=“http://www.website.de/beispielseite/“ />

Über hreflang wird also neben der Sprache auch die Region hinterlegt, in der die jeweilige Seite ausgespielt werden soll.

SEO: Tipps zur optimierung der Ladezeiten einer Webseite – Pagespeed optimieren – SEO Tipps

30. April 2012 at 12:49
speed ampel geschwindigkeit performance

© Steve Webel / piqs.de

Die Seitengeschwindigkeit (engl. Pagespeed) bzw. genauer die Ladezeit einer Webseite, ist seit 2010 laut Google ein wichtiges Ranking-Kriterium. Daher ist es wichtig diese regelmäßig zu überwachen (Monitoring), bei schlechten Werten zu analysieren und schlussendlich zu optimieren.

An dieser Stelle möchte ich hierzu ein paar Optimierungs-Tipps geben.

Gerne könnt ihr in den Kommentaren Ergänzungen oder Kritiken schreiben, wenn sinnvoll nehme ich diese gerne in den Artikel mit auf.

Test-Tools / Seitengeschwindigkeit analysieren

Google stellt dafür ein kostenloses Tool zum Performance evaluieren der Webseite zur Verfügung, zu erreichen über den folgenden Link.

https://developers.google.com/pagespeed

Das Tool gibt es auch als kostenloses Browser Plugin:

https://developers.google.com/speed/pagespeed/download

Ladezeit mit Google-Analytics messen

Ich empfehle ebenfalls die Ladezeiten auch mit Google-Analytics regelmäßig zu monitoren.
Detailierte Informationen hierzu unter Google-Analytics.

Ziel: regelmäßiges automatisches Monitoring der Ladezeit

Grafiken komprimieren

Die Ladezeit von Grafiken lässt sich durch automatische Komprimierung wesentlich verkürzen,
Qualitätsunterschiede sind für das menschliche Auge fast nicht erkennen. Ein guter Komprimierungs-Dienst ist z.B.:

Tipp:    JPEGmini.com

Ziel: Grafiken verkleinern ohne merklichen Qualitätsverlust – weniger Datenvolumen zwischen Client & Server

Gzip Komprimierung aktiveren

Die automatische Gzip komprimierung lässt sich über die .htaccess ggf. über den Webserver (Provider) konfigurieren und sollte entsprechend aktiviert sein.

Ziel: Datenvolumen zwischen Client & Server verringern

CSS + Javascript Dateien zusammenfassen

Oft werden mehrere CSS und/oder JS-Dateien verwendet. Durch das zusammenfassen dieser Dateien, vermindern sich die HTTP-Requests (aus verschiedenen wird nur noch einer), dadurch erhöht sich ebenfalls die Ladezeit der Webseite.

Ziel: Weniger HTTP-Requests

Cache aktivieren

Wenn möglich ein Cache-Module des Webservers einbinden und aktivieren (z.B. APC oder MemCache).

Ziel: Webseiten werden im Cache vorgehalten, dadurch verringert sich die Last & Ladezeit des Webservers