Google & SEO: HTTPS als Ranking-Signal

7. August 2014 at 11:24

Google-logo-wikipedia

Google sagt offiziell dass sie ein HTTPS überall Netz wollen und seit geraumer Zeit HTTPS als Ranking-Signal verwenden, daher Webseiten mit HTTPS werden bei der Positionierung von Suchergebnissen besser behandelt als HTTP_Seiten.

Daher sollte aus SEO-Gesichtspunkten (und ggf. für eine bessere Sicherheit) dieWebseiten alle nur noch im HTTPS-Modus laufen.

BTW: Die SSL-Sicherheit einer Webseite kann geprüft werden über die Webseite https://www.ssllabs.com/ssltest/
Quelle (Google Webmaster Blog):

http://googlewebmastercentral-de.blogspot.de/2014/08/https-als-ranking-signal.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+blogspot/vIRG+(Webmaster-Zentrale+Blog)

GD Star Rating
loading...
GD Star Rating
loading...

Google zertifiziert Online-Händler alternative zu Trusted Shops

28. November 2013 at 16:50

Google-logo-wikipedia

Wie schon Mitte 2012 angekündigt ist mittlerweile das Google Zertifizierungs Programm für Webshops in Deutschland verfügbar.

Durch Google Zertifizierte Shops erhalten ein Gütesiegel, ähnlich wie Trusted Shops oder dem TÜV-Siegel. Damit lässt sich natürlich schön werben und Kunden mögen so etwas ja. Hinzu kommt das google die Shops besser listet und schlussendlich sicher auch besser ranked, vor allem in google shopping.

Bereits zu sehen in deutschen Stores von Pearl, Campz, fahrrad.de, Atelco, hardwareversand.de und Spartoo.

Was noch?

Käuferschutz … wie von paypal & der ehemals beliebten versteigerungsplattform „ebay“ bekannt, erhält der Käufer ein Käuferschutz von max. 1000€ pro Käufer.

Googles möchte ganz klar ein wenig mehr vom Kuchen eCommerce abhaben, zu letzt wurde ja die hauseigen music & app-plattform gelaunched, hinzu kommt dass google shopping bald shops besser listet die sich einkaufen. Die ersten Google Offline-Shops kommen mit dem Rollout von Google-Glasses.

Und was bringt es wenn ein Shop zertifiziert wird?

Ich sehe dieses zertifizierung ganz klar als Alternative bzw. Ergänzung zum TÜV bzw. Trusted Shops. Mehr Trust beim Käufer heißt mehr Conversion und damit mehr Umsatz.

Webseite von Google zu „Google Zertifizierte Händler“

Weitere News zum Thema z.b. hier

GD Star Rating
loading...
GD Star Rating
loading...

Robots.txt in Magento

5. März 2013 at 15:32

Die Robots.txt dient zur Steuerung der Webcrawler diverse Suchmaschinen, primär wird dort fest gelegt welche Seiten nicht gecrawlt werden sollen.

Magento hat viele Ordner und Dateien sowie Parameter/Filter, etc. welche nicht gescannt werden sollten, sei es aus Sicherheitsgründen als auch um das Duplicate Content Problen in den Griff zu bekommen:

## robots.txt for Magento Community and Enterprise

## GENERAL SETTINGS

## Enable robots.txt rules for all crawlers
User-agent: *

## Crawl-delay parameter: number of seconds to wait between successive requests to the same server.
## Set a custom crawl rate if you’re experiencing traffic problems with your server.
# Crawl-delay: 30

## Magento sitemap: uncomment and replace the URL to your Magento sitemap file
# Sitemap: http://www.example.com/sitemap/sitemap.xml

## DEVELOPMENT RELATED SETTINGS

## Do not crawl development files and folders: CVS, svn directories and dump files
Disallow: CVS
Disallow: .svn
Disallow: .idea
Disallow: .sql
Disallow: .tgz

## GENERAL MAGENTO SETTINGS

## Do not crawl Magento admin page
Disallow: /admin/

## Do not crawl common Magento technical folders
Disallow: /app/
Disallow: /downloader/
Disallow: /errors/
Disallow: /includes/
Disallow: /lib/
Disallow: /pkginfo/
Disallow: /shell/
Disallow: /var/

## Do not crawl common Magento files
Disallow: /api.php
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /get.php
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /README.txt
Disallow: /RELEASE_NOTES.txt

## MAGENTO SEO IMPROVEMENTS

## Do not crawl sub category pages that are sorted or filtered.
Disallow: /*?dir*
Disallow: /*?dir=desc
Disallow: /*?dir=asc
Disallow: /*?limit=all
Disallow: /*?mode*

## Do not crawl 2-nd home page copy (example.com/index.php/). Uncomment it only if you activated Magento SEO URLs.
## Disallow: /index.php/

## Do not crawl links with session IDs
Disallow: /*?SID=

## Do not crawl checkout and user account pages
Disallow: /checkout/
Disallow: /onestepcheckout/
Disallow: /customer/
Disallow: /customer/account/
Disallow: /customer/account/login/

## Do not crawl seach pages and not-SEO optimized catalog links
Disallow: /catalogsearch/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/

## SERVER SETTINGS

## Do not crawl common server technical folders and files
Disallow: /cgi-bin/
Disallow: /cleanup.php
Disallow: /apc.php
Disallow: /memcache.php
Disallow: /phpinfo.php

## IMAGE CRAWLERS SETTINGS

## Extra: Uncomment if you do not wish Google and Bing to index your images
# User-agent: Googlebot-Image
# Disallow: /
# User-agent: msnbot-media
# Disallow: /

Verschiedene versionen der robots.txt pro domain/store per htaccess ausliefern – so geht’s

Mit hilfer der folgenden Einträge in der .htaccess-Datei könnt ihr anhand der Domain/Subdomain verschiedene robots.txt ausliefern:

 RewriteEngine on

RewriteCond %{HTTP_HOST} ^.*?domain2\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version1.txt

RewriteCond %{HTTP_HOST} ^.*?domain1\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version2.txt

GD Star Rating
loading...
GD Star Rating
loading...

SEO: Das semantische Web – Web 3.0 – Internet im Jahr 2012/2013

19. September 2012 at 11:50

Immer wieder stolpert man über die Begriffe „Web 2.0“ und „Web 3.0“. Aber was steckt dahinter? Sind es nur neue Buzz-Wörter der Social-Media-Jugend?

Das Web 2.0

Mit Web 2.0 ist das heutige für die Benutzer weitestgehend interaktive Internet gemeint. Die Mehrzahl der Inhalte werden von den Anwendern generiert, nicht mehr primär statisch von den Webseitenbetreibern vorgegeben wie im „Web 1.0“. Als gute Beispiele sind Wikipedia, Youtube oder Facebook zu nennen. Ohne die von den Anwendern bei gesteuerten Inhalte wären diese Seiten nahezu nutzlos. Aber genau das Gegenteil ist der Fall, die Seiten erleben nahezu ein mega Boom, die Besucherzahlen sind enorm, die Akzeptanz sehr positiv und der Bekanntheitsgrad sehr hoch, weniger aktive Internet-Anwender kennen und nutzen diese Plattformen.

Web 3.0

Aber was ist jetzt das Web 3.0?

Das Web 3.0 ist ein semantisches Web. Die Daten auf der Webseite werden so gekennzeichnet, dass sie von Maschinen (zb Suchmaschinen wie Google.de) detailliert erkannt, kategorisiert und anschließend verarbeitet bzw angezeigt werden können. Aktuell können Maschinen die Daten zwar in der Summe einlesen, allerdings nicht immer detailliert trennen. Wir Menschen unterscheiden die verschiedenen Daten (zb Preis, Name eines Produktes, Beschreibung des Produktes, Artikel-Nr., etc.) durch die Formatierungen, Labels, Überschriften oder anhand anderer Kennzeichen.

Für zb Suchmaschinen ist diese Unterscheidung nicht ohne weiteres Möglich. Aus diesem Grund werden diese Daten explizit eindeutig gekennzeichnet, so das auch Maschinen diese erkennen. Hier ein Beispiel für ein semantische Kennzeichnung:

<stadt>Hannover</stadt> liegt an der <fluss>Leine</fluss>.<author>Daniel Briegert</author> hat diesen Text geschrieben.

Hierdurch ergeben sich viele positive Optimierungsmöglichkeiten, gerade im Umfeld der Suchmaschinenoptimierung (kurz: SEO).
Google selbst liest diese Daten bereits aus und stellt sie gesondert da. Primär über Rich Snippets (seit 2009).

Semantisches Web für SEOs

Welche Auszeichnungen über Rich Snippets sind aktuell am wichtigsten und damit für SEO ein „must have“?
Allgemein kann man sagen: „je mehr, umso besser und sei es nur um für die Zukunft gerüstet zusein!“. Nachteil ist allerdings ggf ein erhöhter Wartungsaufwand, ändern sich die Auszeichnungsstandards leider immer noch in unregelmäßigen Abständen bzw werde ergänzt oder ersetzt.

Aktuell kann die Auszeichnung von Bewertungen, Autoren und die Anzahl der Kommentare die Klickrate in den SERPS deutlich erhöhen, und das bei Gleichzeitig sinkender Absprungrate. Deshalb empfehle ich diese zu implementieren.

Semantische Auszeichnungen in Webshops

Neben der genannten Bewertungsauszeichnungen ist es sinnvoll bei Webshops gerade auf den Produktseiten die jeweiligen Produkteigenschaften auszuzeichnen.

Diese können sein:
Preis
Artikelnummer
rabattierter Preis
Hersteller
Größe
Farbe
Währung
Etc.

Allg. wichtig ist die Auszeichnung der jeweilig relevanten Eigenschaften folgender Seiten bzw Daten:

Events und Veranstaltungen
Produkte und Angebote
Bewertungen
Geschäfte, Restaurants und Organisationen
Filme, Bücher und Rezepte

Zur Auszeichnung empfiehlt sich das Microdata-Markup gemäß schema.org zu verwendet. Zur Validierung, ob das Markup korrekt implementiert wurde, empfehle ich das kostenlose Google Rich Snippet Testing Tool.

Ergänzende Artikel:

Wenn dir der Artikel gefallen hat bzw ein Mehrwert für dich war, wäre ich dankbar wenn du diesen Artikel in den Sozialen-Medien teilen und „liken“ könntest, danke!

GD Star Rating
loading...
GD Star Rating
loading...

Google gegen sexuelle Aufklärung und Gesundheitstipps – Verbot dieser Themen bei Google Adsense Schaltung

14. Juni 2012 at 10:23
Walpurgisnacht in Bad-Grund

© Rainer Dollichon / piqs.de

Im Jahr 2012 unglaublich, aber wahr.

Google bzw. Google Adsense verbietet Webseitenbetreiber jegliche Artikel zum Thema sexuelle Aufklärung oder Gesundheitstipps. Im Detail schreiben Sie:

Sehr geehrte AdSense-Kundin, sehr geehrter AdSense-Kunde, bei der letzten Überprüfung Ihres Kontos haben wir festgestellt, dass Sie derzeit Google-Anzeigen auf eine Art und Weise schalten, die gemäß unseren Programmrichtlinien nicht zulässig ist (https://www.google.com/support/adsense/bin/answer.py?hl=de&answer=48182&stc=aspe-1pp-en).

 

GEFUNDENE VERSTÖSSE:

NICHT JUGENDFREIE THEMEN / SEXUELLE GESUNDHEIT / TIPPS BEZÜGLICH
SEXUALITÄT: Gemäß unseren Programmrichtlinien dürfen AdSense-Publisher
keine Google-Anzeigen auf Seiten mit nicht jugendfreiem Content bzw.
Content für Erwachsene schalten. Dies gilt möglicherweise auch für Themen
wie sexuelle Gesundheit und Tipps oder Ratschläge bezüglich Sexualität.
Weitere Informationen zu dieser Richtlinie erhalten Sie in der
AdSense-Hilfe
(https://www.google.com/adsense/support/bin/answer.py?hl=de&answer=105957).

GEFORDERTE AKTION: Bitte nehmen Sie alle erforderlichen Änderungen
innerhalb der nächsten 72 Stunden vor.

Wenn die Verstöße innerhalb des genannten Zeitraums behoben werden, wird
die Anzeigenschaltung nicht beeinträchtigt. Sollten keine Änderungen
vorgenommen bzw. andere Richtlinienverstöße während des Freigabeverfahrens
festgestellt werden, wird die Anzeigenschaltung für Ihre Website
deaktiviert.

Das hätte der Papst bzw. die katholische Kirche nicht besser schreiben können.

Da es so unglaublich ist, hier noch einmal:

GEFUNDENE VERSTÖSSE:

NICHT JUGENDFREIE THEMEN / SEXUELLE GESUNDHEIT / TIPPS BEZÜGLICH
SEXUALITÄT: Gemäß unseren Programmrichtlinien dürfen AdSense-Publisher
keine Google-Anzeigen auf Seiten mit nicht jugendfreiem Content bzw.
Content für Erwachsene schalten. Dies gilt möglicherweise auch für Themen
wie sexuelle Gesundheit und Tipps oder Ratschläge bezüglich Sexualität.

Keine Aufklärung zu Themen wie sexuelle Gesundheits oder Tipps oder Ratschläge bezüglich Sexualität.

Nee is klar … Hier wird wohl sehr negativ ersichtlich dass Google ein amerikanischens und daher arg prüdes Unternehmen ist.
Sexuelle Aufklärung ist da nicht erwünscht, Krankheiten werden generell tot geschwiegen und die Welt ist schön.

Armes Google ….armes Internet …

Résumé: google is evil!

GD Star Rating
loading...
GD Star Rating
loading...

Der „+1“-Button von google ist da! Und nun?

3. Juni 2011 at 14:17

Darauf haben alle gewartet, oder doch nicht!? Seit 2 Tagen ist er nun da, der neue „+1“-Button von Google zum einbinden in die eigene Webseite. Aber warum, haben doch fast alle schon den „Like“-Button von Facebook integriert. Bei Facebook wissen wir wie es funktioniert, wie groß das netzwerk ist und das alle drauf klicken.

Warum braucht jetzt Google sein eigenen Button und wer wird und kann da überhaupt drauf klicken?

Eine direkte Antwort darauf habe ich nicht, wird die Zeit zeigen welches Netzwerk Google da noch aufbaut.
Aktuell ist schon so das nicht jeder ein google-account hat und und ohne selbigen da wohl auch keiner drauf klicken kann und wird. Bei Facebook sind ja mittlerweile fast alle, bei google …

Ich habe den Button jetzt schon hier im Forum eingebaut, ob sich der Aufwand gelohnt hat wird die Zeit zeigen. Ich bin gespannt! 🙂

Hier noch ein kurzes Video von google zu +1

GD Star Rating
loading...
GD Star Rating
loading...

7 wertvolle SEO OnSite Tipps

17. März 2011 at 20:12

1) Was ist bei einem für SEO optimierten Text wichtig?

Häufig wird von Keyword-Density (Keyword-Dichte) gesprochen, wobei darauf zu achten ist das kein Keyword-SPAM entsteht welcher schlimmstenfalls zu einem Google-Penalty (Abstrafung durch Google) führt. Praxis-Tests haben gezeigt, dass lange Texte besser im Ranking positioniert werden, also kurz optimierte Texte. Google legt immer mehr Wert auf guten und viel Content, umso mehr, umso besser. Ca. 100 Wörter ist eine gute Richtlinie, auch weil viele Webseiten-Besucher Texte über diese Länge meiden bzw. zu Ende lesen. Bei kürzeren Texten kommt meist der Informationsgehalt zu kurz.

Keyword-Density ist unwichtig! Ein Keyword am Anfang, in der Mitte und zum Ende des Textes reichen völlig in der Größenordnung von ca. 100 Wörtern.

Wichtiger ist dagegen an Neben-Keywords zu denken. Ein Keyword-Optimizer kann helfen ähnliche Wörter/Kombinationen oderKombinationen finden, wichtig vor allem um besseren Longtail zu erhalten.

2) Welcher Mehrwert haben Bilder, Videos oder optimierte Listen?

Durch Bilder wird die Seite auf, des weiteren wird die Seite bzw. die Bilder in der Google-Bildersuche gefunden, wodurch der Besucherstrom/Webseitenreichweite verbessert wird und Schluss endlich der Longtail optimiert.

Videos sind gut um die Verweildauer zu verlängern.

Eine Strukturierte Webseite mit Zwischenüberschriften und Listen kann durch Google besser indexiert werden, hinzu kommt das eine semantisch gute Webseite (Stichwort: Web 3.0) besser für jegliche Maschinen, Clients, etc. gelesen werden kann.

3) Welche Meta-Angaben sind wichtig?

Das Meta-Tag „Description“ kann die Klickrate bei Google verbessern.

Die Sprach- und Länderangaben können sehr nützlich sein, auch weil Google das Ranking von dem Standort des Suchmaschinen-Benutzers abhängig macht.

Tags die „noodp“ (besagt dass der Beschreibungs-Text nicht aus dem Open Directory Project übernehmen werden soll) und anderte, kann verzichtet werden.

4) Welche Meta-Angaben sind denn wirklich wichtig?

Das Meta-Tag „Description“ ist für die Durchklickrate bei Google wichtig.

Auch Sprach- und Länderangaben können sehr nützlich sein.

Auf „noodp“ (= nicht den Text aus dem Open Directory Project übernehmen) und den meisten anderen Kram können wir verzichten.

Zu erst sollt man analysieren welche Seiten „wichtig“ und welche „unwichtig“ sind!

Unwichtige Seiten sind z.B. Fehler-Seiten (404 Error Page), Leere Ergebnisseiten aus Filterfunktionen, paginierte Kategorieseiten (Duplicate Content vermeiden), etc.

Allg. kann man sagen, alle Seiten welche kein Mehrwert für den Besucher bringen.

Die einfachste Möglichkeit Google zu sagen, dass diese Webseiten nicht indexiert werden soll ist den „noindex“ Tag auf der Seite zu setzen. Bei Übersichtsseiten (Listen) sollte ein „follow“ dahinter gesetzt werden, wenn eine Indexierung der verlinkten Seiten erwünscht ist.

Ebenfals nützlich ist das Cononical-Tag, auch um für Google bei Duplicate Content die Ursprungsseite zu markieren.

5) Welche sind die häufigsten Einsteiger-Fehler im Bereich SEO?

Die Verwendung falscher Keywörter ohne Abgleich nach dem Suchvolumen. Selbst eine Keywort optimierte Seite bringt keine Besucher, wenn niemand danach sucht.

Zu glauben, dass man mit einer beliebigen Firmenwebseite mit einem heiß umkämpften Keyword (z.B. „Arzt“), ohne weiteres auf Platz 1 landen kann. Wichtig wäre dagegen mehr auf Suchphrasen zu optimieren.

Die Verwendung unnötiger oder veralteter Tags, z.B. das Meta-Keyword-Tag wird nicht mehr von den Suchmaschinen verwendet, muss deshalb auch nicht gesetzt sein. Viele Einsteiger setzen hingegen dies gar manuell, einfach verschwendete Zeit.

6) Welche Fehler machen erfahrene SEOs am häufigsten?

Zu lange Inhalte mit falscher Keyword-Density von z.B. 10 Prozent, danach Penalty durch Google oder gar Ausschluss aus dem Index.

Weiterbildung, selbst wenn vor 2-3 Jahren ein Projekt mit diversen Praktiken/Tricks gut gerankt hat, so muss dies heute nicht mehr gelten. Google verändert nahezu täglich ihren Algo und die Gewichtung der Einfluss-Faktoren. Z.B. Social-Media war vor 2 Jahren kaum ein wichtiger Ranking-Faktor, aktuell hat Google den Social-Graph geschaffen und eine Webseite welche gut im Social-Media-Umfeld vernetzt ist deren Wert steigt bei Google und damit ebenfalls das Ranking.

Die Optimierung sollte jeweils passend zur Seite sein, die Methoden zur Optimierung sind bei einem Webshiop anders als bei einem Portal, einer Community oder Affiliate-/Landing-Page.

Projekte nicht regelmäßig beobachten und Erfolge auswerten. Gerade aufgrund des sich regelmäßig sich ändernden Algorhytmus und die Gewichtung der Einflussfaktoren, sollte eine Webseite in regelmäßigen Abständen (mind. alle 1/2 Jahre) neu auf die aktuelle SEO & Social-Media-Optimierung analysiert werden.

Schauen was die anderen Webseiten so machen. Gerade wenn es um Werbeeinnahmen, Besuchertreue oder Konversion-Optimierung geht, ist Verweildauer ein wichtiges Thema. Vielleicht wird dieser Faktor gar in der Zukunft ein wichtiges Ranking-Kriterium? Eine kurze Verweildauer spiegelt auch den Wert der Webseite wieder, maßnahmen zur Verlängerung sollten umgesetzt, zu minntest diskutiert werden.

7) Welche Tipps und Trends im Bereich Onsite gibt es für das SEO Jahr 2011?

HTML5

Rich Snippets für Bewertungen, Kommentare und viele andere Informationen.

Integration in Social-Media – Google lässt die Besucher entscheiden welche Webseite wertvoll ist. Umso mehr „Likes“, Tweeds, Verlinkungen, etc. umso höher der Wert des Artikels oder der Seite (Stichwort: Social Media Graph)

Semantisches Web 3.0 (Jedes Jahr auf’s neue, bis es endlich flächen deckend umgesetzt wurde)

Webseiten ohne Flash mit Alternativer Umsetzung mit HTML5 oder Java-Script (Stichwort: Barrierefreie Webseiten)

und noch viele weitere, 1 Internet Jahr kann sehr lang sein, das internet ist schließlich sehr schnelllebig

GD Star Rating
loading...
GD Star Rating
loading...

Tippfehler Domains finden – Tippfehler-Tool – SEO Tool

16. März 2011 at 15:47

Ihr benötigt, z.B. für eure SEO-Arbeit, ein Tool um auf Basis einer Domain automatisch verschiedene Tipp-Fehler-Domains zu generieren?

Unter anderem ist dies möglich über die Webseite: www.domainname.at/typ.php

GD Star Rating
loading...
GD Star Rating
loading...

Wie lange gelten die Bestrafungen (Google Penalty) für Webseiten durch Google?

14. März 2011 at 19:50

Google-logo-wikipediaSollte Ihre Webseite aus unerklärlichen Gründen stark im Ranking fallen (Position in den Google-Suchergebnisliste) oder gar komplett aus den Index der Suchmaschine verschwinden, so liegt höchst wahrscheinlich ein Google Penalty vor. Und diese sehr wirksamen Strafen gegen Webseiten Betreiber kommen häufiger als einige Webmaster ahnen.

Der Suchmaschinenanbieter Google unterscheidet dabei zwei Arten von Bestrafungen. Algorithmisch ausgelöste Bestrafungen und manuell ausgelöste Bestrafungen. Die Möglichkeiten denen entgegen zu wirken bzw. wieder hinter sich zu lassen unterscheiden sich.

Die Algorithmische Bestrafungen

Die Algorithmische Bestrafungen finden immer dann statt, wenn Google anhand eines Algorithmus automatisch erkennt, dass gegen die Richtlinien für Webmaster verstossen wurde. Diese sind kostenlos auf der Google-Webseite für Webmaster einzusehen oder herunter zu laden und sollten jedem Webseiten-Entwickler oder SEO geläufig sein. Beispiele für ein Verstoß gegen die Webmaster-Richtlinien welche zu einer automatischen Abstrafung führen sind: Content Spamming, Keyword Stuffing, heimliche Java Redirects.

Hat eine Webseite ein Penalty durch Google erhalten, so wird diese in regelmäßigen Abständen automatisch überprüft. Stellt Google fest, dass die algorithmische Abstrafung nicht mehr notwendig ist, so wird die Webseite nach einer Strafzeit (Penalty-Time) wieder entsperrt. Als Webseitenbetreiber ist in so einem Fall notwendig, mögliche Verstöße gegen die Google Webmasterrichtlienien für Webmaster zu beheben und die Seite damit zu „säubern“.

Eine Kontaktaufnahme zum Suchmaschinenanbieter ist nicht notwendig, da keine manuelle Interaktion durch einen Google-Mitarbeiter erfolgen muss.

Die Manuelle Bestrafungen

Unter anderem Cloaking auf der Webseite oder die Verteilung von Schadsoftware (Viren, Würmer, etc.) fallen in diesen Bereich. Ein Vergehen in diesem Bereich werden deutlich länger bestraft, so dauert eine Abstrafung z.B. durch verwendung von unsichtbaren Text (Cloaking) laut dem Google-SEO-Sprecher Matt Cutts 30 Tage.

Webmaster welche ihre Webseite schnell wieder ordentlich im Index aufnehmen lassen möchten, können einen Antrag zur Wiederaufnahme direkt über die Google-Webmaster-Tools an Google stellen. Sind zu diesem Zeitpunkt zweifelsfrei die Ursachen für die manuelle Bestrafung beseitigt (und wurden idealerweise als Grund in dem Wiederaufnahmeantrag genannt), so kommt die Webseite meist schnell wieder in den Index der Suchmaschine bzw. das Ranking Ranking normalisiert sich. Die Bearbeitung eines Antrages zur Wiederaufnahme erfolgt manuell vom Google Spamteamt. Dabei wird geprüft ob die Strafe algorithmisch oder manuell ausgelöst wurde. Nur die manuelle Auslösung als Ursache, kann das Google Spamteam nach erfolgreicher Überprüfung wieder von der Bestrafungssperre befreien.

Algorithmische Bestrafungen können dagegen ausschließlich durch die erneute Berechnung der Algorithmen eleminiert (dies erfolgt bei einem erneuten Besuch des Google-Crawler).

Im folgenden Video erklärt Matt Cutts, Sprecher bei Google für die Bereich SEO und Spam, das Thema.

GD Star Rating
loading...
GD Star Rating
loading...

Google baut Twitter ein – Suchalgorithmus bewertet Verbreitung bei Twitter

11. März 2011 at 19:41

TwitterGoogle hat die immer größer werdende Bedeutung der sozialen Netzwerke erkannt und ihren Suchalgorithmus soweit angepasst, das Twitter in Zukunft mehr Wichtung bekommt. In Zukunft werden z.B. Tweets oder Blogbeiträge von Freunden, die thematisch zur Suche passen, bevorzugt in den Suchergebnissen angezeigt.

Schreibt also ein Freund in seinem Blog ein Beitrag zum gerade gesuchten Thema, so wird dieser Beitrag prominent angezeigt, da Google vermutet das dieser eine höhere Relevanz für den suchenden hat. Ein Ranking von dem Artikel des Freundes unter den Top 10 (Seite 1) ist höchst wahrscheinlich.

Auch neu ist die Verknüpfung des Google-Profiles mit einem Nutzer-Account auf Twitter, Quora oder Flickr.
Wer seinen Twitter-Account in seinem Google-Profil hinterlegt hat, bekommt bevorzugt die Inhalte angezeigt, die von den Menschen, denen er auf Twitter folgt, schon einmal per Tweet oder Retweet verbreitet wurde. Damit mehr Anwender ihr Google-Profil mit ihren Account in anderen sozialen Netzwerken verknüpfen, wird dem Google-Nutzer zur Suchabfrage passende Twitter-Accounts vorgeschlagen.

Auch Facebook bekommt mehr Gewicht von Google

Neben Twitter wird auch Facebook weiter integriert. Da Facebook allerdings ihren Social Graph nicht öffentlich zugänglich machen, werden nur die öffentlicher Profilinformationen in den Suchergebnissen angezeigt. Dazu Google: „Wir kooperieren mit allen Diensten, die offen sind“, so der Google-Produktmanager Mike Cassidy der FAZ. Anders als die Microsoft-Suchmaschine Bing bekommt Google von Facebook nicht die Informationen geliefert, wenn jemand auf den Like-Button klickt. Hier zeigt sich offen, dass Microsoft sich als Anteilseigner von Facebook Wettbewerbsvorteile verschafft – was Google natürlich nicht gefällt. „Mehr Signale aus dem Social Web wie den Like-Button in unsere Suche zu integrieren wäre sinnvoll für Google. Das „Like-Signal“ ist sehr wertvoll“, sagte der Google-CEO Eric Schmidt in einem Interview.

Und was bedeutet das alles?

Das Sociale Netzwerke (Social Media) bzw. das Social Web wird immer wichtiger und kontrollieren mehr und mehr das gesammte Netz. Suchmaschinenoptimierung (SEO) setzt immer mehr auch Social-Media-Optimierung und für Unternehmen Social-Media-Marketing (SMO & SMM) vorraus. Die SEO-Arbeit wird mit dem Anstieg der investierten SMO-Arbeit weniger und konzentriert sich mehr und mehr rein auf die OnPage-Optimierung. Zählt doch die Bewertung & Verbreitung in den socialen-netzwerken mehr als links anderer Webseiten. Wozu dann Link kaufen?

Linkkauf war gestern

Wenseiten oder Unternehmen welche sich bisher um eine gute Plazierung in der Google-Suchergebnissen gekümmert haben und Links kauf(ten), sollten nun ihr Geld lieber intensiver in ihr Engagement in den sozialen Medien investieren!

GD Star Rating
loading...
GD Star Rating
loading...