Robots.txt in Magento

5. März 2013 at 15:32

Die Robots.txt dient zur Steuerung der Webcrawler diverse Suchmaschinen, primär wird dort fest gelegt welche Seiten nicht gecrawlt werden sollen.

Magento hat viele Ordner und Dateien sowie Parameter/Filter, etc. welche nicht gescannt werden sollten, sei es aus Sicherheitsgründen als auch um das Duplicate Content Problen in den Griff zu bekommen:

## robots.txt for Magento Community and Enterprise

## GENERAL SETTINGS

## Enable robots.txt rules for all crawlers
User-agent: *

## Crawl-delay parameter: number of seconds to wait between successive requests to the same server.
## Set a custom crawl rate if you’re experiencing traffic problems with your server.
# Crawl-delay: 30

## Magento sitemap: uncomment and replace the URL to your Magento sitemap file
# Sitemap: http://www.example.com/sitemap/sitemap.xml

## DEVELOPMENT RELATED SETTINGS

## Do not crawl development files and folders: CVS, svn directories and dump files
Disallow: CVS
Disallow: .svn
Disallow: .idea
Disallow: .sql
Disallow: .tgz

## GENERAL MAGENTO SETTINGS

## Do not crawl Magento admin page
Disallow: /admin/

## Do not crawl common Magento technical folders
Disallow: /app/
Disallow: /downloader/
Disallow: /errors/
Disallow: /includes/
Disallow: /lib/
Disallow: /pkginfo/
Disallow: /shell/
Disallow: /var/

## Do not crawl common Magento files
Disallow: /api.php
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /get.php
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /README.txt
Disallow: /RELEASE_NOTES.txt

## MAGENTO SEO IMPROVEMENTS

## Do not crawl sub category pages that are sorted or filtered.
Disallow: /*?dir*
Disallow: /*?dir=desc
Disallow: /*?dir=asc
Disallow: /*?limit=all
Disallow: /*?mode*

## Do not crawl 2-nd home page copy (example.com/index.php/). Uncomment it only if you activated Magento SEO URLs.
## Disallow: /index.php/

## Do not crawl links with session IDs
Disallow: /*?SID=

## Do not crawl checkout and user account pages
Disallow: /checkout/
Disallow: /onestepcheckout/
Disallow: /customer/
Disallow: /customer/account/
Disallow: /customer/account/login/

## Do not crawl seach pages and not-SEO optimized catalog links
Disallow: /catalogsearch/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/

## SERVER SETTINGS

## Do not crawl common server technical folders and files
Disallow: /cgi-bin/
Disallow: /cleanup.php
Disallow: /apc.php
Disallow: /memcache.php
Disallow: /phpinfo.php

## IMAGE CRAWLERS SETTINGS

## Extra: Uncomment if you do not wish Google and Bing to index your images
# User-agent: Googlebot-Image
# Disallow: /
# User-agent: msnbot-media
# Disallow: /

Verschiedene versionen der robots.txt pro domain/store per htaccess ausliefern – so geht’s

Mit hilfer der folgenden Einträge in der .htaccess-Datei könnt ihr anhand der Domain/Subdomain verschiedene robots.txt ausliefern:

 RewriteEngine on

RewriteCond %{HTTP_HOST} ^.*?domain2\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version1.txt

RewriteCond %{HTTP_HOST} ^.*?domain1\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version2.txt

7 wertvolle SEO OnSite Tipps

17. März 2011 at 20:12

1) Was ist bei einem für SEO optimierten Text wichtig?

Häufig wird von Keyword-Density (Keyword-Dichte) gesprochen, wobei darauf zu achten ist das kein Keyword-SPAM entsteht welcher schlimmstenfalls zu einem Google-Penalty (Abstrafung durch Google) führt. Praxis-Tests haben gezeigt, dass lange Texte besser im Ranking positioniert werden, also kurz optimierte Texte. Google legt immer mehr Wert auf guten und viel Content, umso mehr, umso besser. Ca. 100 Wörter ist eine gute Richtlinie, auch weil viele Webseiten-Besucher Texte über diese Länge meiden bzw. zu Ende lesen. Bei kürzeren Texten kommt meist der Informationsgehalt zu kurz.

Keyword-Density ist unwichtig! Ein Keyword am Anfang, in der Mitte und zum Ende des Textes reichen völlig in der Größenordnung von ca. 100 Wörtern.

Wichtiger ist dagegen an Neben-Keywords zu denken. Ein Keyword-Optimizer kann helfen ähnliche Wörter/Kombinationen oderKombinationen finden, wichtig vor allem um besseren Longtail zu erhalten.

2) Welcher Mehrwert haben Bilder, Videos oder optimierte Listen?

Durch Bilder wird die Seite auf, des weiteren wird die Seite bzw. die Bilder in der Google-Bildersuche gefunden, wodurch der Besucherstrom/Webseitenreichweite verbessert wird und Schluss endlich der Longtail optimiert.

Videos sind gut um die Verweildauer zu verlängern.

Eine Strukturierte Webseite mit Zwischenüberschriften und Listen kann durch Google besser indexiert werden, hinzu kommt das eine semantisch gute Webseite (Stichwort: Web 3.0) besser für jegliche Maschinen, Clients, etc. gelesen werden kann.

3) Welche Meta-Angaben sind wichtig?

Das Meta-Tag „Description“ kann die Klickrate bei Google verbessern.

Die Sprach- und Länderangaben können sehr nützlich sein, auch weil Google das Ranking von dem Standort des Suchmaschinen-Benutzers abhängig macht.

Tags die „noodp“ (besagt dass der Beschreibungs-Text nicht aus dem Open Directory Project übernehmen werden soll) und anderte, kann verzichtet werden.

4) Welche Meta-Angaben sind denn wirklich wichtig?

Das Meta-Tag „Description“ ist für die Durchklickrate bei Google wichtig.

Auch Sprach- und Länderangaben können sehr nützlich sein.

Auf „noodp“ (= nicht den Text aus dem Open Directory Project übernehmen) und den meisten anderen Kram können wir verzichten.

Zu erst sollt man analysieren welche Seiten „wichtig“ und welche „unwichtig“ sind!

Unwichtige Seiten sind z.B. Fehler-Seiten (404 Error Page), Leere Ergebnisseiten aus Filterfunktionen, paginierte Kategorieseiten (Duplicate Content vermeiden), etc.

Allg. kann man sagen, alle Seiten welche kein Mehrwert für den Besucher bringen.

Die einfachste Möglichkeit Google zu sagen, dass diese Webseiten nicht indexiert werden soll ist den „noindex“ Tag auf der Seite zu setzen. Bei Übersichtsseiten (Listen) sollte ein „follow“ dahinter gesetzt werden, wenn eine Indexierung der verlinkten Seiten erwünscht ist.

Ebenfals nützlich ist das Cononical-Tag, auch um für Google bei Duplicate Content die Ursprungsseite zu markieren.

5) Welche sind die häufigsten Einsteiger-Fehler im Bereich SEO?

Die Verwendung falscher Keywörter ohne Abgleich nach dem Suchvolumen. Selbst eine Keywort optimierte Seite bringt keine Besucher, wenn niemand danach sucht.

Zu glauben, dass man mit einer beliebigen Firmenwebseite mit einem heiß umkämpften Keyword (z.B. „Arzt“), ohne weiteres auf Platz 1 landen kann. Wichtig wäre dagegen mehr auf Suchphrasen zu optimieren.

Die Verwendung unnötiger oder veralteter Tags, z.B. das Meta-Keyword-Tag wird nicht mehr von den Suchmaschinen verwendet, muss deshalb auch nicht gesetzt sein. Viele Einsteiger setzen hingegen dies gar manuell, einfach verschwendete Zeit.

6) Welche Fehler machen erfahrene SEOs am häufigsten?

Zu lange Inhalte mit falscher Keyword-Density von z.B. 10 Prozent, danach Penalty durch Google oder gar Ausschluss aus dem Index.

Weiterbildung, selbst wenn vor 2-3 Jahren ein Projekt mit diversen Praktiken/Tricks gut gerankt hat, so muss dies heute nicht mehr gelten. Google verändert nahezu täglich ihren Algo und die Gewichtung der Einfluss-Faktoren. Z.B. Social-Media war vor 2 Jahren kaum ein wichtiger Ranking-Faktor, aktuell hat Google den Social-Graph geschaffen und eine Webseite welche gut im Social-Media-Umfeld vernetzt ist deren Wert steigt bei Google und damit ebenfalls das Ranking.

Die Optimierung sollte jeweils passend zur Seite sein, die Methoden zur Optimierung sind bei einem Webshiop anders als bei einem Portal, einer Community oder Affiliate-/Landing-Page.

Projekte nicht regelmäßig beobachten und Erfolge auswerten. Gerade aufgrund des sich regelmäßig sich ändernden Algorhytmus und die Gewichtung der Einflussfaktoren, sollte eine Webseite in regelmäßigen Abständen (mind. alle 1/2 Jahre) neu auf die aktuelle SEO & Social-Media-Optimierung analysiert werden.

Schauen was die anderen Webseiten so machen. Gerade wenn es um Werbeeinnahmen, Besuchertreue oder Konversion-Optimierung geht, ist Verweildauer ein wichtiges Thema. Vielleicht wird dieser Faktor gar in der Zukunft ein wichtiges Ranking-Kriterium? Eine kurze Verweildauer spiegelt auch den Wert der Webseite wieder, maßnahmen zur Verlängerung sollten umgesetzt, zu minntest diskutiert werden.

7) Welche Tipps und Trends im Bereich Onsite gibt es für das SEO Jahr 2011?

HTML5

Rich Snippets für Bewertungen, Kommentare und viele andere Informationen.

Integration in Social-Media – Google lässt die Besucher entscheiden welche Webseite wertvoll ist. Umso mehr „Likes“, Tweeds, Verlinkungen, etc. umso höher der Wert des Artikels oder der Seite (Stichwort: Social Media Graph)

Semantisches Web 3.0 (Jedes Jahr auf’s neue, bis es endlich flächen deckend umgesetzt wurde)

Webseiten ohne Flash mit Alternativer Umsetzung mit HTML5 oder Java-Script (Stichwort: Barrierefreie Webseiten)

und noch viele weitere, 1 Internet Jahr kann sehr lang sein, das internet ist schließlich sehr schnelllebig

Wir möchten bei Google auf Platz eins stehen!

13. April 2010 at 14:18

Aus dem Alltag eines Suchmaschinen-Optimierers im Gespräch mit Kunden (leider wirklich Realität):

Kunde: “Wir möchten bei Google auf Platz eins stehen!”
Agentur: “Vielleicht sollten wir erst einmal ihren Internetauftritt überarbeiten. Es gibt kaum Content, technisch ist er auf einem Stand von vor 10 Jahren und auch das Layout scheint schon ein paar Tage alt zu sein.”
Kunde: “Nein, nein, das machen wir alles später. Erstmal müssen wir bei Google ganz oben sein!”

Die Top SEO Prioritäten in 2010

19. Januar 2010 at 16:03

Hier möchten wir euch die wichtigsten SEO Schwerpunkte in 2010 auflisten und kurz genauer erläutern:

1. Link-Building durch starken Content

Immer mehr SEOs haben begriffen, dass es wichtig ist starken und individuellen Content anzubieten, der die Leute dazu bewegt freiwillig die Seite zu verlinken. Das deckt sich mit den Empfehlungen der Google-Webmaster-Richtlinien und sind ein echter Mehrwert für die Besucher und damit eine der wichtigsten und saubersten Möglichkeiten Link-Aufbau zu betreiben! Wir hoffen dass in 2010 weniger unsinnige Spam-Texte auf Webseiten veröffentlicht werden und das Netz mehr mit kreativen und informativen Inhalten wächst.

2. Links kaufen oder tauschen

Links zu kaufen wird auch in 2010 ein wichtiger Bestandteil im Bereich SEO sein. Keiner gibt es öffentlich zu, fast alle machen es, sei es der Kauf oder Tausch gegen Sachgüter oder Gegenlinks, viele Formen das gleiche Prinzip. Jeder versucht aus Kostengründen den Anteil so gering wie möglich zu halten, allerdings wird es oft auch in 2010 ohne Kauf nicht gehen. Gerade bei sehr umkämpften Keywords und/oder Startup-Webseiten.

3. OnPage Optimierung

Weiterhin ein sehr wichtiges Thema ist die direkte Optimierung der Webseite. Die OnPage-Optimierung ist unerlässlich und das wird sich auch in den nächsten Jahren nicht ändern!

4. Lokales Ranking der Webseite

Die Suchmaschinen, allen voran Google, haben in 2009 verstärkt ihre Dienste für die Lokalisierung der SERPS verbunden und so geändert dass, auch durch die personalisierte Suche, der lokale Standort des Suchenden eine stärkere Rolle spielt. So wird anhand der IP der Standort bestimmt und anhand dessen die Gewichtung der Ergebnisse der Suchanfrage bestimmt, auch die lokal auf dem Client gespeicherten Cookies spielen eine größere Rolle.

Die lokale Optimierung ist für das Business mit einem starkem lokalem Bezug (z.B. lokales Handwerk) schon immer ein wichtiger SEO Bestandteil gewesen. Die Iphone-Generation wird sicherlich weiter zur Wichtigkeit der Gewichtung von lokalen Faktoren beitragen.

5. Umbau oder Bau von Seiten mit optimierten Struktur

Die Struktur einer Webseite, vor allem auch die Informationsarchitektur, ist eines der zentralen Themen im Bereich SEO und sind im Zusammenhang mit dem Punkt 3 (OnPage-Optimierung) zu sehen. Es scheint bei einigen also kein Verständnis dafür zu geben, dass diese beiden Bereiche nicht zu trennen sind.

6. Ausrichtung der Webseite auf bestimmte Zielgruppen

Gerade bei Webseiten mit Nischen-Themen ist die Ausrichtung der Webseite auf eine bestimmte Zielgruppe unausweichlich. Sei es im Design der Webseite, oder bei den optimierten Inhalten. Wer Artikel für eine so eine Webseite erstellt sollte wissen wie die Zielgruppe denkt, schreibt, redet und allg. gut im Thema informiert sein. Auch Webseiten für bestimmte Bevölkerungsgruppen werden sich mit höchster Wahrscheinlichkeit noch mehr in 2010 durchsetzen.

Den Trend kann man z.B. an der Gruppen-Bildung bei Social-Media-Communities wie Studivz oder Facebook ableiten.

Fazit

Die Themen 2010 bleiben gleich, die Gewichtung wird sich höchst wahrscheinlich leicht bis stark verschieben. Bleibt abzuwarten wie die Gewichtung bei den Suchmaschinen-Betreibern angepasst wird.

Sollten euch Prioritäten in dieser Übersicht fehlen oder ihr Ergänzungen zu den Punkten habt, so könnt ihr mir dieses gerne mailen oder einfach in den Kommentaren veröffentlichen und ich nehme die  Infos ggf. in die Liste mit auf, danke!

Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012

4. Januar 2010 at 14:36

Was neu, was ändert sich?

Die Suchmaschinenoptimierung wie sie in den letzten Jahren umgesetzt wurde ist im Umbruch. Wie auch schon im Artikel „Warum SEO Ranking Berichte nutzlos sind“ beschrieben fangen die Suchmaschinenbetreiber (z.B. Google) damit an die Ergebnisseiten immer weiter zu personalisieren. In der Vergangenheit wurden auch Faktoren wie geografische Lage und das Nutzerverhalten (die Klickrate), bei der Erstellung der Suchergebnisseiten berücksichtigt. Auch Musik, Bild- oder Video-Inhalte werden immer mehr in den Suchmaschinen Ergebnisseiten (auch SERPS genannt was für Search Engine Result Pages steht). Ließen sich diese Faktoren noch beeinflussen so ist die Personalisierung ein neuer und teilweise gar  unberechenbarer Faktor geworden. Sieht doch die Ergebnisseite der Suchmaschinen bei jedem Nutzer nun individual anders aus. Dazu spielt die Geschwindigkeit der Web-Seite beim Ranking jetzt eine wichtige Rolle.

Google Maps entwickelt sich rasend schnell weiter und wird ggf. das Google Suchfenster in der Zukunft ablösen. Die die Mehrzahl der Information werden von den Benutzern vor Ort gesucht. Das hat auch Google erkannt. Die Mobilen Endgeräte und deren Kameras (Handys, etc.) füttern Google und sind das Auge des Netzes das alles sieht. In der letzten Woche integrierte Google eine Immobilensuche in die Karte. Mit Handysoftware wie Wikitude oder Layar ist es möglich sich die unmittelbare Umgebung erklären zu lassen – einfach durch bloßes Umsehen und filmen mit der Kamera: Was ist das für ein Gebäude, vor dem ich stehe? Wer hat es gebaut? Wer wohnt darin? Ist eine Wohnung frei? Welcher Makler bietet sie an? Gibt es Bilder von den Innenräumen? Wenn Sie als Makler nun nicht gefunden werden, haben Sie das Nachsehen. Und wer bei der Kartensuche dabei sein will, muss möglichst viele „Werbeinformationen“ ins Kartenmaterial einfügen. Startpunkte für Ihre Einträge: das Google Branchencenter, Wikipedia oder Panoramio (bringt Fotos auf die Landkarte).

Die Bildersuche bekommt ebenfalls mehr Bedeutung. Amazon hat vor kurzem in den USA eine aufsehen erregende iPhone Applikation eingeführt. Mit dieser können Sie ein Artikel (z.b. eine schöner Rucksack) fotografieren und über die Applikation heraus finden wie das Modell heißt und wo der Herr ihn gekauft hat. Einfach die Handykamera darauf halten und die Software sieht nach, ob sich dieses Produkt im Angebot von Amazon befindet. Wenn ja, erfahren Sie den Namen des Modells, einen Preis und können es sofort bestellen. Die Fähigkeit der Bilderkennung sind effektiver geworden und der Bedarf an Bildern und animierten Bildern (Videos) wächst kontinuierlich. Deshalb sollten Sie Ihre Budget nicht nur für das schreiben von Texten ausgeben, sondern ebenfalls ein großes Teil für das Produzieren von Bild- und Videomaterial für das Web einplanen! Vertrauen Sie nicht nur auf Texte!

Neben den herkömmlichen Suchmaschinen & den damit aktuell verbundenen Technologien, kommen Wissensdatenbanken wie z.B. Wolfram Alpha auf den Markt. Diese greifen fast ausschließlich auf Inhalte von Seiten mit einem hohen Trust-Status oder gar Inhalte aus ausgewählten Bibliotheken zurück.

Die Sozialen Medien gewinnen immer mehr an Bedeutung, so werden aktuell schon mehr Messages über diese Medien verschickt als herkömmliche E-Mails. Aus diesem Grund nimmt die Social-Media-Optimization (kurz: SMO) immer mehr an Bedeutung zu. Seit dem Web 2.0 lässt sich sehr gut beobachten wie die von Nutzern generierten Inhalte das Web dominieren und für einen schnellen Wachstum sorgen. Aus diesem Grund wird die Echtzeit-Suche speziell für Soziale Medien immer weiter ausgebaut (aktuell vorhanden für z.B. Blogs wird ausgebaut um Twitter, Face-Book, etc.). Daraus ergeben sich Probleme welche das Thema Reputationsmanagment immer wichtiger werden lassen.

Was bleibt?

Ganz klar alte Regeln wie Content ist King bleiben weiterhin bestehen. Was zählt sind viele individuell erstellte Inhalte welche den Benutzern so viel Mehrwert geben dass sie auch für die Suchmaschinen so eingestuft werden.
Suchmaschinen arbeiten auf logischen Algorithmen, welche nichts anderes nach zu bilden versuchen als das menschliche Verhalten. Ist eine Seite ein Mehrwert für potentielle Besucher, so wird dies auch von Suchmaschinen erkannt und so eingestuft.

Zwar verliert der Pagerank immer mehr an Bedeutung, trotz allem sind Links weiterhin wichtig. Gerade Link-Power von Trust-Pages haben weiterhin sehr hohe Bedeutung. Wichtig ist die richtige Verlinkung, z.B. verlinken nach dem Link-Pyramiden Konzept.

Warum auch in 2010 SEO noch dringend gebraucht werden wird, kann man leicht an folgenden hypothetischen Fragen verdeutlichen:

  • Sind benötigen eine ordnungsgemäß codierten Website? (technisches SEO)
  • Sie benötigen gute Inhalte?
  • Wollen Sie das ihre Inhalte durch potentielle Besucher gefunden werden?
  • Wollen Sie Bilder & Videos in das Netz stellen welche gefunden werden sollen?
  • Wollen Sie das Leute Ihre Webseite verlinken?
  • Wollen Sie dass Leute über Ihr Business sprechen?
  • Denken Sie dass sie Google, Yahoo oder Bing auch in 2010 nutzen?

Falls Sie diese Fragen mit JA beantwortet haben, dann benötigen Sie auch weiterhin SEO in 2010!

Dieser Artikel soll nur ein kurzen Überblick über die aktuelle und zukünftige Situation geben. Viele Aspekte lassen sich noch ergänzen oder gar ausführlicher Beschreiben, das ist uns klar.

Uns interessiert vor allem Eure Meinung zu diesem Thema „Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012“!

Teilt Sie uns und den anderen Lesern dieses Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Google möchte Geschwindigkeit der Web-Seite beim Ranking berücksichtigen

7. Dezember 2009 at 08:57

Google will die Ladezeit der Webseite als Faktor beim Ranking in den Suchergebnissen berücksichtigen. Das macht durch aus Sinn, da schnellere Webseiten besser für Nutzer sind und die Benutzer sind von langsamen Seiten „generven“. Google hat ebenfalls seine Webmaster Tools erweitert, um eine neue, noch experimentelle Funktion „Website Leistung“. Dort werden statistische Daten zur Ladegeschwindigkeit der eigenen Webseiten aus Sicht der Nutzer angezeigt. Die Daten werden im Zeitverlauf dargestellt, versehen mit einer Einordnung, wie schnell die eigenen Seiten im Vergleich mit anderen von Google besuchten Seiten laden.

google-webmastertool-webseitenleistung

Konkrete Daten für andere Webseiten gibt Google nicht an, es wird lediglich erläutert wie viel Prozent der Webseiten schneller laden.

Google personalisiert Suche auch für nicht angemeldete Nutzer

5. Dezember 2009 at 18:53

Wie zu erwarten personalisiert Google ab sofort auch die Suchergebnisse von nicht angemeldeten Nutzern. Diese Funktion existiert schon seit geräumiger Zeit für angemeldete Benutzer. So ist es z.B. möglich Suchergebnisse manuell auf oder ab zu werten. So lernt die Suchmaschine auf welche Links die Nutzer besonders häufig klicken und positioniert diese Seiten künftig höher in den Suchergebnissen.

Wie Google am Freitag in seinem Blog bekannt gab, wird dafür auf die Search-History der letzten 180 Tage zurück gegriffen. Aufgezeichnet wird diese laut Google über einen „anonymen Cookie im Browser“, der sämtliche Suchanfragen und die danach vom User ausgewählten Ergebnisse beobachtet. Eine Verknüpfung dieser Daten mit denen im Google-Account findet laut Google nicht statt, die Daten würden komplett getrennt behandelt.

Der Benutzer erkennt die personalisierten Suchergebnisse an dem Web-Protokoll-Link „“View customizations“, der am oberen rechten Eck des Browser-Fensters erscheint. Ein Klick auf diesen Link informiert darüber, wie die Suchergebnisse zustande kommen und wie die Personalisierung beendet werden kann.

Datenschützer haben bereits ihre Bedenken gegen die Änderung angemeldet, so berichtete die „New York Times“ diesen Freitag.

Begriffschaos bei SEM und SEO

20. November 2009 at 11:03

SEM oder doch SEO? Immer wieder werden die Begriffe in unterschiedlichsten Zusammenhängen erwähnt. Eine einheitliche Begriffsdefinition scheint es nicht zu geben, sind die verschiedenen Elemente des Suchmaschinenmarketings aufgrund des jungen Alters dieses Marketingzweiges wohl noch zu frisch oder undefiniert.

Besonders im englischsprachigen Raum wird der Begriff SEM (Search Engine Marketing) als Oberbegriff für das gesamte Suchmaschinenmarketing sowie für jegliche Art der bezahlten Einträge auf den Suchergebnisseiten verwendet. Und das obwohl dies eigentlich ein eigenständiger Teilbereich ist. Die Begriffe Performance Marketing und Sponsored Links werden ebenfalls häufig als Synonym für diesen Bereich verwendet. Dabei bezieht sich der Begriff Performance Marketing aber auf alle Bereiche des Online-Marketings, deren Ziel es ist, messbare Ergebnisse bzw. Transaktionen mit den Internet-Nutzern zu erzielen.

In Deutschland hingegen werden die Begriffe SEM und Keyword-Advertising am häufigsten verwendet, wenn es um das Thema bezahlte Textanzeigen auf Suchmaschinen geht. Für jegliche Optimierung von Webseiten für Suchmaschinen hingegen werden i.d.R. die Begriffe Suchmaschinenoptimierung (kurz: SEO) verwendet.

Wenn es um Optimierung bzw. eher Verknüpfung von Webseiten mit anderen Web 2.0 Anwendungen (Communitys, Portale, etc.) geht, wird häufig der Begriff Social Media Optimization (SMO) verwendet. Geht es dagegen um Marketing in der Web 2.0 Welt (youtube, facebook, studivz, myspace, etc.)  so sprechen wir von Social Media Marketing (SMM). Beide Bereiche überschneiden sich in einigen Teilbereichen, was eine eindeutige Abgrenzung gelegentlich schwierig macht.

kostenlose Backlink Checker Tools (Online)

16. November 2009 at 10:16

Die manuelle Recherche nach gesetzten Backlinks ist, vor allem bei gut verlinkten Seiten, zwar über Google zu recherchieren, wird allerdings schnell zu einem zeitlichen overhead. Nützlich sind da Backlink-Checker um Listen mit der Anzahl der Backlinks, IPs und ggf. Pagerank zu generieren. So erhalten Sie eine Aufstellung Ihrer Linkpopularität Ihrer Seite. Zusätzlich zeigen wir auch alle Links von Unterseiten mit an. Mit den folgenden kostenlosen Online Tools können Sie genau sehen, von welchen Adressen Ihre Mitbewerber verlinkt werden.

So erfahren Sie warum diese in der Suchmaschine besser oder hoffentlich schlechter gefunden werden als Sie. Je mehr Backlinks mit einem hohen PR, desto wichtiger ist Ihre Seite für Suchmaschinen wie z.B. Google. Dabei ist zu beachten dass es wichtig ist dass die Links von verschiedenen IP´s (Rechnern) stammen (mehre Domains auf einem Rechner mit der selben IP werden von Google als weniger wichtig eingestuft).

Folgende kostenlose Backlink-Checker möchten wir euch empfehlen:

bei Internetbaron.de

bei www.linkdiagnosis.com

bei backlinkwatch.com

Kennt ihr weitere gute kostenlose Back-Link-Checker (egal ob online oder als Desktop-Applikation)?

Teilt Sie uns und anderen Lesern diesen Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Magento – Neue Developer Toolbar für eine schnellere & effizientere Entwicklung

13. November 2009 at 13:52

Auf Magento-Connect gibt es seit kurzem die kostenlose Extension Developer Toolbar for Magento zum Download.

Magento Connect Developer Toolbar for Magento

Magento Connect Developer Toolbar for Magento

Nach der Installation über Magento-Connect erscheint in der Fusszeile des Browsers die Developer Toolbar for Magento:

Magento Developer Toolbar

Magento Developer Toolbar

Die Anzeige kann auch im Magento Admin-Backend auf Global, per Website oder auch per Store-View konfiguriert werden.

Ihr findet die Option „Aktiviert Ja / Nein” unter System->Konfiguration->Erweitert->Entwickleroptionen->Developer Toolbar .

Die Optionen in der Developer Toolbar sind bereits vorhandene Funktionalitäten aus dem Backend, der Mehrwert liegt darin dass das suchen der Option bzw. das lästige klicken durch den Menus sowie der Login in das Admin-Backend entfällt. So kann, vor allem bei der Entwicklung, einiges an Zeit eingespart werden.

Sie Benötigen Unterstützung bei der Erstellung oder Anpassung eines Magento eCommerce Shop System?

Fly2Mars-Media unterstützt Sie in diesem und vielen anderen Bereichen rund um das Thema Internet & IT!

Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.