SEO-Konferenz am 26.02.2010 SEMSEO in Hannover

19. November 2009 at 17:14

Am 26.02.2010 findet in Hannover (übrigens Heimatstadt von Fly2Mars-Media) wieder die eintägige Branchen-Konferenz SEMSEO statt. Diese seit 2007 einmal jährlich statt findende Konferenz erwartet 2010 rund 350 Mitarbeiter und Führungskräften aus mittelständischen und großen Unternehmen aller Branchen. Großer Wert wird auf den Austausch zwischen den Besuchern (SEO- & SEM-Experten, Marketing- & Kommunikationsexperten sowie Fachentscheider) gelegt.

Im Anschluss findet abends die legendäre Pubkonferenz (PubCon) statt, laut den Veranstaltern das größte SEO-Networking-Event im deutschsprachigen Raum. Veranstaltungsort ist wiederholt die HBX-Brauerei am Aegi in Hannover. Für alle SEMSEO-Teilnehmer ist der Eintritt zu diesem Event kostenfrei.

Weitere Infos findet ihr unter semseo.abakus-internet-marketing.de

GD Star Rating
loading...
GD Star Rating
loading...

kostenlose Backlink Checker Tools (Online)

16. November 2009 at 10:16

Die manuelle Recherche nach gesetzten Backlinks ist, vor allem bei gut verlinkten Seiten, zwar über Google zu recherchieren, wird allerdings schnell zu einem zeitlichen overhead. Nützlich sind da Backlink-Checker um Listen mit der Anzahl der Backlinks, IPs und ggf. Pagerank zu generieren. So erhalten Sie eine Aufstellung Ihrer Linkpopularität Ihrer Seite. Zusätzlich zeigen wir auch alle Links von Unterseiten mit an. Mit den folgenden kostenlosen Online Tools können Sie genau sehen, von welchen Adressen Ihre Mitbewerber verlinkt werden.

So erfahren Sie warum diese in der Suchmaschine besser oder hoffentlich schlechter gefunden werden als Sie. Je mehr Backlinks mit einem hohen PR, desto wichtiger ist Ihre Seite für Suchmaschinen wie z.B. Google. Dabei ist zu beachten dass es wichtig ist dass die Links von verschiedenen IP´s (Rechnern) stammen (mehre Domains auf einem Rechner mit der selben IP werden von Google als weniger wichtig eingestuft).

Folgende kostenlose Backlink-Checker möchten wir euch empfehlen:

bei Internetbaron.de

bei www.linkdiagnosis.com

bei backlinkwatch.com

Kennt ihr weitere gute kostenlose Back-Link-Checker (egal ob online oder als Desktop-Applikation)?

Teilt Sie uns und anderen Lesern diesen Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Magento – Neue Developer Toolbar für eine schnellere & effizientere Entwicklung

13. November 2009 at 13:52

Auf Magento-Connect gibt es seit kurzem die kostenlose Extension Developer Toolbar for Magento zum Download.

Magento Connect Developer Toolbar for Magento

Magento Connect Developer Toolbar for Magento

Nach der Installation über Magento-Connect erscheint in der Fusszeile des Browsers die Developer Toolbar for Magento:

Magento Developer Toolbar

Magento Developer Toolbar

Die Anzeige kann auch im Magento Admin-Backend auf Global, per Website oder auch per Store-View konfiguriert werden.

Ihr findet die Option „Aktiviert Ja / Nein” unter System->Konfiguration->Erweitert->Entwickleroptionen->Developer Toolbar .

Die Optionen in der Developer Toolbar sind bereits vorhandene Funktionalitäten aus dem Backend, der Mehrwert liegt darin dass das suchen der Option bzw. das lästige klicken durch den Menus sowie der Login in das Admin-Backend entfällt. So kann, vor allem bei der Entwicklung, einiges an Zeit eingespart werden.

Sie Benötigen Unterstützung bei der Erstellung oder Anpassung eines Magento eCommerce Shop System?

Fly2Mars-Media unterstützt Sie in diesem und vielen anderen Bereichen rund um das Thema Internet & IT!

Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Kostenlose SEO Programme (Freeware)

6. November 2009 at 13:22

Bei der Suchmaschinenoptimierung (SEO) gibt es immer wieder kehrende Tätigkeiten welche es zu automatisieren gilt. Vor allem kostenlose Programme vereinfachen die Arbeit enorm. Hier finden Sie eine Übersicht an kostenlosen Freeware Tools, die Sie herunterladen und auf Ihrem Rechner installieren können.

Xenu

Ein sehr gutes Freeware Programm zur Analyse von Webportalen. Mit Analyse der Downloadgröße, eingehender und ausgehender Links jeder Seite, Gesamtanzahl der internen Links etc.

Download Xenu

Free Monitor for Google

Ein kostenlose Tool um für Ihre Webseiten die aktuelle Platzierung in der Suchmaschine Google anhand definierter Keywords heraus zu finden.

Download Free Monitor for Google

Online Tool von Seitenreport

Online bietet die Seite Seitenreport ein kostenlosen Online-Live-Check der Webseite, einfach URL eingeben und nach ein paar Sekunden erscheint die Auswertung!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Firebug – Shortcuts

5. November 2009 at 13:55

Firebug ist einer mit der nützlichsten Tools im Bereich Debuggen von Webseiten ((X)HTML, CSS, JavaScript, etc.).

Mit Hilfe der Mouse & Keyboard-Shortcuts lassen sich viele Funktionen aufrufen oder der Aufruf vereinfachen, die wichtigsten Shortscuts findet ihr hier.

GD Star Rating
loading...
GD Star Rating
loading...

Aufbau der Datei robots.txt – Seiten für die Robots konfigurieren

29. Oktober 2009 at 14:04

Oft ist es sinnvoll bestimmte Seiten oder gar Bereiche einer Web-Seite vor der Indizierung von Suchmaschinen zu schützen. Zum Beispiel wenn es sich um Administrative, oder Seiten an denen noch gearbeitet wird, handelt.
Ggf. wollen Sie auch bestimmte Bilder, Logfiles oder Programmdateien vor der Indizierung der Suchmaschinen schützen damit diese nicht in den Suchergebnissen angezeigt werden.

Um dem gerecht zu werden wurde der Robots Exclusion Standard eingeführt, an den sich seriöse Suchmaschinen wie Google, Bing oder Yahoo! orientieren.

Nach diesem Standard muss eine Textdatei mit dem Namen robots.txt erstellt und diese im Stammverzeichnis der Domain platziert werden, so dass die Robots sie finden und beachten können.

<pre>http://www.beispiel.de/robots.txt
http://download.beispiel.de/robots.txt
http://beispiel.de:8080/robots.txt
</pre>

Der Aufbau der robots.txt erfolgt nach dem folgendem Shema. Zuerst gibt man an für welchen Crwaler eine Anweisung gelten soll, gefolgt von den einzelnen Anweisungen:

# robots.txt fuer http://www.beispiel.de/
User-agent: BeispielRobot
Disallow: /temp/       # Die Dateien sind nur Temporär und nicht von Bedeutung
Disallow: /logfiles/   # Sollen nicht allg. Verfügbar sein
Disallow: /bilder/     # Bilder sind teilweise geschützt und nicht zum download bestimmt
Disallow: /cgi-bin/    # CGI Ausgaben nicht indizieren
Disallow: /privat.html # Die pirivat.html soll nicht über die Suchmaschine gefunden werden

Mit User-agent: BeispielRobot bestimmt man, dass die Anweisungen nur für den genannten Crawler (BeispielRobot) gelten. Mit Hilfe der einzelnen Disallow Einträgen werden Verzeichnisse und Dateien bestimmt, welche nicht indiziert werden sollen. Mit Hilfe des Raute-Symbol (#)können Kommentare definiert werden, diese werden von den Robots ignoriert.

Ein Ausschluss aller Crawler ist mit Hilfe des sog. Wildchar * möglich:

# Alle Robots ausschließen
User-agent: *
Disallow: /temp/

Sollen nur bestimmte Crawler ausgeschlossen werden, sondern kann man diese wie folgt realisieren:

# Download-Tools vom CGI Verzeichnis fernhalten
User-agent: webmirror
User-agent: webzip
User-agent: webcopy
User-agent: wget
Disallow: /cgi-bin/

Eine Seite ganz von der Indizierung durch Suchmaschinen auszuschließen geht wie folgt:

# Komplette Webseite für alle Robots sperren
User-agent: *
Disallow: /

Durch entfernen des Slash (/) wird die Seite ganz für die Indizierung frei gegeben:

# Ganze Seite für Robots freigeben
User-agent: *
Disallow:

Die Groß- und Kleinschreibung wird bei Disallow Einträgen nicht durch die Robots berücksichtigt.

Sie Benötigen Unterstützung bei der Anpassung Ihrer robots.txt oder Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie in diesen und vielen anderen Bereichen rund um das Thema Internet & IT!

Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Debugging im „Opera“ mit „Dragonfly“

15. Oktober 2009 at 13:05

Gerade Webentwickler die von Firefox zu Opera umsteigen vermissen ggf. ein Webmaster-Tool wie das Plugin Firebug.

Als Alternative dazu findet ihr im Opera unter „Extras -> Weiteres -> Entwicklerwergzeuge“ ein Tool Namens „Opera Dragonfly“, welches ähnlich dem Firefox Plugin Firebug, als nützliches Debugging-Tool für Webmaster ist.

Opera Dragonflyer Screenshot 1

Opera Dragonflyer Screenshot 1

Dragon Flyer ScreenShot 2

Dragon Flyer ScreenShot 2

Neben der aufbereiteten (X)HTML, CSS, XML & JavaScripts besteht die Möglichkeit der Debug-Ausgabe, z.B. Debuggen von JavaScript mit Hilfe von Haltepunkten.

In der Kommandozeile ist die direkte Eingabe von Befehlen möglich, wodurch das Testen und Probieren ungemein erleichtert wird.

Anzeigen und Bearbeiten von CSS-Eigenschaften ist ebenso möglich wie die Vorschau des gesamten Seitenlayouts.

Eine Navigation durch den DOM-Baum und die Durchführung von Änderungen klappt ebenfalls wunderbar.

Ähnlich dem Firebug gibt es eine Console, die Fehlermeldungen und sonstige Ausgaben anzeigt und praktische Filtermöglichkeiten zur bereit stellt.

Download Opera Dragonflyer

Englische Einleitung in DragonFlyer

GD Star Rating
loading...
GD Star Rating
loading...

Google Webmastertools – neues Tool zur Parameterbehandlung bei Duplicate Content

13. Oktober 2009 at 14:02

Wie so eben im Webmaster Zentral Blog von Google angekündigt, wurde ist es ab sofort möglich in den Webmastertools Parameterbehandlung bei Duplicate Content zu konfigurieren.

Damit lässt sich der Umgang mit Duplicate Content erleichtern. Mit der Parameterbehandlung (engl. „Parameter Handling“) bietet sich die Möglichkeit zu sehen, bei welchen Parametern Google davon ausgeht sie ignorieren oder eben nicht ignorieren zu können. Mit der neuen Funktion kann die Annahmen von Google, wenn notwendig,  überschrieben/konfiguriert werden.

Ausführliche Infos und Beschreibung der Funktion findet ihr hier im Google Webmaster Zentrale Blog

GD Star Rating
loading...
GD Star Rating
loading...

Google: Neue Funktion „Google Labs“ in Webmastertools

13. Oktober 2009 at 09:19
Neue Google Labs Funktionen in Webmaster Tools

Neue Google Labs Funktionen in Webmaster Tools

In den Google Webmastertools gibt es jetzt im Menu die Funktion „Google Labs“ (siehe Screenshot). Aktuell befinden sich dort die Punkte „Abruf wie beim Googlebot“ und „Maleware Details“.

Gute Idee Google-Labs mit zu verknüpfen, wir sind gespannt welche weiteren Funktionen zu erwarten sind.

Hier ein paar Screenshots der einzelnen Funktionen:

Abruf wie beim Googlebot

Abruf wie beim Googlebot

screenshot3

Malware-Details

GD Star Rating
loading...
GD Star Rating
loading...