Reputationsmanagment

28. November 2009 at 20:03

Es ist nicht notwendig den Namen zu ändern, nur weil peinliche Suchresultate in Verbindung mit diesem zu Tage gefördert werden. „Reputationsmanagment“ ist zeitaufwendig, aber kann sich lohnen. Wie man seine Online-Präsenz sowie die Informationen, die über einen selbst online verfügbar sind, beeinflussen kann erfahrt ihr in diesem Artikel.

Der erste Schritt ist immer die Vorsorge: Ihr solltet zweimal überlegen welche persönlichen Informationen ihr online stellt. Denkt immer daran, dass etwas, das in dem Kontext, in dem ihr es veröffentlicht, angemessen ist, später durch Suchmaschinen sehr leicht für Dritte zugänglich sein wird. Oft wird dieser Content außerhalb des Kontexts von Leuten gefunden werden, welche die ursprüngliche Website eigentlich gar nicht besucht haben. Geht niemals davon aus, dass eure Eltern, nur weil sie nicht euren Blog lesen, niemals den Post über das neue Piercing finden werden.

Wenn etwas im Internet veröffentlicht wurde, wird diese Information auch für alle Zugänglich sein, ggf. über Suchmaschinen mit Suchbegriffen welche Ihr niemals mit euch in Verbindung gesetzt hättet. Wollt ihr diese Information von der Website zu entfernen reicht es oft nicht aus das nur auf der Webseite zu löschen diese veröffentlicht wurde. Suchmaschinen wie z.B. Google verfügen über ein Cache welcher Daten vorhält die ggf. schon gelöscht wurden. Content der in den Suchergebnissen auftaucht muss nicht immer aktuell sein. Dieser Content ist immer noch im Web für alle Zugänglich und muss teilweise mühsam entfernt werden.

Möglichkeiten dies zu tun sind unter anderem:

  • Löscht den Content auf der Website auf der dieser veröffentlicht wurde, solltet ihr der Besitzer der Webseite sein ist dies meist einfach, alternativ bittet den Betreiber der Webseite diesen zu entfernen. Scheut nicht den Kontakt zu dem Webmaster aufzunehmen!
  • Nach dem Ihr den Content von der Seite entfernt habe könnt ihr die Entfernung des Contents aus den Google-Suchergebnissen mithilfe des Tools zum Entfernen von Webseiten beschleunigen.

Sollte es nicht möglich sein mit dem Webmaster in Kontakt zu treten, oder der Webmaster weigert sich diesen zu entfernen, so könnt ist es auch nicht möglich diesen Content vollkommen aus den Google-Suchergebnissen zu verbannen. Ihr könnt nun versuchen die Sichtbarkeit des Contents in den Suchergebnissen zu vermindern, indem ihr auf eurer Webseite aktiv nützliche und positive Informationen über eure Person oder euer Unternehmen anbietet und so den Besucherstrom auf eure Webseite umleitet. Mit Qualitativ hochwertigem Content auf eurer Webseite könnt ihr in der Lage seid die ungeliebten Inhalte fremder Webseiten zu übertreffen und damit den Schaden, den negativer oder peinlicher Content eurer Reputation zufügt, reduzieren.

Positiven Content könnt ihr auf verschiedene Arten veröffentlichen und damit fördern:

  • Ihr könnt Google-Profil erstellen. Wenn jemand nach eurem Namen sucht, kann Google einen Link zu eurem Google-Profil in den Suchergebnissen anzeigen. Besucher können dann diesem Link folgen und die  Informationen, die ihr in eurem Profil bereitgestellt habt, bevorzugt abrufen.
  • Hat ein Kunde eine negative Bewertung zu eurem Unternehmens verfasst, so könnt ihr andere Kunden, welche mit dem Unternehmen zufrieden sind, bitten, ausgeglichenere Bewertungen online zu stellen um so die Besucher auf positive Bewertungen umzuleiten. Generell solltet ihr darauf achten (z.B. mit Google-Alert) dass mehre positive Bewertungen im Netz verfügbar sind!
  • Veröffentlicht ein Blogger unschmeichelhafte Fotos von euch, nehmt Fotos, die euch lieber sind, und veröffentlicht diese!
  • Veröffentlicht eine Zeitung einen Artikel über ein Gerichtsverfahren, der euch in schlechtes Licht rückt, das Verfahren aber schlussendlich zu eurem Vorteil ausgegangen ist, könnt ihr durch ein Update des Artikels oder gar um einen Nachfolgeartikel zur Entlastung bitten. Scheut niemals den Kontakt zum Betreiber der Webseite!

Ihr habt weitere gute Tipps zum Thema Reputationsmanagment?

Teilt Sie mit uns und anderen Lesern dieses Artikels und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Richtig verlinken nach dem Link-Pyramiden Konzept

23. November 2009 at 11:01

Konzept

Linkjuice (Vererbung von Pagerank, Trustrank, etc…) wird jeweils über ein Link von einer Seite zur nächsten weitergegeben. Eine Ranking-Penalty einer Suchmaschine endet dagegen in der Regel bei der nächsten Stufe.

Deshalb werden die Seiten mit der niedrigsten Qualität nur auf die nächst höhere Seite in dem aufzubauenden Netzwerk verlinkt. Die Links können auch seitlich oder nach oben zeigen, aber niemals nach unten (oben = hochwertige Seiten, unten = weniger wichtige).

Stufe 1: Das Fundament

Das Fundament der Pyramide bildet sich aus einem Netzwerk von Websites von kostenlosen Free-Hostern, Blog-Hosts, Freehostern oder Gästebüchern. Auf diesen Seiten werden keine Ads (Werbung in Suchmaschinen) geschaltet. Diese Seiten linken grundsätzlich nur auf andere qualitativ hochwertige Seiten im Internet und auf Seiten aus der 2. Stufe deiner Link-Pyramide. Die einzigen Links welche auf solche Seiten zeigen sollen sind freie „Spam-Links“ von Web-Katalogen, Gästebüchern oder automatisierte Linkeinträge bei Kommentaren.

Stufe 2: Die Absicherung

Hier werden eigene Domains bei billigen Shared-Hostern gehosted um mögliche Spuren zu verbergen. Diese Seiten werden zwar von den Basisseiten von Stufe 2 verlinkt, linken aber nicht mehr zu diesen zurück. Auch der dezente Einsatz von „Spam-Links“  (siehe Stufe 1) sind ggf. vertretbar. Vorzugsweise sind Einträge aus Webkatalogen und Pressediensten zu bevorzugen!

Stufe 3: Die Basis / Die goldene Krone

Die wirklich wichtigen Seiten, wie z.B. Authorities in Nischen, stehen in dieser Stufe und verlinken jeweils wieder auf die nächst höhere Stufe sowie ggf. untereinander. Gestärkt werden diese Seiten von der Verlinkung aus Level 2 Seiten, Linktausch, Linkbait und Linkkauf. Diese Seiten können monetarisieren, ihr primäres Ziel ist allerdings die Verbindung zur Spitze der Pyramide.

Stufe 4: Die Spitze der Pyramide

Diese Stufe ist die eigentlich zu optimierende Zielseite (Seite des Kunden, etc.). An dieser werden die Erfolge gemessen und meist wird nur diese dem Kunden präsentiert sowie in den SERPs (Search Engine Result Pages) gerankt. Diese Seite besteht aus guten redaktionellen Inhalten, die als Linkbait fungieren und sind in der Regel Seiten des daily Business (z.B. eCommerce-Seiten welche Umsatz generieren).

Optimal ist es, wenn möglich, Blogger zu bezahlen um diese Seite zu besprechen und entsprechend zu verlinken. Generell sollte nur Links höchster Qualität einkaufen. Diese Seite wird selbst verständlich durch Links von Seiten aus der vorherigen Stufe 3 aus deinem eigenen Netzwerk gestützt.

Zum Schluss noch mal der wichtige Hinweis: Niemals quer durch das Netzwerk verlinken!

Quelle: seoblackhat.com/2009/07/10/link-pyramids

Ihr habt weitere gute Tipps zum Thema Richtig verlinken / Link-Konzepte?

Teilt Sie mit uns und anderen Lesern dieses Artikels und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

SOUNDTRACK zur SEO CAMPIXX 2010

19. November 2009 at 17:27

Hier der Soundtrack zur SEO CAMPIXX 2010 in Berlin.

GD Star Rating
loading...
GD Star Rating
loading...

SEO-Konferenz am 26.02.2010 SEMSEO in Hannover

19. November 2009 at 17:14

Am 26.02.2010 findet in Hannover (übrigens Heimatstadt von Fly2Mars-Media) wieder die eintägige Branchen-Konferenz SEMSEO statt. Diese seit 2007 einmal jährlich statt findende Konferenz erwartet 2010 rund 350 Mitarbeiter und Führungskräften aus mittelständischen und großen Unternehmen aller Branchen. Großer Wert wird auf den Austausch zwischen den Besuchern (SEO- & SEM-Experten, Marketing- & Kommunikationsexperten sowie Fachentscheider) gelegt.

Im Anschluss findet abends die legendäre Pubkonferenz (PubCon) statt, laut den Veranstaltern das größte SEO-Networking-Event im deutschsprachigen Raum. Veranstaltungsort ist wiederholt die HBX-Brauerei am Aegi in Hannover. Für alle SEMSEO-Teilnehmer ist der Eintritt zu diesem Event kostenfrei.

Weitere Infos findet ihr unter semseo.abakus-internet-marketing.de

GD Star Rating
loading...
GD Star Rating
loading...

Google Leitpfaden für Suchmaschinenoptimierung (SEO) – Teil 2

12. November 2009 at 09:25

Teil 2 – der Zusammenfassung der offiziellen Aussagen aus dem Webmaster Zentrale Blog bzw. des Google Verantwortlichen Matt Cutts für den Bereich Suchmaschinenoptimierung (SEO).

Hier geht es zurück zu Teil 1

Wie Zählen Links von Twitter und Facebook?

Google (Matt Cuts) sagt:

„Links von relevanten und wichtigen Websites waren immer eine gute Methode um Traffic und Akzeptanz für eine Website zu erhalten. Wie beurteilst du Links zu einer Website von neuen Plattformen wie Twitter und Facebook?“

Also: meine Standardantwort – und ich spreche übers Ranking in der Websuche – war immer, dass Google alle Links im Grunde gleich behandelt. Wir greifen auf die Tatsache zurück, dass ihr PageRank habt. Dadurch wissen wir, wieviel Reputation eine Website besitzt, und wir berücksichtigen nicht nur die Anzahl der Links zu einer Website. Es spielt eine Rolle wieviel Reputation diese Links haben. Es kommt nicht wirklich darauf an, ob sie von einer .gov- oder .edu-Domain kommen. Das gleiche trifft auch auf Twitter und Facebook zu.

Eine interessante Tatsache gibt es in Bezug auf Twitter und Facebook aber zu beachten. Fangen wir mit Facebook an: Viele der Profile sind nicht öffentlich. Und Google kann nur denjenigen ausgehenden Links PageRank geben, deren Seiten wir erreichen. Wenn euer Profil bei Facebook also vollkommen öffentlich ist, kann Google es crawlen. Dann könnten diese Links PageRank vererben. Wenn wir nicht rankommen, tun sie es wahrscheinlich nicht.

Die meisten Links auf Twitter sind auf nofollow gesetzt. Das führt uns beinahe auch schon zu einer guten Antwort für Twitter. Sie müssen sich nicht so sehr um Spam kümmern und darum, dass Leute versuchen, sie mit allen möglichen Links vollzustopfen.

Also zumindest in der Websuche, unserem organischen Ranking, behandeln wir Links von Twitter und Facebook gleich. Wählt einfach eure Lieblingsplattform oder Website! Wir behandeln sie, genau wie wir Links von WordPress, von .edu- oder .gov-Domains behandeln. Es ist nicht so, dass ein Link von einer .edu-Domain oder ein Link von einer .gov-Domain automatisch mehr zählt. Die spezifische Plattform kann aber sehr wohl Probleme haben. Sei es, dass sie nicht gecrawlt wird, oder dass nofollow die entsprechenden Links davon abhält PageRank zu vererben.

Quelle

Wie stelle ich am besten Content abhängig vom Standort des Users zur Verfügung?

Google (Matt Cuts) sagt:

Also, es gibt viele Missverständnisse über den Unterschied zwischen Cloaking und Geo- oder IP-Delivery.

IP-Delivery gibt den Content abhängig von der IP-Adresse aus. Das klingt logisch, oder?

Cloaking zeigt Usern anderen Content als Googlebot. Cloaking ist also eine Art von IP-Delivery, aber nicht jede IP-Delivery ist Cloaking.

Und eine besondere Art von IP-Delivery, die nicht unter Cloaking fällt, zeigt Usern unterschiedlichen Content in verschiedenen Ländern. Google macht das auch. Wenn ihr Google in Frankreich aufruft, dann leiten wir euch wahrscheinlich zu google.fr. Wenn ihr Google in Deutschland aufruft, dann leiten wir euch wahrscheinlich zu google.de. Wir schauen also auf die IP-Adresse des Users und wir sagen „Wisst ihr was? In Deutschland ist google.de wohl nützlicher für diesen User.“ Was aber wichtig zu verstehen ist, wir haben keine gesonderte Behandlung für Googlebot bei länderabhängiger IP-Delivery. Und genauso wenig solltet ihr gesondert mit Googlebot umgehen. Behandelt ihn nicht wie ein besonderes Land. Macht im Großen und Ganzen nichts anders für Googlebot. Nehmt einfach die IP-Adresse, über die Googlebot gekommen ist, und behandelt sie genauso, wie ihr irgendeinen anderen User von derselben IP-Adresse behandeln würdet. Wir

Es ist kein Cloaking, dem User Content abhängig von der IP-Adresse zu zeigen, da ihr Googlebot nichts anderes zeigt als einem normalen User. Ein User aus den USA und Googlebot aus den USA würden dieselbe Seite erhalten, und demnach ist es kein Cloaking. Macht euch also bei IP-Delivery keine Sorgen in Bezug auf die IP-Adresse eurer User, solange ihr sichstellt, dass ihr denselben Content an User und an Googlebot liefert, dann ist das in keiner Weise problematisch und gilt auch nicht als Verletzung unserer Qualitätsrichtlinien für Webmaster.

Quelle

Google kann jetzt JavaScript-Links finden. Was passiert mit all den gekauften Links, die in JavaScript-Code stecken. Wird Google diese Links von nun an abstrafen?

Google (Matt Cuts) sagt:

wir wissen über alle bekannten Werbe-Netzwerke Bescheid und können sie auch sehr gut handhaben.

2009 strafen wir das noch nicht ab, wir könnten damit aber anfangen, obwohl es meiner Erfahrung nach kein großes Problem ist, denn der größte Anteil davon sind große Werbe-Netzwerke und Dinge, mit denen wir bereits gut umgehen können. Also wie immer:

wenn ihr Textlinks verkauft, stellt sicher, dass diese Links keinen PageRank vererben, und dass sie Suchmaschinen nicht beeinflussen. Es gibt zahlreiche einfache Wege, dies zu bewerkstelligen. Die haben sich nicht geändert seit wir über bezahlte Links reden: die Verwendung von robots.txt, die Verwendung des Nofollow-Attributs, und so weiter.

Quelle

Ist es möglich, davon zu profitieren, falls Content von der eigenen Site gescraped wurde?

Google (Matt Cuts) sagt:

Nun, wenn ihr sicherstellt, dass eure Seiten Links zu euch haben oder die Artikel zu euch linken falls ihr gescraped wurdet, dann kann es passieren, dass der gescrapte Content zu euch verlinkt. Sollte es sich dabei um einen erfolgreichen Scraper oder Spammer handeln, dann können euch
diese Links sogar weiter helfen.
Es gibt Leute, die Scraper wirklich hassen und versuchen, rigoros gegen sie vorzugehen und ihren gesamten Content zu eliminieren und vom Web-Host zu verbannen.
Ich neige eher dazu, mir keine allzu großen Sorgen darüber zu machen, weil in der absoluten Mehrzahl der Fälle, eure Originalseite vorn platziert wird – und nicht der Scraper. Außerdem: Wenn der gescrapte Content eure Links enthält, dann verlinkt er auch auf eure Site. Also im schlimmsten Fall wird es euch nicht wirklich schaden, aber in manchen Ausnahmen kann es euch sogar ein wenig helfen.

Normalerweise braucht ihr euch keine großen Sorgen über Scraper zu machen. Sie haben meist keinen großen Einfluß auf das, was User zu sehen bekommen. Wenn ihr also doch einen Scraper entdeckt, der besser rankt als ihr, dann könnt ihr eine „Digital Millennium Copyright Act“-Anfrage (DMCA request) stellen. Oder aber, falls es sich um einen echten Spammer mit wirren, sinnlosen Texten handelt, könnt ihr natürlich auch einen Spam-Report einschicken – das kann eine andere Möglichkeit sein, gegen diesen Scraper vorzugehen.

Quelle

Wenn eine Site von Google abgestraft wird, warum erhält der Inhaber keine Nachricht in den Google Webmaster-Tools, weshalb die Abstrafung erfolgt ist? Im Moment tappen Webmaster im Dunkeln, wenn es darum geht, die Ursache für eine Abstrafung herauszufinden.

Google (Matt Cuts) sagt:

Also, tatsächlich machen wir das schon. Wenngleich auch nicht für alle Abstrafungen, da es Spammer und Blackhats gibt, die wir nicht informieren möchten. Aber für Dinge wie etwa versteckten Text, falls wir denken, dass eure Site gehackt wurde oder anfällig für Hacker – wir haben sogar darüber nachgedacht, Nachrichten an Leute zu schicken, die möglicherweise alte Google Analytics-Pakete haben.

Wir schicken also einer großen Anzahl von Leuten Warnungen über ihre Site, um zu sagen, Vorsicht, wir mussten eure Site abstrafen, wegen verstecktem Text oder aus anderen Gründen. Wir machen dies nicht für jede einzelne Site und wir machen es nicht für jede einzelne Abstrafung, da es Leute gibt, die einfach sehen wollen, wie weit sie damit kommen, und sobald sie merken, dass sie erwischt wurden, dann fangen sie mit einer anderen Site an.

Wir suchen also nach Wegen, die „good Guys“ wissen zu lassen, wenn es Probleme gibt, ohne dass die „bad Guys“ benachrichtigt werden, aber wir werden wahrscheinlich nie in der Lage sein, jeder einzelnen Person mitzuteilen, dass sie abgestraft wurde. Wir bemühen uns jedoch weiterhin, hier Fortschritte zu machen.

Quelle

Glaubst du, dass Verweise (Erwähnungen von Websites, ohne dass darauf verlinkt wird) eines Tages als Ranking-Signal für die Websuche Verwendung finden werden?

Google (Matt Cuts) sagt:

Darauf habe ich zwei Antworten. Die erste ist, dass ich kein Ranking-Signal ganz ausschliessen will.

Derzeit ist es so, dass viele Webmaster darauf bauen, viele Links zu bekommen. Wenn alles, was sie brauchen, „example.com“ als Text ist, dann können sie das im ganzen Web verteilen, in Foren und Blogs usw. Überall dort, wo User die Möglichkeit haben, Content zu kreieren, würden solche Verweise gesetzt werden.

Wir sind also ein wenig skeptisch, ob wir diese Art von Ranking-Signal verwenden sollten, da das leicht missbraucht werden könnte. Man könnte einfach überall Verweise auf URLs hinterlassen, auch wenn man sie nicht verlinken kann.

Quelle

Ich verwende ein Website-Template (ich bin Anfänger). Das h1-Tag erscheint bei mir nach dem h2-Tag im Code. Kann der Spider damit umgehen?

Google (Matt Cuts) sagt:

Ja – ich würde mir da nicht so viele Gedanken machen. Wir können mit h1- und h2-Tags ganz gut umgehen. Vermeidet die Verwendung von h1 oder h2 für den gesamten Content einer Seite. Ihr könnt euch nicht vorstellen, was Leute alles für Zeug ins Web stellen. Es gab vor einigen Jahren mal eine Studie, die besagte, dass 40 % der Webseiten Syntaxfehler aufweisen.

Wenn jetzt nur ein h1 unter einem h2 steht – also das würde mich nicht beunruhigen.
Es gibt so viele defekte oder unschöne Webseiten sowie Seiten, die gar kein HTML sind. Wir versuchen, diese Seiten dennoch zu verarbeiten, weil es sich trotzdem um gute Informationen handeln kann.

Also, wenn nur die Reihenfolge einiger h1- oder h2-Tags durcheinander ist, würde ich mir darüber keine allzu großen Sorgen machen.

Quelle

Welche Faktoren beeinflussen ein Video in den Universellen Ergebnissen in Google? Ich habe das gleiche Video, eins auf Youtube mit vielen Views, Kommentaren und Bewertungen, dennoch ist das andere mit wenigen Views und keinen Kommentaren dasjenige, das rankt, wie kommt das?

Google (Matt Cuts) sagt:

Also, meine erste Vermutung, ohne Genaueres zu wissen, ist, dass dieses Video evtl. Links von einer sehr angesehenen Site bekommt und daher mehr PageRank hat.
Wir schauen immer noch auf Links; wir schauen immer noch auf PageRank, wann immer wir Dinge ranken. Falls dieses Video Erwähnung auf einer sehr angesehenen Site findet, dann könnte es sein, dass es mehr PageRank hat und daher besser rankt. Es ist seltsam – wenn das eine Video mehr Views, Kommentare und Bewertungen hat, dann bekommt es wohl Empfehlungen von irgendwoher, aber vielleicht war dort ein wirklich guter Link, der auf die andere Site verweist, und diese hier hat nicht so viele Links o. ä.

Quelle

Hat die Position von Keywords in der URL eine erkennbare Auswirkung? Ist zum Beispiel example.com/keyword/London besser als example.com/London/keyword?

Google (Matt Cuts) sagt:

Ehrlich gesagt würde ich mir wegen solcher Details keinen Kopf machen. Es hilft ein wenig, Keywords in der URL zu haben. Es hat keine so große Auswirkung; ihr braucht also eure URLs nicht mit unzähligen Keywords vollzustopfen.

Quelle

Wird Google eines Tages Text in Bildern erkennen?

Google (Matt Cuts) sagt:

Das wäre wirklich eine Menge Arbeit. Ich meine, es ist eine lustige Idee, aber ich glaube nicht, dass ihr bei Google in nächster Zeit darauf zählen solltet.

Quelle

Der Konkurrent eines Kunden hat rund 100 Blogs mit kaum echtem Content erstellt.
Er wird bei Google für alle wichtigen Keywords seiner Branche super gerankt.
Warum kommt man mit dieser Taktik immer noch durch? Ich dachte, das sei eine „Crap Hat“-Taktik?

Google (Matt Cuts) sagt:

„Crap Hat“ ist ein Ausdruck, den Danny Sullivan kürzlich auf einer Konferenz verwendet hat. „Crap Hat“ drückt die Verärgerung darüber aus, wenn jemand nur so spammigen Schund produziert, der keinem was bringt. Laura, schick uns doch einen Spam-Bericht mit Details …

Quelle

Ich habe auf meinem Blog eine „Blogroll“-Seite mit Links zu den Blogs aller meiner Freude. Beeinflusst das die Reputation meines Blogs in Google? Vor kurzem wurde bei einem Freund von mir wegen einer solchen Seite der PageRank von 5 auf 0 herabgesetzt.

Google (Matt Cuts) sagt:

Sicher haben eure Links Einfluss auf eure Reputation. Wenn ihr zu Spam-Seiten verlinkt, also zu Seiten, die wir als Müll ansehen, kann das die Reputation beeinträchtigen. Und wenn ihr Links in der Blogroll verkauft, stellt das sicherlich ein großes Risiko dar. Aber nur weil ein Freund beim PR von 5 auf 0 abgerutscht ist, bedeutet das nicht unbedingt, dass es an der Blogroll lag. Es heißt auch nicht unbedingt, dass wir annehmen, er verkaufe Links. Es könnte ein zeitweiliges Problem
mit der Kanonisierung sein. Deshalb würde ich nicht automatisch annehmen „Oh, das lag also an der Blogroll.“

Quelle

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Google Leitpfaden für Suchmaschinenoptimierung (SEO) – Teil 1

6. November 2009 at 09:00

Hier eine Zusammenfassung der offiziellen Aussagen aus dem Webmaster Zentrale Blog bzw. des Google Verantwortlichen Matt Cutts für den Bereich Suchmaschinenoptimierung (SEO). – Teil 1

Sind Produktbeschreibungen auf E-Commerce-Seiten Duplicate Content, falls die gleichen Produktbeschreibungen auf anderen Seiten auftauchen? Dies passiert bei vielen Markenartikeln.

Google (Matt Cuts) sagt:

Man sollte sich fragen:
„Wo ist bei mir der Mehrwert? Was hat meine Affiliate-Site oder Site ohne eigenen Content an Mehrwert im Vergleich zu den hunderten anderer Sites?“

Wenn möglich, versucht eigenen Content zu erstellen und einen einzigartigen Mehrwert zu bieten. Nehmt nicht einfach einen Affiliate-Feed und schustert damit eine billige Site zusammen. Sowas möchte doch eigentlich niemand sehen. Im Allgemeinen ist es also am Besten, wenn ihr einen eigenen Blickwinkel bietet und nicht bloß genau das Gleiche, was alle anderen auch haben.

Quelle

Es scheint von geringer Bedeutung für Besucher zu sein, wo genau sich eine Seite innerhalb der Sitestruktur befindet. Ist es besser, Content-Seiten nahe an der Root zu platzieren, oder sollten sie in eine tiefere, Themen bezogene Struktur eingeordnet sein?

Google (Matt Cuts) sagt:

Dies ist kein SEO-Tipp. Dies ist ein rein praktischer, allgemeiner Tipp. Je weniger Klicks benoetigt werden,
um eine Seite von der Root aus zu erreichen, desto wahrscheinlicher ist es, dass Besucher sie finden. Falls jemand achtmal klicken muss, um die Registrierungsseite für eure Konferenz zu finden, anstatt sich gleich auf der Hauptseite registrieren zu können, dann werden weniger Leute diese durch so viele Klicks entfernte Seite finden.

Quelle

Wie genau geht Google beim Backlink-Check mit [link:…] vor? Werden alle Nofollow-Backlinks ausgefiltert oder warum zeigen Yahoo/MSN mehr Backlinks oder Ergebnisse?

Google (Matt Cuts) sagt:

Früher hatten wir nur für einen kleinen Anteil der Backlinks Platz, weil die Websuche im Mittelpunkt stand und wir nicht so viele Server für diese Link-Doppelpunkt-Anfragen hatten. Im Laufe der Zeit haben wir die Anzahl der Backlinks, die wir mit Link-Doppelpunkt anzeigen, stark vergrößert. Es ist aber immer noch nur ein Ausschnitt, ein relativ kleiner Anteil.

Quelle

Ist eine Website mit einem CSS-basierten Layout SEO-freundlicher als eine Site mit einem tabellenbasierten Layout?

Google (Matt Cuts) sagt:

Ich würde mir, ehrlich gesagt, nicht so viele Gedanken darüber machen.
Wir erkennen Tabellen, wir erkennen CSS – wir können mit beidem umgehen.
Wir versuchen beides zu bewerten, egal welche Art von Layout ihr nun verwendet.

Ich würde das nehmen, was für euch am besten funktioniert.

Quelle

Wenn man eingehende Links von Websites mit gutem Ruf kriegt, aber diese Websites nicht in einer Suche mit [link:webname.com] auftauchen, heißt das, dass aus der Perspektive von Google diese eingehenden Links nicht zählen?

Google (Matt Cuts) sagt:

Nein, das tut es nicht. Link-Doppelpunkt zeigt nur einen Ausschnitt, einen Teilausschnitt von den Backlinks, die wir kennen. Und es ist ein zufälliger Ausschnitt. Deshalb zeigen wir nicht nur die Backlinks mit hohem PageRank. Das haben wir früher so gemacht – und dann konnten alle mit PageRank 4 oder darunter ihre Backlinks nicht sehen, weil sie nicht als hoher PageRank zählten. Deshalb haben wir es fairer gestaltet, indem wir zufällig bestimmen, welche Backlinks wir zeigen.

Quelle

Wie mit ungewollten Links Umgehen (schlechte Nachbarschaft)

Google (Matt Cuts) sagt:

Falls eure Site von dubiosen Quellen angelinkt wird, besteht kein Grund zur Panik… lest einfach weiter!

Es trifft zu, dass Verlinkung für den Google-Algorithmus eine sehr wichtige Rolle spielt, allerdings ist es nur einer von vielen Faktoren. Hochwertige Inhalte – wir sagen das sehr oft und gern – und nützliche Tools oder Services spielen eine große Rolle. Die Struktur der Website, zum Beispiel das Vorkommen von Keywords im Seitentitel oder die Keyword-Dichte einer Seite, ist ein weiterer Faktor. Wenn ihr also seht, dass eine Website von schlechter Qualität zu eurer Site linkt, dann denkt auch daran, dass es neben Links noch viele andere Kriterien gibt, die dazu beiträgen, wie Google eine Website bewertet. Aus der Perspektive der User sind regelmäßige Aktualisierungen und guter Contet die ausschlaggebenden Dinge.

Quelle

Frage: Wird Anchor-Text durch alle 301-Weiterleitungen übernommen? Gibt es eine Penalty für Websites, die beim Linkaufbau nur darauf setzen?

Google (Matt Cuts) sagt:

Normalerweise wird der Anchor-Text übernommen, wenn eine 301-Weiterleitung stattfindet, aber wir versprechen nicht, dass dies jedesmal geschieht.

Die Frage ist ja: wird er immer übernommen? Nicht unbedingt. Wir behalten uns das Recht vor, nicht nur Links zu werten und wie wir die Bedeutung und den Trust von Links bestimmen, sondern ebenso den Trust, den wir Redirects zuordnen. Ich kann verraten, dass, falls ihr beim Linkaufbau nur auf 301-Redirects setzt, das ziemlich auffällig ist, weil wir alle Redirects, die uns unterkommen, loggen, genauso wie wir alle Links loggen.

Quelle

Was ist deine Meinung zu ‚PR-Sculpting‘ (also PR-Formung)? Nützlich und zu empfehlen, falls richtig gemacht oder doch unmoralisch?

Google (Matt Cuts) sagt:

Nun, ich würde nicht sagen, dass es unmoralisch ist, denn es ist ja alles auf eurer Website – ihr könnt natürlich bestimmen, wie der PR innerhalb eurer Site fließen soll. Ich würde sagen, dies ist nicht das Erste, an dem ich arbeiten würde.
Ich würde daran arbeiten, mehr Links zu bekommen und hochwertigen Content zu bieten – das sind immer die Dinge, die ihr als Erstes beachten solltet. Aber wenn ihr bereits einen bestimmten Stand an PR erreicht habt, dann könnt ihr natürlich daran arbeiten, den PageRank zu „formen“.

Quelle

Betrachtet Google das Yahoo!-Verzeichnis oder Best of the Web als Quellen bezahlter Links? Falls nicht, weshalb ist dies dann anders als bei anderen Sites, die Links verkaufen?

Gute Redaktionell betreute Verzeichnisse wie z.B. beim Yahoo!-Verzeichnis, wo Einträge auch abgelehnt werden, ist ein Eintrag durch aus positiv. Verzeichnisse wo Einträge bezahlt werden müssen, eher negativ weil deren Mehrwert für den Benutzer geringer ist.

„Wann immer wir danach schauen, ob ein Verzeichnis nützlich für User ist, fragen wir uns, o.k., was ist der eigentliche Nutzen dieses Verzeichnisses.“

Quelle

Content oder Links? Was ist wichtiger?

Google (Matt Cuts) sagt:

Googles Algorithmus wird ständig weiterentwickelt. Ist es da besser, außergewöhnliche Links und mittelmäßigen Content zu haben oder außergewöhnlichen Content und mittelmäßige Links?

Guter Content muss die Grundlage jeder guten Website sein, weil mittelmäßiger Content eben keine außergewöhnlich guten Links anzieht, und wer versucht solche Links für wirklich schlechten Content zu gewinnen, macht es sich echt schwer. Ihr würdet zu Techniken greifen müssen, die wir als anrüchig oder schlecht fürs Web halten: beispielsweise Linkkauf.
Deshalb ist es viel besser, guten Content zu erstellen, um diese Links auf natürliche Art und Weise zu erhalten und so beides zu haben: guten Content und dadurch gute Links.

Quelle

Welches Suchmedium liefert verlässlichere Ergebnisse: Google oder Twitter?

Google (Matt Cuts) sagt:

Twitter ist toll, um Nachrichten in Echtzeit zu erfahren und fantastisch, um Fragen an eure Freunde zu stellen. Und in Google versuchen wir hingegen, wirklich verlässliche und seriöse Informationen zu liefern. Wenn ihr also nach dem Datum sortiert, dann ist Twitter fantastisch.
Wenn ihr eine Antwort auf eine Frage sucht, die seit einiger Zeit besteht, dann ist Google großartig dafür.

Quelle

Hier geht es weiter zu Teil 2

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Aufbau der Datei robots.txt – Seiten für die Robots konfigurieren

29. Oktober 2009 at 14:04

Oft ist es sinnvoll bestimmte Seiten oder gar Bereiche einer Web-Seite vor der Indizierung von Suchmaschinen zu schützen. Zum Beispiel wenn es sich um Administrative, oder Seiten an denen noch gearbeitet wird, handelt.
Ggf. wollen Sie auch bestimmte Bilder, Logfiles oder Programmdateien vor der Indizierung der Suchmaschinen schützen damit diese nicht in den Suchergebnissen angezeigt werden.

Um dem gerecht zu werden wurde der Robots Exclusion Standard eingeführt, an den sich seriöse Suchmaschinen wie Google, Bing oder Yahoo! orientieren.

Nach diesem Standard muss eine Textdatei mit dem Namen robots.txt erstellt und diese im Stammverzeichnis der Domain platziert werden, so dass die Robots sie finden und beachten können.

<pre>http://www.beispiel.de/robots.txt
http://download.beispiel.de/robots.txt
http://beispiel.de:8080/robots.txt
</pre>

Der Aufbau der robots.txt erfolgt nach dem folgendem Shema. Zuerst gibt man an für welchen Crwaler eine Anweisung gelten soll, gefolgt von den einzelnen Anweisungen:

# robots.txt fuer http://www.beispiel.de/
User-agent: BeispielRobot
Disallow: /temp/       # Die Dateien sind nur Temporär und nicht von Bedeutung
Disallow: /logfiles/   # Sollen nicht allg. Verfügbar sein
Disallow: /bilder/     # Bilder sind teilweise geschützt und nicht zum download bestimmt
Disallow: /cgi-bin/    # CGI Ausgaben nicht indizieren
Disallow: /privat.html # Die pirivat.html soll nicht über die Suchmaschine gefunden werden

Mit User-agent: BeispielRobot bestimmt man, dass die Anweisungen nur für den genannten Crawler (BeispielRobot) gelten. Mit Hilfe der einzelnen Disallow Einträgen werden Verzeichnisse und Dateien bestimmt, welche nicht indiziert werden sollen. Mit Hilfe des Raute-Symbol (#)können Kommentare definiert werden, diese werden von den Robots ignoriert.

Ein Ausschluss aller Crawler ist mit Hilfe des sog. Wildchar * möglich:

# Alle Robots ausschließen
User-agent: *
Disallow: /temp/

Sollen nur bestimmte Crawler ausgeschlossen werden, sondern kann man diese wie folgt realisieren:

# Download-Tools vom CGI Verzeichnis fernhalten
User-agent: webmirror
User-agent: webzip
User-agent: webcopy
User-agent: wget
Disallow: /cgi-bin/

Eine Seite ganz von der Indizierung durch Suchmaschinen auszuschließen geht wie folgt:

# Komplette Webseite für alle Robots sperren
User-agent: *
Disallow: /

Durch entfernen des Slash (/) wird die Seite ganz für die Indizierung frei gegeben:

# Ganze Seite für Robots freigeben
User-agent: *
Disallow:

Die Groß- und Kleinschreibung wird bei Disallow Einträgen nicht durch die Robots berücksichtigt.

Sie Benötigen Unterstützung bei der Anpassung Ihrer robots.txt oder Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie in diesen und vielen anderen Bereichen rund um das Thema Internet & IT!

Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Was ist Black Hat SEO?

23. Oktober 2009 at 15:23

Gerade für unerfahrene SEOs ist jedes Mittel recht welches dazu hilft innerhalb kürzester Zeit die Webseite in die Top10 der Suchmaschinen zu katapultieren.

Als SEO sollte man wissen welche Methoden erlaubt sind und welche gegen die Richtlinien der Suchmaschinen verstoßen. Z.B. die Google Webmasterrichtlinien sollten einem geläufig sein! So besteht keine Gefahr dass die Seite ab gestraft oder gar aus dem Index der Suchmaschinen fliegt.

Black Hat SEOs fallen häufig durch übermäßige SPAM-Einträge auf um schnellstmöglich eine Link-Struktur zur Webseite aufzubauen. Sei es in Blogs, Foren oder durch Landing-Pages.

Die folgenden Punkte sollen keines Wegs dazu animieren sie einzusetzen, sondern werden als Beispiele aufgezählt welche Methoden NICHT benutzt werden sollten! Die Benutzung dieser Methoden kann neben der Abstrafung der eigenen Webseite durch die Suchmaschinen, auch rechtliche Folgen mit sich bringen.

Black Hat Techniken sind z.B.

  • Doorway Pages bauen: Doorway Pages sind im Prinzip für den Nutzer einer Site sinnlos. Sie werden deshalb auch nicht von der eigentlichen Website aus verlinkt und sind nur über Suchmaschinen zugänglich. Durch einfache Methoden der Link-Analyse erkennen heutige Suchmaschinen Doorway Pages recht einfach, so dass zumindest die einfache Form nicht mehr sinnvoll eingesetzt werden kann.
  • Blogs, Foren, etc. mit eigenen SPAM und Backlinks füllen
  • Meta Tag Stuffing: Keywords in dem HTML Meta Tag describtion unterbringen
  • endlose Wiederholungen der Meta Keywords
  • Sich in Linkfarmen einkaufen oder selbst erstellen
  • Hidden Content (unsichbarer Text): Verstecken von unrelevanten Texten mit so einfachen Mitteln, wie weiße Schrift auf weißem Grund oder per CSS die Sichtbarkeit ausblenden

Weitere Möglichkeiten der Black SEO ist es zu versuchen dass die Konkurrenzseiten aus dem Index der Suchmaschinen fliegen oder einfach im Ranking abstürzen zu lassen!

Gängige Methoden sind:

  • Google Bowling: Um eine Webseite im Google-Ranking abstürzen zu lassen, werden Maßnahmen getroffen, welche Google mit Index-Sperrung beantwortet.
  • Tattling: Google mag keine bezahlten Links. Somit genügt es die bezahlten Links, welche der Betreiber der Zielwebsite geschaltet hat, einfach Google zu melden. Alterantiv können auch einfach selber bezahlte Links geschaltet und anschließend gemeldet werden.

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

GD Star Rating
loading...
GD Star Rating
loading...

Wie wichtig ist SEO Software ?

20. Oktober 2009 at 22:14

Viele SEO-Agenturen und Berater konzentrieren sich, gerade in der Vorab-Analyse, auf SEO Software und deren „Reports“. Auf dem Markt gibt es Einige, SISTRIX Tools, Searchmetrics Suite™, Seolytics, Linkmoz Tool Membership, Majestic SEO oder als Offline-Tool auch das Programm IBP – Internet Business Promoter.

Die Preise der Tools variieren ist je nach Version teilweise zwischen 300-700 Euro.

Top 10 Positionen bei Google kann keine dieser Software garantieren. Eine Analyse ist nur die halbe Miete, auf die richtige Auswertung und Umsetzung kommt es an. Die Tools überprüfen die Webseite und auch die Konkurrenz wird dabei durchleuchtet. Eine Analyse der Keywords findet statt und es werden Tipps für die Optimierung ausgegeben.

Professionelle SEOs kennen die erfolgreichen und aktuellen SEO Massnahmen und setzen diese richtig um. Da stellt sich natürlich die Frage „Benötige ich für die professionelle SEO Arbeit wirklich eine SEO-Software ?“

Wie ist Eure Meinung zu dem Thema „benötige ich kostenpflichtige SEO-Software?“

GD Star Rating
loading...
GD Star Rating
loading...

Yahoo nutzt ebenfalls keine Keywords Meta-Tags mehr beim Ranking

13. Oktober 2009 at 11:27

Wie aktuell auf mehreren Newsseiten zu lesen, macht auch Yahoo keinen Gebrauch mehr von Keywords Meta-Tag beim Ranking der Suchergebnisse (Stand: Oktober 2009).

or einigen Tagen gab es zu der Thematik schon ein offizielles Statement von Mat Cutts von Google bzgl. nicht Berücksichtigung beim Ranking durch Google, wir berichteten.

Bleibt die Annahme als würden die Keywords bei allen Suchmaschinen wegfallen.

GD Star Rating
loading...
GD Star Rating
loading...