SEO: Microformats vs RDF vs Mikrodata – Microformats oder RDF oder Mikrodata verwenden?

28. März 2012 at 18:01

Manch einer nennt Microformats und RDFa die stille Revolution bzgl. semantic web.

Aber was ist am besten? RDFa oder microformats? Wer sich mit der Implementation des semantischen Webs beschäftigt, und z.B. die Umsetzungsempfehlungen aus den Google Webmaster Richtlinien liest, merkt schnell das es verschiedene Wege zur Umsetzung gibt. Aber was ist der besser Weg?

Die Antwort ist nicht so einfach.

Microformats

Gegründet wurde die ursprüngliche Bewegung unter dem Namen microformats.org und der zugehörigen Website im Juni 2005. Die Gründer waren Dan Cederholm und Tantex Çelik. Letzterer ist bei vielen Webentwicklern für seine teilweise hochkomplexen Internet-Explorer-Hacks bekannt, die mit den diversen Kommentarmöglichkeiten spielen. Tantek Çelik hat allerdings auch für Microsoft und Technorati gearbeitet.

Das Besondere an den Microformats von microformats.org ist, dass sie keine neuen Technologien und Standards benötigen. Sie verwenden vollständig die Funktionalität von XHTML. Während die Microformats also quasi jederzeit eingeführt werden konnten, schlug sich das eigentliche semantische Web mit komplexeren Problemen herum. Schon seit vielen Jahren gab es Bemühungen, Bedeutung in Tag-basierte Sprachen zu mischen.

Microformats (oder zu deutsch “Mikroformate”) verwenden bekannte HTML Attribute wie “class” und Hierarchien, um Auszeichnungen aus einer fest definierten Auswahl vor zu nehmen.

Vorteile

  • Einfach
  • Führt keine neuen HTML-Attribute ein, gültiges HTML4.

Nachteile

  • Nur eine fest definierte Auswahl an Formaten, nicht erweiterbar.
  • Keine definierte API zur Extraktion der Daten.
  • Keine definierte Internationalisierungs-Unterstützung.
  • Die Verwendung von “class” kann zu Konflikten mit CSS-Definitionen führen.

Microformats Beispiel

<p class="vcard">
<a class="fn email" href="mailto:mail@fly2mars-media.de">Vorname Name</a> arbeitet als
<span class="role">SEO-Berater</span> für
<span class="org">Fly2Mars-Media.de</a>.
</p>

RDF

RDFa erweitert den HTML-Standard um RDF-Daten in (X)HTML-Dokumente einzubetten.

Der vielleicht wichtigste Ansatz ist RDF, das Ressource Description Framework. Dabei handelt es sich nicht um einen Standard, sondern um eine ganze Standard- Familie. Verwaltet wird sie – wie HTML und XHTML – vom W3C. RDF bietet im Grunde eine Beschreibung von Objekten.

Ursprünglich hauptsächlich für Metadaten gedacht, wurde der Ansatz bald auf alle Arten von Daten ausgeweitet. Da RDF selbst allerdings recht umfangreich ist und nicht direkt mit Websites interagiert, hat das W3C den Microformats-Gedanken aufgegriffen und mit RDFa eine einfache RDF-Variante für die Integration in XHTML geschaffen.

Vorteile

  • Maximale Flexibilität, umfangreich erweiterbar, um eigene Vokabularien zu definieren.
  • Erlaubt Mashups verschiedener Vokabularien.
  • Prefixe erlauben kompakteren Code da URLs nicht immer voll ausgeschrieben werden müssen.
  • Erlaubt die beliebige Verkettung von Elementen.
  • RDFa Dom API

Nachteile

  • Hohe Komplexität.
  • Auf XML und XHTML ausgerichtet, wenn auch mittlerweile in HTML5 einbettbar.
  • Führt 8 neue HTML-Attribute ein.

RDF Beispiel

<p xmlns:v="http://rdf.data-vocabulary.org/#" typeof="v:Person">
<a href="mailto:mail@fly2mars-media.de" rel="v:url" property="v:name">Vorname Name</a> arbeitet als
<span property="v:role">SEO-Berater</span> für
<span property="v:affiliation">Fly2Mars-Media</span>.
</p>

Microdata

Microdata ist eine Erweiterung für HTML5, um semantische Annotationen einzubetten.

Vorteile

Nachteile

  • Erlaubt keine mehrfachen Eigenschaften für Elemente, wie z.B. Email und Name in einem einzigen Link-Element.
  • Führt 5 neue HTML-Attribute ein.

Mikrodata Beispiel

<p itemscope itemtype="http://schema.org/Person">
<a itemprop="email" href="mailto:mail@fly2mars-media.de">
<span itemprop="name">Vorname Name</span>
</a> arbeitet als <span itemprop="jobTitle">SEO-Berater</span> für <span>fly2mars-media.de</a>.
</p>

Fazit

RDF wird gut von Google erkannt, bietet mehr Möglichkeiten als Microformats. Validiert werden können die Seiten mit dem Rich Snippets Testing Tool von Google. Google empfiehlt Mikrodata, wohl auch weil mehr HTML5.

Deshalb verwende ich jetzt RDF und Mikrodata.

Google unterstützt Rich Snippets in der Anzeige der Suchergebnisse (SERPs). Neben Microformats und RDFa wird auch Microdata unterstützt, letzteres ist dabei das bevorzugtes Format und von Google empfohlen. Auf  Schema.org befindet sich eine gute Dokumentation, diese sollte befolgt werden.

Eure Erfahrungen & Ergänzungen?

Her damit, aktuell spannendes Thema, neben Bewertungen, Autoren-Infos, Kontaktdaten, etc. lässt sich vieles damit so auszeichnen das die Daten richtig von den Suchmaschinen (oder anderen Maschinen lesbaren Geräten) richtig erkannt und verarbeitet werden können. Web 3.0 kann kommen! 🙂

Submit a sitemap to bing

5. Mai 2011 at 14:14

You can submit a sitemap.xml to bing about this link:

http://www.bing.com/webmaster/ping.aspx?siteMap=http://www.fly2mars-media.de/seoblog/sitemap.xml

Microsoft’s Suchmaschine Bing feiert ihren 1. Geburtstag

10. Juni 2010 at 23:22

bing suchmaschine logoDie Suchmaschine Bing von Microsoft feiert in diesen Tagen ihren ersten Geburtstag. Vor einem Jahr hatten die Redmonder ihre Google-Alternative mit großem Tamtam erstmals an den Start gebracht und konnte seitdem einige Marktanteile erobern.

Bing wird von Microsoft als die „Entscheidungsmaschine“ bezeichnet, weil Bing nicht nur einfache Suchergebnisse liefert, sondern in vielen Fällen gleich direkt die vom Anwender benötigten Information liefern soll. Zumindest in der US-Version verfügt Bing über zahlreiche Zusatzfunktionen, die der größte Konkurrent Google nicht bieten kann.

Nach Angaben des Marktforschungsunternehmens ComScore hat Bing derzeit einen Marktanteil von 11,8 Prozent. Nach dem Start im Juni 2009 lag der Marktanteil nach der Umbenennung der Windows Live Search noch bei 8,4 Prozent. Ein Großteil des Zugewinns ging zu Lasten des Partners Yahoo, für den Bing langfristig die Suchtechnologie liefern soll.

Google kopiert Bing Startseiten Layout

10. Juni 2010 at 16:49

google-startseite-10-06-2010

Microsoft wurde in der Vergangenheit nach gesagt dass sie mit der Suchmaschine Bing teilweise die Google Suchmaschine nach bauen. Jetzt geht Google den umgekehrten Weg, heute erstrahlt die Google Startseite ähnlich wie Bing mit einem Hintergrund-Bild einer Landschaft. Das Hintergrundbild wird stündlich aktualisiert. Ich persönlich fand die ursprüngliche Seite mit dem Layout nach dem Minimal-Prinzip wesentlich schöner. Geschmäcker sind allerdings verschieden und der ein oder anderen Benutzer wird sicherlich Freude an den neuen Bildern haben.

13.06.2010 – Nachtrag: Wie golem.de berichtete handelte es sich um eine Werbe aktionwelche frühzeitig abgebrochen wurde. Viele Nutzer zeigten sich irritiert, weil Google.com nur noch mit ganzseitigen Fotos geschmückt verfügbar war. Die für 24 Stunden geplante Werbeaktion wurde darum schon nach 14 Stunden abgebrochen.

Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012

4. Januar 2010 at 14:36

Was neu, was ändert sich?

Die Suchmaschinenoptimierung wie sie in den letzten Jahren umgesetzt wurde ist im Umbruch. Wie auch schon im Artikel „Warum SEO Ranking Berichte nutzlos sind“ beschrieben fangen die Suchmaschinenbetreiber (z.B. Google) damit an die Ergebnisseiten immer weiter zu personalisieren. In der Vergangenheit wurden auch Faktoren wie geografische Lage und das Nutzerverhalten (die Klickrate), bei der Erstellung der Suchergebnisseiten berücksichtigt. Auch Musik, Bild- oder Video-Inhalte werden immer mehr in den Suchmaschinen Ergebnisseiten (auch SERPS genannt was für Search Engine Result Pages steht). Ließen sich diese Faktoren noch beeinflussen so ist die Personalisierung ein neuer und teilweise gar  unberechenbarer Faktor geworden. Sieht doch die Ergebnisseite der Suchmaschinen bei jedem Nutzer nun individual anders aus. Dazu spielt die Geschwindigkeit der Web-Seite beim Ranking jetzt eine wichtige Rolle.

Google Maps entwickelt sich rasend schnell weiter und wird ggf. das Google Suchfenster in der Zukunft ablösen. Die die Mehrzahl der Information werden von den Benutzern vor Ort gesucht. Das hat auch Google erkannt. Die Mobilen Endgeräte und deren Kameras (Handys, etc.) füttern Google und sind das Auge des Netzes das alles sieht. In der letzten Woche integrierte Google eine Immobilensuche in die Karte. Mit Handysoftware wie Wikitude oder Layar ist es möglich sich die unmittelbare Umgebung erklären zu lassen – einfach durch bloßes Umsehen und filmen mit der Kamera: Was ist das für ein Gebäude, vor dem ich stehe? Wer hat es gebaut? Wer wohnt darin? Ist eine Wohnung frei? Welcher Makler bietet sie an? Gibt es Bilder von den Innenräumen? Wenn Sie als Makler nun nicht gefunden werden, haben Sie das Nachsehen. Und wer bei der Kartensuche dabei sein will, muss möglichst viele „Werbeinformationen“ ins Kartenmaterial einfügen. Startpunkte für Ihre Einträge: das Google Branchencenter, Wikipedia oder Panoramio (bringt Fotos auf die Landkarte).

Die Bildersuche bekommt ebenfalls mehr Bedeutung. Amazon hat vor kurzem in den USA eine aufsehen erregende iPhone Applikation eingeführt. Mit dieser können Sie ein Artikel (z.b. eine schöner Rucksack) fotografieren und über die Applikation heraus finden wie das Modell heißt und wo der Herr ihn gekauft hat. Einfach die Handykamera darauf halten und die Software sieht nach, ob sich dieses Produkt im Angebot von Amazon befindet. Wenn ja, erfahren Sie den Namen des Modells, einen Preis und können es sofort bestellen. Die Fähigkeit der Bilderkennung sind effektiver geworden und der Bedarf an Bildern und animierten Bildern (Videos) wächst kontinuierlich. Deshalb sollten Sie Ihre Budget nicht nur für das schreiben von Texten ausgeben, sondern ebenfalls ein großes Teil für das Produzieren von Bild- und Videomaterial für das Web einplanen! Vertrauen Sie nicht nur auf Texte!

Neben den herkömmlichen Suchmaschinen & den damit aktuell verbundenen Technologien, kommen Wissensdatenbanken wie z.B. Wolfram Alpha auf den Markt. Diese greifen fast ausschließlich auf Inhalte von Seiten mit einem hohen Trust-Status oder gar Inhalte aus ausgewählten Bibliotheken zurück.

Die Sozialen Medien gewinnen immer mehr an Bedeutung, so werden aktuell schon mehr Messages über diese Medien verschickt als herkömmliche E-Mails. Aus diesem Grund nimmt die Social-Media-Optimization (kurz: SMO) immer mehr an Bedeutung zu. Seit dem Web 2.0 lässt sich sehr gut beobachten wie die von Nutzern generierten Inhalte das Web dominieren und für einen schnellen Wachstum sorgen. Aus diesem Grund wird die Echtzeit-Suche speziell für Soziale Medien immer weiter ausgebaut (aktuell vorhanden für z.B. Blogs wird ausgebaut um Twitter, Face-Book, etc.). Daraus ergeben sich Probleme welche das Thema Reputationsmanagment immer wichtiger werden lassen.

Was bleibt?

Ganz klar alte Regeln wie Content ist King bleiben weiterhin bestehen. Was zählt sind viele individuell erstellte Inhalte welche den Benutzern so viel Mehrwert geben dass sie auch für die Suchmaschinen so eingestuft werden.
Suchmaschinen arbeiten auf logischen Algorithmen, welche nichts anderes nach zu bilden versuchen als das menschliche Verhalten. Ist eine Seite ein Mehrwert für potentielle Besucher, so wird dies auch von Suchmaschinen erkannt und so eingestuft.

Zwar verliert der Pagerank immer mehr an Bedeutung, trotz allem sind Links weiterhin wichtig. Gerade Link-Power von Trust-Pages haben weiterhin sehr hohe Bedeutung. Wichtig ist die richtige Verlinkung, z.B. verlinken nach dem Link-Pyramiden Konzept.

Warum auch in 2010 SEO noch dringend gebraucht werden wird, kann man leicht an folgenden hypothetischen Fragen verdeutlichen:

  • Sind benötigen eine ordnungsgemäß codierten Website? (technisches SEO)
  • Sie benötigen gute Inhalte?
  • Wollen Sie das ihre Inhalte durch potentielle Besucher gefunden werden?
  • Wollen Sie Bilder & Videos in das Netz stellen welche gefunden werden sollen?
  • Wollen Sie das Leute Ihre Webseite verlinken?
  • Wollen Sie dass Leute über Ihr Business sprechen?
  • Denken Sie dass sie Google, Yahoo oder Bing auch in 2010 nutzen?

Falls Sie diese Fragen mit JA beantwortet haben, dann benötigen Sie auch weiterhin SEO in 2010!

Dieser Artikel soll nur ein kurzen Überblick über die aktuelle und zukünftige Situation geben. Viele Aspekte lassen sich noch ergänzen oder gar ausführlicher Beschreiben, das ist uns klar.

Uns interessiert vor allem Eure Meinung zu diesem Thema „Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012“!

Teilt Sie uns und den anderen Lesern dieses Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Reputationsmanagment

28. November 2009 at 20:03

Es ist nicht notwendig den Namen zu ändern, nur weil peinliche Suchresultate in Verbindung mit diesem zu Tage gefördert werden. „Reputationsmanagment“ ist zeitaufwendig, aber kann sich lohnen. Wie man seine Online-Präsenz sowie die Informationen, die über einen selbst online verfügbar sind, beeinflussen kann erfahrt ihr in diesem Artikel.

Der erste Schritt ist immer die Vorsorge: Ihr solltet zweimal überlegen welche persönlichen Informationen ihr online stellt. Denkt immer daran, dass etwas, das in dem Kontext, in dem ihr es veröffentlicht, angemessen ist, später durch Suchmaschinen sehr leicht für Dritte zugänglich sein wird. Oft wird dieser Content außerhalb des Kontexts von Leuten gefunden werden, welche die ursprüngliche Website eigentlich gar nicht besucht haben. Geht niemals davon aus, dass eure Eltern, nur weil sie nicht euren Blog lesen, niemals den Post über das neue Piercing finden werden.

Wenn etwas im Internet veröffentlicht wurde, wird diese Information auch für alle Zugänglich sein, ggf. über Suchmaschinen mit Suchbegriffen welche Ihr niemals mit euch in Verbindung gesetzt hättet. Wollt ihr diese Information von der Website zu entfernen reicht es oft nicht aus das nur auf der Webseite zu löschen diese veröffentlicht wurde. Suchmaschinen wie z.B. Google verfügen über ein Cache welcher Daten vorhält die ggf. schon gelöscht wurden. Content der in den Suchergebnissen auftaucht muss nicht immer aktuell sein. Dieser Content ist immer noch im Web für alle Zugänglich und muss teilweise mühsam entfernt werden.

Möglichkeiten dies zu tun sind unter anderem:

  • Löscht den Content auf der Website auf der dieser veröffentlicht wurde, solltet ihr der Besitzer der Webseite sein ist dies meist einfach, alternativ bittet den Betreiber der Webseite diesen zu entfernen. Scheut nicht den Kontakt zu dem Webmaster aufzunehmen!
  • Nach dem Ihr den Content von der Seite entfernt habe könnt ihr die Entfernung des Contents aus den Google-Suchergebnissen mithilfe des Tools zum Entfernen von Webseiten beschleunigen.

Sollte es nicht möglich sein mit dem Webmaster in Kontakt zu treten, oder der Webmaster weigert sich diesen zu entfernen, so könnt ist es auch nicht möglich diesen Content vollkommen aus den Google-Suchergebnissen zu verbannen. Ihr könnt nun versuchen die Sichtbarkeit des Contents in den Suchergebnissen zu vermindern, indem ihr auf eurer Webseite aktiv nützliche und positive Informationen über eure Person oder euer Unternehmen anbietet und so den Besucherstrom auf eure Webseite umleitet. Mit Qualitativ hochwertigem Content auf eurer Webseite könnt ihr in der Lage seid die ungeliebten Inhalte fremder Webseiten zu übertreffen und damit den Schaden, den negativer oder peinlicher Content eurer Reputation zufügt, reduzieren.

Positiven Content könnt ihr auf verschiedene Arten veröffentlichen und damit fördern:

  • Ihr könnt Google-Profil erstellen. Wenn jemand nach eurem Namen sucht, kann Google einen Link zu eurem Google-Profil in den Suchergebnissen anzeigen. Besucher können dann diesem Link folgen und die  Informationen, die ihr in eurem Profil bereitgestellt habt, bevorzugt abrufen.
  • Hat ein Kunde eine negative Bewertung zu eurem Unternehmens verfasst, so könnt ihr andere Kunden, welche mit dem Unternehmen zufrieden sind, bitten, ausgeglichenere Bewertungen online zu stellen um so die Besucher auf positive Bewertungen umzuleiten. Generell solltet ihr darauf achten (z.B. mit Google-Alert) dass mehre positive Bewertungen im Netz verfügbar sind!
  • Veröffentlicht ein Blogger unschmeichelhafte Fotos von euch, nehmt Fotos, die euch lieber sind, und veröffentlicht diese!
  • Veröffentlicht eine Zeitung einen Artikel über ein Gerichtsverfahren, der euch in schlechtes Licht rückt, das Verfahren aber schlussendlich zu eurem Vorteil ausgegangen ist, könnt ihr durch ein Update des Artikels oder gar um einen Nachfolgeartikel zur Entlastung bitten. Scheut niemals den Kontakt zum Betreiber der Webseite!

Ihr habt weitere gute Tipps zum Thema Reputationsmanagment?

Teilt Sie mit uns und anderen Lesern dieses Artikels und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Richtig verlinken nach dem Link-Pyramiden Konzept

23. November 2009 at 11:01

Konzept

Linkjuice (Vererbung von Pagerank, Trustrank, etc…) wird jeweils über ein Link von einer Seite zur nächsten weitergegeben. Eine Ranking-Penalty einer Suchmaschine endet dagegen in der Regel bei der nächsten Stufe.

Deshalb werden die Seiten mit der niedrigsten Qualität nur auf die nächst höhere Seite in dem aufzubauenden Netzwerk verlinkt. Die Links können auch seitlich oder nach oben zeigen, aber niemals nach unten (oben = hochwertige Seiten, unten = weniger wichtige).

Stufe 1: Das Fundament

Das Fundament der Pyramide bildet sich aus einem Netzwerk von Websites von kostenlosen Free-Hostern, Blog-Hosts, Freehostern oder Gästebüchern. Auf diesen Seiten werden keine Ads (Werbung in Suchmaschinen) geschaltet. Diese Seiten linken grundsätzlich nur auf andere qualitativ hochwertige Seiten im Internet und auf Seiten aus der 2. Stufe deiner Link-Pyramide. Die einzigen Links welche auf solche Seiten zeigen sollen sind freie „Spam-Links“ von Web-Katalogen, Gästebüchern oder automatisierte Linkeinträge bei Kommentaren.

Stufe 2: Die Absicherung

Hier werden eigene Domains bei billigen Shared-Hostern gehosted um mögliche Spuren zu verbergen. Diese Seiten werden zwar von den Basisseiten von Stufe 2 verlinkt, linken aber nicht mehr zu diesen zurück. Auch der dezente Einsatz von „Spam-Links“  (siehe Stufe 1) sind ggf. vertretbar. Vorzugsweise sind Einträge aus Webkatalogen und Pressediensten zu bevorzugen!

Stufe 3: Die Basis / Die goldene Krone

Die wirklich wichtigen Seiten, wie z.B. Authorities in Nischen, stehen in dieser Stufe und verlinken jeweils wieder auf die nächst höhere Stufe sowie ggf. untereinander. Gestärkt werden diese Seiten von der Verlinkung aus Level 2 Seiten, Linktausch, Linkbait und Linkkauf. Diese Seiten können monetarisieren, ihr primäres Ziel ist allerdings die Verbindung zur Spitze der Pyramide.

Stufe 4: Die Spitze der Pyramide

Diese Stufe ist die eigentlich zu optimierende Zielseite (Seite des Kunden, etc.). An dieser werden die Erfolge gemessen und meist wird nur diese dem Kunden präsentiert sowie in den SERPs (Search Engine Result Pages) gerankt. Diese Seite besteht aus guten redaktionellen Inhalten, die als Linkbait fungieren und sind in der Regel Seiten des daily Business (z.B. eCommerce-Seiten welche Umsatz generieren).

Optimal ist es, wenn möglich, Blogger zu bezahlen um diese Seite zu besprechen und entsprechend zu verlinken. Generell sollte nur Links höchster Qualität einkaufen. Diese Seite wird selbst verständlich durch Links von Seiten aus der vorherigen Stufe 3 aus deinem eigenen Netzwerk gestützt.

Zum Schluss noch mal der wichtige Hinweis: Niemals quer durch das Netzwerk verlinken!

Quelle: seoblackhat.com/2009/07/10/link-pyramids

Ihr habt weitere gute Tipps zum Thema Richtig verlinken / Link-Konzepte?

Teilt Sie mit uns und anderen Lesern dieses Artikels und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

SOUNDTRACK zur SEO CAMPIXX 2010

19. November 2009 at 17:27

Hier der Soundtrack zur SEO CAMPIXX 2010 in Berlin.

SEO-Konferenz am 26.02.2010 SEMSEO in Hannover

19. November 2009 at 17:14

Am 26.02.2010 findet in Hannover (übrigens Heimatstadt von Fly2Mars-Media) wieder die eintägige Branchen-Konferenz SEMSEO statt. Diese seit 2007 einmal jährlich statt findende Konferenz erwartet 2010 rund 350 Mitarbeiter und Führungskräften aus mittelständischen und großen Unternehmen aller Branchen. Großer Wert wird auf den Austausch zwischen den Besuchern (SEO- & SEM-Experten, Marketing- & Kommunikationsexperten sowie Fachentscheider) gelegt.

Im Anschluss findet abends die legendäre Pubkonferenz (PubCon) statt, laut den Veranstaltern das größte SEO-Networking-Event im deutschsprachigen Raum. Veranstaltungsort ist wiederholt die HBX-Brauerei am Aegi in Hannover. Für alle SEMSEO-Teilnehmer ist der Eintritt zu diesem Event kostenfrei.

Weitere Infos findet ihr unter semseo.abakus-internet-marketing.de

Was sind Reziproke Links? Was ist Crosslinking?

17. November 2009 at 13:45

Für die Positionierung in den Suchergebnissen (Ranking) spielt die Verlinkung der eigenen Webseite von externen Seiten eine wichtige Rolle. Eine gängige Methode zum Link-Aufbau war es Links zu tauschen, ganz nach dem Prinzip  „Verlinkst du mich, verlinke ich dich“. Solch eine gegenseitige Verknüpfung wird reziproke Verlinkung genannt.

Neben dem Link-Kauf wurde auch dieser „unnatürliche“ Link-Wachstum von den Suchmaschinenanbietern, z.B. Google, schnell durchschaut und durch die Abwertung der Webseiten abgestraft.

Um das Defizit auszugleichen wurden das Konzept der Verlinkung überarbeitet, Suchmaschinenoptimierer (SEOs) erweiterten die Linkpartnerschaften zu kompletten Kooperationen. Beruhte der ursrüngliche Linktausch noch auf dem Prinzip:A verlinkt nach B und B nach A.

So ist das Konzept beim crosslinking (Linkpartnerschaften) wie folgt: A verlinkt nach B, B nach C und C verlinkt wieder nach A. Die sich daraus ergebene Kooperation ist kein direkter Link-Tausch mehr und werden deshalb von Suchmaschinenbetreibern geduldet. Diese Art der reziproken Verlinkung wird nicht mehr durch die Suchmaschinen abgestraft, allerdings weniger gewichtet, da sie unnatürlich erscheinen.

Wichtig ist der gesunde Link-Wachstum zur Webseite, eine gesunde Mischung an Links sind das A & O, um dies zu beschleunigen sind ein paar reziproke Links von Vorteil, als Schlüsselfaktor sollten sie nicht gesehen werden!