Microsoft’s Suchmaschine Bing feiert ihren 1. Geburtstag

10. Juni 2010 at 23:22

bing suchmaschine logoDie Suchmaschine Bing von Microsoft feiert in diesen Tagen ihren ersten Geburtstag. Vor einem Jahr hatten die Redmonder ihre Google-Alternative mit großem Tamtam erstmals an den Start gebracht und konnte seitdem einige Marktanteile erobern.

Bing wird von Microsoft als die „Entscheidungsmaschine“ bezeichnet, weil Bing nicht nur einfache Suchergebnisse liefert, sondern in vielen Fällen gleich direkt die vom Anwender benötigten Information liefern soll. Zumindest in der US-Version verfügt Bing über zahlreiche Zusatzfunktionen, die der größte Konkurrent Google nicht bieten kann.

Nach Angaben des Marktforschungsunternehmens ComScore hat Bing derzeit einen Marktanteil von 11,8 Prozent. Nach dem Start im Juni 2009 lag der Marktanteil nach der Umbenennung der Windows Live Search noch bei 8,4 Prozent. Ein Großteil des Zugewinns ging zu Lasten des Partners Yahoo, für den Bing langfristig die Suchtechnologie liefern soll.

Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012

4. Januar 2010 at 14:36

Was neu, was ändert sich?

Die Suchmaschinenoptimierung wie sie in den letzten Jahren umgesetzt wurde ist im Umbruch. Wie auch schon im Artikel „Warum SEO Ranking Berichte nutzlos sind“ beschrieben fangen die Suchmaschinenbetreiber (z.B. Google) damit an die Ergebnisseiten immer weiter zu personalisieren. In der Vergangenheit wurden auch Faktoren wie geografische Lage und das Nutzerverhalten (die Klickrate), bei der Erstellung der Suchergebnisseiten berücksichtigt. Auch Musik, Bild- oder Video-Inhalte werden immer mehr in den Suchmaschinen Ergebnisseiten (auch SERPS genannt was für Search Engine Result Pages steht). Ließen sich diese Faktoren noch beeinflussen so ist die Personalisierung ein neuer und teilweise gar  unberechenbarer Faktor geworden. Sieht doch die Ergebnisseite der Suchmaschinen bei jedem Nutzer nun individual anders aus. Dazu spielt die Geschwindigkeit der Web-Seite beim Ranking jetzt eine wichtige Rolle.

Google Maps entwickelt sich rasend schnell weiter und wird ggf. das Google Suchfenster in der Zukunft ablösen. Die die Mehrzahl der Information werden von den Benutzern vor Ort gesucht. Das hat auch Google erkannt. Die Mobilen Endgeräte und deren Kameras (Handys, etc.) füttern Google und sind das Auge des Netzes das alles sieht. In der letzten Woche integrierte Google eine Immobilensuche in die Karte. Mit Handysoftware wie Wikitude oder Layar ist es möglich sich die unmittelbare Umgebung erklären zu lassen – einfach durch bloßes Umsehen und filmen mit der Kamera: Was ist das für ein Gebäude, vor dem ich stehe? Wer hat es gebaut? Wer wohnt darin? Ist eine Wohnung frei? Welcher Makler bietet sie an? Gibt es Bilder von den Innenräumen? Wenn Sie als Makler nun nicht gefunden werden, haben Sie das Nachsehen. Und wer bei der Kartensuche dabei sein will, muss möglichst viele „Werbeinformationen“ ins Kartenmaterial einfügen. Startpunkte für Ihre Einträge: das Google Branchencenter, Wikipedia oder Panoramio (bringt Fotos auf die Landkarte).

Die Bildersuche bekommt ebenfalls mehr Bedeutung. Amazon hat vor kurzem in den USA eine aufsehen erregende iPhone Applikation eingeführt. Mit dieser können Sie ein Artikel (z.b. eine schöner Rucksack) fotografieren und über die Applikation heraus finden wie das Modell heißt und wo der Herr ihn gekauft hat. Einfach die Handykamera darauf halten und die Software sieht nach, ob sich dieses Produkt im Angebot von Amazon befindet. Wenn ja, erfahren Sie den Namen des Modells, einen Preis und können es sofort bestellen. Die Fähigkeit der Bilderkennung sind effektiver geworden und der Bedarf an Bildern und animierten Bildern (Videos) wächst kontinuierlich. Deshalb sollten Sie Ihre Budget nicht nur für das schreiben von Texten ausgeben, sondern ebenfalls ein großes Teil für das Produzieren von Bild- und Videomaterial für das Web einplanen! Vertrauen Sie nicht nur auf Texte!

Neben den herkömmlichen Suchmaschinen & den damit aktuell verbundenen Technologien, kommen Wissensdatenbanken wie z.B. Wolfram Alpha auf den Markt. Diese greifen fast ausschließlich auf Inhalte von Seiten mit einem hohen Trust-Status oder gar Inhalte aus ausgewählten Bibliotheken zurück.

Die Sozialen Medien gewinnen immer mehr an Bedeutung, so werden aktuell schon mehr Messages über diese Medien verschickt als herkömmliche E-Mails. Aus diesem Grund nimmt die Social-Media-Optimization (kurz: SMO) immer mehr an Bedeutung zu. Seit dem Web 2.0 lässt sich sehr gut beobachten wie die von Nutzern generierten Inhalte das Web dominieren und für einen schnellen Wachstum sorgen. Aus diesem Grund wird die Echtzeit-Suche speziell für Soziale Medien immer weiter ausgebaut (aktuell vorhanden für z.B. Blogs wird ausgebaut um Twitter, Face-Book, etc.). Daraus ergeben sich Probleme welche das Thema Reputationsmanagment immer wichtiger werden lassen.

Was bleibt?

Ganz klar alte Regeln wie Content ist King bleiben weiterhin bestehen. Was zählt sind viele individuell erstellte Inhalte welche den Benutzern so viel Mehrwert geben dass sie auch für die Suchmaschinen so eingestuft werden.
Suchmaschinen arbeiten auf logischen Algorithmen, welche nichts anderes nach zu bilden versuchen als das menschliche Verhalten. Ist eine Seite ein Mehrwert für potentielle Besucher, so wird dies auch von Suchmaschinen erkannt und so eingestuft.

Zwar verliert der Pagerank immer mehr an Bedeutung, trotz allem sind Links weiterhin wichtig. Gerade Link-Power von Trust-Pages haben weiterhin sehr hohe Bedeutung. Wichtig ist die richtige Verlinkung, z.B. verlinken nach dem Link-Pyramiden Konzept.

Warum auch in 2010 SEO noch dringend gebraucht werden wird, kann man leicht an folgenden hypothetischen Fragen verdeutlichen:

  • Sind benötigen eine ordnungsgemäß codierten Website? (technisches SEO)
  • Sie benötigen gute Inhalte?
  • Wollen Sie das ihre Inhalte durch potentielle Besucher gefunden werden?
  • Wollen Sie Bilder & Videos in das Netz stellen welche gefunden werden sollen?
  • Wollen Sie das Leute Ihre Webseite verlinken?
  • Wollen Sie dass Leute über Ihr Business sprechen?
  • Denken Sie dass sie Google, Yahoo oder Bing auch in 2010 nutzen?

Falls Sie diese Fragen mit JA beantwortet haben, dann benötigen Sie auch weiterhin SEO in 2010!

Dieser Artikel soll nur ein kurzen Überblick über die aktuelle und zukünftige Situation geben. Viele Aspekte lassen sich noch ergänzen oder gar ausführlicher Beschreiben, das ist uns klar.

Uns interessiert vor allem Eure Meinung zu diesem Thema „Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012“!

Teilt Sie uns und den anderen Lesern dieses Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Richtig verlinken nach dem Link-Pyramiden Konzept

23. November 2009 at 11:01

Konzept

Linkjuice (Vererbung von Pagerank, Trustrank, etc…) wird jeweils über ein Link von einer Seite zur nächsten weitergegeben. Eine Ranking-Penalty einer Suchmaschine endet dagegen in der Regel bei der nächsten Stufe.

Deshalb werden die Seiten mit der niedrigsten Qualität nur auf die nächst höhere Seite in dem aufzubauenden Netzwerk verlinkt. Die Links können auch seitlich oder nach oben zeigen, aber niemals nach unten (oben = hochwertige Seiten, unten = weniger wichtige).

Stufe 1: Das Fundament

Das Fundament der Pyramide bildet sich aus einem Netzwerk von Websites von kostenlosen Free-Hostern, Blog-Hosts, Freehostern oder Gästebüchern. Auf diesen Seiten werden keine Ads (Werbung in Suchmaschinen) geschaltet. Diese Seiten linken grundsätzlich nur auf andere qualitativ hochwertige Seiten im Internet und auf Seiten aus der 2. Stufe deiner Link-Pyramide. Die einzigen Links welche auf solche Seiten zeigen sollen sind freie „Spam-Links“ von Web-Katalogen, Gästebüchern oder automatisierte Linkeinträge bei Kommentaren.

Stufe 2: Die Absicherung

Hier werden eigene Domains bei billigen Shared-Hostern gehosted um mögliche Spuren zu verbergen. Diese Seiten werden zwar von den Basisseiten von Stufe 2 verlinkt, linken aber nicht mehr zu diesen zurück. Auch der dezente Einsatz von „Spam-Links“  (siehe Stufe 1) sind ggf. vertretbar. Vorzugsweise sind Einträge aus Webkatalogen und Pressediensten zu bevorzugen!

Stufe 3: Die Basis / Die goldene Krone

Die wirklich wichtigen Seiten, wie z.B. Authorities in Nischen, stehen in dieser Stufe und verlinken jeweils wieder auf die nächst höhere Stufe sowie ggf. untereinander. Gestärkt werden diese Seiten von der Verlinkung aus Level 2 Seiten, Linktausch, Linkbait und Linkkauf. Diese Seiten können monetarisieren, ihr primäres Ziel ist allerdings die Verbindung zur Spitze der Pyramide.

Stufe 4: Die Spitze der Pyramide

Diese Stufe ist die eigentlich zu optimierende Zielseite (Seite des Kunden, etc.). An dieser werden die Erfolge gemessen und meist wird nur diese dem Kunden präsentiert sowie in den SERPs (Search Engine Result Pages) gerankt. Diese Seite besteht aus guten redaktionellen Inhalten, die als Linkbait fungieren und sind in der Regel Seiten des daily Business (z.B. eCommerce-Seiten welche Umsatz generieren).

Optimal ist es, wenn möglich, Blogger zu bezahlen um diese Seite zu besprechen und entsprechend zu verlinken. Generell sollte nur Links höchster Qualität einkaufen. Diese Seite wird selbst verständlich durch Links von Seiten aus der vorherigen Stufe 3 aus deinem eigenen Netzwerk gestützt.

Zum Schluss noch mal der wichtige Hinweis: Niemals quer durch das Netzwerk verlinken!

Quelle: seoblackhat.com/2009/07/10/link-pyramids

Ihr habt weitere gute Tipps zum Thema Richtig verlinken / Link-Konzepte?

Teilt Sie mit uns und anderen Lesern dieses Artikels und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

SOUNDTRACK zur SEO CAMPIXX 2010

19. November 2009 at 17:27

Hier der Soundtrack zur SEO CAMPIXX 2010 in Berlin.

SEO-Konferenz am 26.02.2010 SEMSEO in Hannover

19. November 2009 at 17:14

Am 26.02.2010 findet in Hannover (übrigens Heimatstadt von Fly2Mars-Media) wieder die eintägige Branchen-Konferenz SEMSEO statt. Diese seit 2007 einmal jährlich statt findende Konferenz erwartet 2010 rund 350 Mitarbeiter und Führungskräften aus mittelständischen und großen Unternehmen aller Branchen. Großer Wert wird auf den Austausch zwischen den Besuchern (SEO- & SEM-Experten, Marketing- & Kommunikationsexperten sowie Fachentscheider) gelegt.

Im Anschluss findet abends die legendäre Pubkonferenz (PubCon) statt, laut den Veranstaltern das größte SEO-Networking-Event im deutschsprachigen Raum. Veranstaltungsort ist wiederholt die HBX-Brauerei am Aegi in Hannover. Für alle SEMSEO-Teilnehmer ist der Eintritt zu diesem Event kostenfrei.

Weitere Infos findet ihr unter semseo.abakus-internet-marketing.de

Was sind Reziproke Links? Was ist Crosslinking?

17. November 2009 at 13:45

Für die Positionierung in den Suchergebnissen (Ranking) spielt die Verlinkung der eigenen Webseite von externen Seiten eine wichtige Rolle. Eine gängige Methode zum Link-Aufbau war es Links zu tauschen, ganz nach dem Prinzip  „Verlinkst du mich, verlinke ich dich“. Solch eine gegenseitige Verknüpfung wird reziproke Verlinkung genannt.

Neben dem Link-Kauf wurde auch dieser „unnatürliche“ Link-Wachstum von den Suchmaschinenanbietern, z.B. Google, schnell durchschaut und durch die Abwertung der Webseiten abgestraft.

Um das Defizit auszugleichen wurden das Konzept der Verlinkung überarbeitet, Suchmaschinenoptimierer (SEOs) erweiterten die Linkpartnerschaften zu kompletten Kooperationen. Beruhte der ursrüngliche Linktausch noch auf dem Prinzip:A verlinkt nach B und B nach A.

So ist das Konzept beim crosslinking (Linkpartnerschaften) wie folgt: A verlinkt nach B, B nach C und C verlinkt wieder nach A. Die sich daraus ergebene Kooperation ist kein direkter Link-Tausch mehr und werden deshalb von Suchmaschinenbetreibern geduldet. Diese Art der reziproken Verlinkung wird nicht mehr durch die Suchmaschinen abgestraft, allerdings weniger gewichtet, da sie unnatürlich erscheinen.

Wichtig ist der gesunde Link-Wachstum zur Webseite, eine gesunde Mischung an Links sind das A & O, um dies zu beschleunigen sind ein paar reziproke Links von Vorteil, als Schlüsselfaktor sollten sie nicht gesehen werden!

kostenlose Backlink Checker Tools (Online)

16. November 2009 at 10:16

Die manuelle Recherche nach gesetzten Backlinks ist, vor allem bei gut verlinkten Seiten, zwar über Google zu recherchieren, wird allerdings schnell zu einem zeitlichen overhead. Nützlich sind da Backlink-Checker um Listen mit der Anzahl der Backlinks, IPs und ggf. Pagerank zu generieren. So erhalten Sie eine Aufstellung Ihrer Linkpopularität Ihrer Seite. Zusätzlich zeigen wir auch alle Links von Unterseiten mit an. Mit den folgenden kostenlosen Online Tools können Sie genau sehen, von welchen Adressen Ihre Mitbewerber verlinkt werden.

So erfahren Sie warum diese in der Suchmaschine besser oder hoffentlich schlechter gefunden werden als Sie. Je mehr Backlinks mit einem hohen PR, desto wichtiger ist Ihre Seite für Suchmaschinen wie z.B. Google. Dabei ist zu beachten dass es wichtig ist dass die Links von verschiedenen IP´s (Rechnern) stammen (mehre Domains auf einem Rechner mit der selben IP werden von Google als weniger wichtig eingestuft).

Folgende kostenlose Backlink-Checker möchten wir euch empfehlen:

bei Internetbaron.de

bei www.linkdiagnosis.com

bei backlinkwatch.com

Kennt ihr weitere gute kostenlose Back-Link-Checker (egal ob online oder als Desktop-Applikation)?

Teilt Sie uns und anderen Lesern diesen Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Google Leitpfaden für Suchmaschinenoptimierung (SEO) – Teil 1

6. November 2009 at 09:00

Hier eine Zusammenfassung der offiziellen Aussagen aus dem Webmaster Zentrale Blog bzw. des Google Verantwortlichen Matt Cutts für den Bereich Suchmaschinenoptimierung (SEO). – Teil 1

Sind Produktbeschreibungen auf E-Commerce-Seiten Duplicate Content, falls die gleichen Produktbeschreibungen auf anderen Seiten auftauchen? Dies passiert bei vielen Markenartikeln.

Google (Matt Cuts) sagt:

Man sollte sich fragen:
„Wo ist bei mir der Mehrwert? Was hat meine Affiliate-Site oder Site ohne eigenen Content an Mehrwert im Vergleich zu den hunderten anderer Sites?“

Wenn möglich, versucht eigenen Content zu erstellen und einen einzigartigen Mehrwert zu bieten. Nehmt nicht einfach einen Affiliate-Feed und schustert damit eine billige Site zusammen. Sowas möchte doch eigentlich niemand sehen. Im Allgemeinen ist es also am Besten, wenn ihr einen eigenen Blickwinkel bietet und nicht bloß genau das Gleiche, was alle anderen auch haben.

Quelle

Es scheint von geringer Bedeutung für Besucher zu sein, wo genau sich eine Seite innerhalb der Sitestruktur befindet. Ist es besser, Content-Seiten nahe an der Root zu platzieren, oder sollten sie in eine tiefere, Themen bezogene Struktur eingeordnet sein?

Google (Matt Cuts) sagt:

Dies ist kein SEO-Tipp. Dies ist ein rein praktischer, allgemeiner Tipp. Je weniger Klicks benoetigt werden,
um eine Seite von der Root aus zu erreichen, desto wahrscheinlicher ist es, dass Besucher sie finden. Falls jemand achtmal klicken muss, um die Registrierungsseite für eure Konferenz zu finden, anstatt sich gleich auf der Hauptseite registrieren zu können, dann werden weniger Leute diese durch so viele Klicks entfernte Seite finden.

Quelle

Wie genau geht Google beim Backlink-Check mit [link:…] vor? Werden alle Nofollow-Backlinks ausgefiltert oder warum zeigen Yahoo/MSN mehr Backlinks oder Ergebnisse?

Google (Matt Cuts) sagt:

Früher hatten wir nur für einen kleinen Anteil der Backlinks Platz, weil die Websuche im Mittelpunkt stand und wir nicht so viele Server für diese Link-Doppelpunkt-Anfragen hatten. Im Laufe der Zeit haben wir die Anzahl der Backlinks, die wir mit Link-Doppelpunkt anzeigen, stark vergrößert. Es ist aber immer noch nur ein Ausschnitt, ein relativ kleiner Anteil.

Quelle

Ist eine Website mit einem CSS-basierten Layout SEO-freundlicher als eine Site mit einem tabellenbasierten Layout?

Google (Matt Cuts) sagt:

Ich würde mir, ehrlich gesagt, nicht so viele Gedanken darüber machen.
Wir erkennen Tabellen, wir erkennen CSS – wir können mit beidem umgehen.
Wir versuchen beides zu bewerten, egal welche Art von Layout ihr nun verwendet.

Ich würde das nehmen, was für euch am besten funktioniert.

Quelle

Wenn man eingehende Links von Websites mit gutem Ruf kriegt, aber diese Websites nicht in einer Suche mit [link:webname.com] auftauchen, heißt das, dass aus der Perspektive von Google diese eingehenden Links nicht zählen?

Google (Matt Cuts) sagt:

Nein, das tut es nicht. Link-Doppelpunkt zeigt nur einen Ausschnitt, einen Teilausschnitt von den Backlinks, die wir kennen. Und es ist ein zufälliger Ausschnitt. Deshalb zeigen wir nicht nur die Backlinks mit hohem PageRank. Das haben wir früher so gemacht – und dann konnten alle mit PageRank 4 oder darunter ihre Backlinks nicht sehen, weil sie nicht als hoher PageRank zählten. Deshalb haben wir es fairer gestaltet, indem wir zufällig bestimmen, welche Backlinks wir zeigen.

Quelle

Wie mit ungewollten Links Umgehen (schlechte Nachbarschaft)

Google (Matt Cuts) sagt:

Falls eure Site von dubiosen Quellen angelinkt wird, besteht kein Grund zur Panik… lest einfach weiter!

Es trifft zu, dass Verlinkung für den Google-Algorithmus eine sehr wichtige Rolle spielt, allerdings ist es nur einer von vielen Faktoren. Hochwertige Inhalte – wir sagen das sehr oft und gern – und nützliche Tools oder Services spielen eine große Rolle. Die Struktur der Website, zum Beispiel das Vorkommen von Keywords im Seitentitel oder die Keyword-Dichte einer Seite, ist ein weiterer Faktor. Wenn ihr also seht, dass eine Website von schlechter Qualität zu eurer Site linkt, dann denkt auch daran, dass es neben Links noch viele andere Kriterien gibt, die dazu beiträgen, wie Google eine Website bewertet. Aus der Perspektive der User sind regelmäßige Aktualisierungen und guter Contet die ausschlaggebenden Dinge.

Quelle

Frage: Wird Anchor-Text durch alle 301-Weiterleitungen übernommen? Gibt es eine Penalty für Websites, die beim Linkaufbau nur darauf setzen?

Google (Matt Cuts) sagt:

Normalerweise wird der Anchor-Text übernommen, wenn eine 301-Weiterleitung stattfindet, aber wir versprechen nicht, dass dies jedesmal geschieht.

Die Frage ist ja: wird er immer übernommen? Nicht unbedingt. Wir behalten uns das Recht vor, nicht nur Links zu werten und wie wir die Bedeutung und den Trust von Links bestimmen, sondern ebenso den Trust, den wir Redirects zuordnen. Ich kann verraten, dass, falls ihr beim Linkaufbau nur auf 301-Redirects setzt, das ziemlich auffällig ist, weil wir alle Redirects, die uns unterkommen, loggen, genauso wie wir alle Links loggen.

Quelle

Was ist deine Meinung zu ‚PR-Sculpting‘ (also PR-Formung)? Nützlich und zu empfehlen, falls richtig gemacht oder doch unmoralisch?

Google (Matt Cuts) sagt:

Nun, ich würde nicht sagen, dass es unmoralisch ist, denn es ist ja alles auf eurer Website – ihr könnt natürlich bestimmen, wie der PR innerhalb eurer Site fließen soll. Ich würde sagen, dies ist nicht das Erste, an dem ich arbeiten würde.
Ich würde daran arbeiten, mehr Links zu bekommen und hochwertigen Content zu bieten – das sind immer die Dinge, die ihr als Erstes beachten solltet. Aber wenn ihr bereits einen bestimmten Stand an PR erreicht habt, dann könnt ihr natürlich daran arbeiten, den PageRank zu „formen“.

Quelle

Betrachtet Google das Yahoo!-Verzeichnis oder Best of the Web als Quellen bezahlter Links? Falls nicht, weshalb ist dies dann anders als bei anderen Sites, die Links verkaufen?

Gute Redaktionell betreute Verzeichnisse wie z.B. beim Yahoo!-Verzeichnis, wo Einträge auch abgelehnt werden, ist ein Eintrag durch aus positiv. Verzeichnisse wo Einträge bezahlt werden müssen, eher negativ weil deren Mehrwert für den Benutzer geringer ist.

„Wann immer wir danach schauen, ob ein Verzeichnis nützlich für User ist, fragen wir uns, o.k., was ist der eigentliche Nutzen dieses Verzeichnisses.“

Quelle

Content oder Links? Was ist wichtiger?

Google (Matt Cuts) sagt:

Googles Algorithmus wird ständig weiterentwickelt. Ist es da besser, außergewöhnliche Links und mittelmäßigen Content zu haben oder außergewöhnlichen Content und mittelmäßige Links?

Guter Content muss die Grundlage jeder guten Website sein, weil mittelmäßiger Content eben keine außergewöhnlich guten Links anzieht, und wer versucht solche Links für wirklich schlechten Content zu gewinnen, macht es sich echt schwer. Ihr würdet zu Techniken greifen müssen, die wir als anrüchig oder schlecht fürs Web halten: beispielsweise Linkkauf.
Deshalb ist es viel besser, guten Content zu erstellen, um diese Links auf natürliche Art und Weise zu erhalten und so beides zu haben: guten Content und dadurch gute Links.

Quelle

Welches Suchmedium liefert verlässlichere Ergebnisse: Google oder Twitter?

Google (Matt Cuts) sagt:

Twitter ist toll, um Nachrichten in Echtzeit zu erfahren und fantastisch, um Fragen an eure Freunde zu stellen. Und in Google versuchen wir hingegen, wirklich verlässliche und seriöse Informationen zu liefern. Wenn ihr also nach dem Datum sortiert, dann ist Twitter fantastisch.
Wenn ihr eine Antwort auf eine Frage sucht, die seit einiger Zeit besteht, dann ist Google großartig dafür.

Quelle

Hier geht es weiter zu Teil 2

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Aufbau der Datei robots.txt – Seiten für die Robots konfigurieren

29. Oktober 2009 at 14:04

Oft ist es sinnvoll bestimmte Seiten oder gar Bereiche einer Web-Seite vor der Indizierung von Suchmaschinen zu schützen. Zum Beispiel wenn es sich um Administrative, oder Seiten an denen noch gearbeitet wird, handelt.
Ggf. wollen Sie auch bestimmte Bilder, Logfiles oder Programmdateien vor der Indizierung der Suchmaschinen schützen damit diese nicht in den Suchergebnissen angezeigt werden.

Um dem gerecht zu werden wurde der Robots Exclusion Standard eingeführt, an den sich seriöse Suchmaschinen wie Google, Bing oder Yahoo! orientieren.

Nach diesem Standard muss eine Textdatei mit dem Namen robots.txt erstellt und diese im Stammverzeichnis der Domain platziert werden, so dass die Robots sie finden und beachten können.

<pre>http://www.beispiel.de/robots.txt
http://download.beispiel.de/robots.txt
http://beispiel.de:8080/robots.txt
</pre>

Der Aufbau der robots.txt erfolgt nach dem folgendem Shema. Zuerst gibt man an für welchen Crwaler eine Anweisung gelten soll, gefolgt von den einzelnen Anweisungen:

# robots.txt fuer http://www.beispiel.de/
User-agent: BeispielRobot
Disallow: /temp/       # Die Dateien sind nur Temporär und nicht von Bedeutung
Disallow: /logfiles/   # Sollen nicht allg. Verfügbar sein
Disallow: /bilder/     # Bilder sind teilweise geschützt und nicht zum download bestimmt
Disallow: /cgi-bin/    # CGI Ausgaben nicht indizieren
Disallow: /privat.html # Die pirivat.html soll nicht über die Suchmaschine gefunden werden

Mit User-agent: BeispielRobot bestimmt man, dass die Anweisungen nur für den genannten Crawler (BeispielRobot) gelten. Mit Hilfe der einzelnen Disallow Einträgen werden Verzeichnisse und Dateien bestimmt, welche nicht indiziert werden sollen. Mit Hilfe des Raute-Symbol (#)können Kommentare definiert werden, diese werden von den Robots ignoriert.

Ein Ausschluss aller Crawler ist mit Hilfe des sog. Wildchar * möglich:

# Alle Robots ausschließen
User-agent: *
Disallow: /temp/

Sollen nur bestimmte Crawler ausgeschlossen werden, sondern kann man diese wie folgt realisieren:

# Download-Tools vom CGI Verzeichnis fernhalten
User-agent: webmirror
User-agent: webzip
User-agent: webcopy
User-agent: wget
Disallow: /cgi-bin/

Eine Seite ganz von der Indizierung durch Suchmaschinen auszuschließen geht wie folgt:

# Komplette Webseite für alle Robots sperren
User-agent: *
Disallow: /

Durch entfernen des Slash (/) wird die Seite ganz für die Indizierung frei gegeben:

# Ganze Seite für Robots freigeben
User-agent: *
Disallow:

Die Groß- und Kleinschreibung wird bei Disallow Einträgen nicht durch die Robots berücksichtigt.

Sie Benötigen Unterstützung bei der Anpassung Ihrer robots.txt oder Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie in diesen und vielen anderen Bereichen rund um das Thema Internet & IT!

Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Yahoo nutzt ebenfalls keine Keywords Meta-Tags mehr beim Ranking

13. Oktober 2009 at 11:27

Wie aktuell auf mehreren Newsseiten zu lesen, macht auch Yahoo keinen Gebrauch mehr von Keywords Meta-Tag beim Ranking der Suchergebnisse (Stand: Oktober 2009).

or einigen Tagen gab es zu der Thematik schon ein offizielles Statement von Mat Cutts von Google bzgl. nicht Berücksichtigung beim Ranking durch Google, wir berichteten.

Bleibt die Annahme als würden die Keywords bei allen Suchmaschinen wegfallen.