Banner - Blog zu den Themen Programmierung, SEO, SEM, Social Media, Internet Marketing, Webdesign, IT-Service und Mehr - SEO Hannover - IT-Dienstleistungen und SEO Agentur Fly2Mars-Media.de

Archiv

Archiv für die Kategorie ‘Blog’

SEO: Die Bedeutung des Canonical-Tag – sinnvoll oder falsch verwendet?

Ständig fällt in Bezug auf “unique Links” das Wort “Canonical-Tag wurde gesetzt” … toll, aber das Problem ist damit nicht gelöst.

Warum?

- Der Canonical-Tag ist nur ein Verweis auf das Original
- Link Juicy geht weiterhin komplett verloren
- Die Original-Seite erhält nicht den Link-Power den sie bekommen würde wenn es nur die eine Seite gebe (oder die doppelte per 301 auf diese geht)

Wie ist eure Meinung dazu?

GD Star Rating
loading...
GD Star Rating
loading...

PHP Call-Back-Funktionen verwenden

Kennt ihr Call-Back-Funktionen? Z.b. wenn es heißt Daten neu zu formatieren, z.b. in einer Attribute-Liste, dann sind Call-Back-Funktionen echt nützlich. Warum auch immer werden Callback-Funktion nicht so oft benutzt wie es sinnvoll wäre, aus diesem Grund ein kurzes Blog-Post zu der Thematik.

So geht’s:

$callback = '_test' . uc_words($attributeCode, '');
 if (method_exists($this, $callback)) {
 $entry = $this->$callback($attribute);
 if (!empty($entry)) {
 $data[$attributeCode] = $entry;
 }
 }
 protected function _testColor($attributeCode)
 {
 // do something
 //return data
 $return $data[$attributeCode] = array(
 'value' => 'attribute value'
 );
 return $data;
 }

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...
KategorienBlog, PHP, Programmierung Tags:

PHP: Zip Archiv ohne Dateipfad im Zip-File

Ihr wollt mit PHP ein Zip-Archiv erstellen, eine Datei hinzufügen ohne im Zip-File den Pfad zu beinhalten?

So geht’s:

// function getFileNameWithPath() liefert den Pfad zum gewünschten zip-file
$zipFile = $this->getFileNameWithPath().'.zip';
 $zip = new ZipArchive();
 $overwrite = false;
if(file_exists($this->getFileNameWithPath())) {
 $overwrite = true;
 }
if ($zip->open($zipFile, $overwrite ? ZIPARCHIVE::OVERWRITE : ZIPARCHIVE::CREATE)!==TRUE)
 {
 exit("cannot open <$zipFile>\n");
 }
$zip->addFile($this->getFileNameWithPath(), self::FILE_NAME);
 echo "status:" . $zip->status . "\n";
 $zip->close();

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...

MySQL: Doppelte Datensätze finden

6. Februar 2014 1 Kommentar

Ihr müsste doppelte Datensätze innerhalb einer MySQL-Tabelle finden?

Das folgende SQL-Query hilft euch dabei (in spalte 1 werden doppelte Datensätze gesucht):

<code>SELECT COUNT(*) AS COUNT, spalte1, spalte2 FROM tabelle
GROUP BY spalte1 HAVING COUNT(*)>1;
</code>

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...

SEO: Googles Trust Factor als Ranking-Faktor (Was beeinflusst diesen?)

Häufig wird davon gesprochen dass Google einer Seite ein bestimmten Trust zuweist. Nicht jedem ist klar was damit gemeint ist bzw. welche Kriterien für Google bedeutend sind und damit den Trust beeinflussen.

Wie setzt sich der Google Trust Factor zusammen?

Aus diesem Grund möchte ich an dieser Stelle kurz erklären welche Faktoren für den Google Trust Factor bedeutend sind.

Der Google Trust Factor setzt sich aus einzelnen Faktoren zusammen (OnPage als auch OffPage Faktoren). Je höher dabei der Trust einer Seite ist, desto wahrscheinlicher ist es, dass bestimmte Seiten/Artikel zu bestimmten Suchanfragen in den SERPS besser ranken als Seiten mit vergleichbaren Inhalten.

Folgende Faktoren sind wichtig für den Google Trust Factor:

  • viele Lange Artikel und einzigartige Inhalte
  • die Website enthält AGBs und eine Datenschutzerklärung
  • Ausgehende Links auf andere Trust-Seiten (z.b. wikipedia.de)
  • die Anzahl an Social Signals (likes, +1, etc. auf google+ oder facebook)
  • eine lange Verweildauer der Besucher auf der Website
  • die Anzahl Backlinks von Seiten mit hohem Trust
  • eine geringe Ladegeschwindigkeit der WebSeite

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...

SEO: meta-tags & title ohne double encode

19. Dezember 2013 Keine Kommentare

Werden die Daten für die meta-tags sowie dem title aus einem cms ausgelesen, so kann es passieren das Sonderzeichen (special chars) enthalten sind. Diese sind natürlich nicht erwünscht, z.b. das doppelte Hochkomma (“) kann so gar den html-tag “zerstören”.

Die Lösung ist selbstverständlich in php die Funktion htmlspecialchars() .

Doch wird diese nicht mit entsprechenden Parametern ausgeführt, so werden ggf. doppelte encodings vorgenommen so wird aus einem

$einString = “‘Honey’ & s&uuml;&szlig;e \”Schokolade\””;

ein

&#039;Honey&#039; &amp; s&amp;uuml;&amp;szlig;e &quot;Schokolade&quot;

Das ist nicht unbedingt erwünscht. Daher lieber wie folgt aufrufen

echo htmlspecialchars($string, ENT_QUOTES, "UTF-8", false)";

und ihr erhaltet als Ausgabe

&#039;honey&#039; &amp; s&uuml;&szlig;e &quot;Schokolade&quot;<br>

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...

robots.txt vs. noindex

13. Dezember 2013 Keine Kommentare

seokanzler contest

Des Öfteren werde ich gefragt welche die Beste Möglichkeit ist die indexierung einer Seite durch Google zu unterbinden.

Methoden um die indexierung von webseiten zu unterbinden

Dazu gibt es bekannterweise verschiedene Möglichkeiten, am interessantesten ist hierbei der Einsatz der robots.txt sowie den meta noindex-Metatag .

Klingt erst mal einfach, ist es aber nicht! ;-)

Der Irrglaube

Weit verbreitet ist der Irrglaube dass eine in der robots.txt mit disallow markierte URL nicht indexiert werden kann. Das ist schlichtweg falsch! Die robots.txt dient nur zur Steuerung des jeweiligen Crawlers der Suchmaschinenanbieter. In der Regel halten sich diese an die Einträge in der robots.txt, eine Pflicht dazu gibt es allerdings nicht. Praxis Erfahrungen zeigen das selbst Google sich nicht immer an diese Einträge hält.

Übrigens der historische Zweck der robots.txt war, den Crawler von den Bereichen der Website fern zu halten, die eine besonders hohe Serverlast erzeugten. Der Nebeneffekt dabei: die per robots.txt “geschützten” URLs konnten nicht in den Index gelangen.

Aktuell ist es allerdings so, das Google selbst eintscheidet welche Links sie verfolgen und indexieren und welche nicht. Hat ein Link bzw. eine Seite für Google eine sehr hohe Bedeutung, so kann bereits ein Link auf eine URL reichen um die URL in den Index mit aufzunehmen. Dabei nimmt Google so gar Seiten auf, wenn sie vom Crawler noch nicht einmal besucht wurden.

Und schwups sind Seiten im Index die per robots.txt gesperrt sind.

Die Praxis-Falle

In der Praxis würde jetzt der Webseitenbetreiber nachträglich ein meta-tag mit noindex setzen – <meta name=”robots” content=”noindex”>. Gut gemeint aber jetzt passiert folgendes: nix

???

Da die Seite per Disallow-Anweisung in der robots.txt-Datei für den crawler gesperrt ist, besucht dieser die Seite nicht und z.B. Google kennt diesen Meta-Tag auf dieser Seite nicht, da die Seite selbst nicht besucht wird.

Der Einsatz von robots.txt und des Noindex-Metatags widerspricht sich hiermit und deshalb sollten die Einträge abgestimmt werden!

robots.txt und metatag-nofollow richtig einsetzen

Wie lösen wir jetzt das Problem bzw. wie setzen wir die beiden “Tools” korrekt ein?

Die robots.txt sollte immer nur dann verwendet werden, wenn es erwünscht ist dass ein Crawler auf eine geschützten URLs nicht zugreifen soll oder einfach die Last des Servers gesenkt werden soll. Das kann sein z.b. der Login-Bereich, bestimmte Bilder, Dateien, etc. pp, auch das duplicate Content Problem kann damit angegangen werden.

So erreichen wir dass der Crawler sich nicht mit unnötigen URLs verlustiert und anschließend keine Ressourcen mehr für die wichtigen Seiten übrig hat. Aus SEO-Sicht müssen wir ggf. damit leben, dass manche URLs trotzdem im Google-Index gelistet werden.

Wollen wir definitiv das Listing einer Seite im Google-Index verhindern, so kommen wir um den Einsatz eines noindex-Metatag nicht herum. Dabei ist zu berücksichtigen dass die Suchmaschinen Zugriff auf diese Seite haben und sie NICHT per robots.txt als disallow markiert ist.

Übrigens, der Einsatz des nofollow-attributes für links ist nur eine Empfehlung für die Suchmaschinen diese Seite nicht zu indexieren. In der Praxis hält sich Google sowieso nicht daran, bewertet die Links nur schlechter beim Ranking. Hinzu kommt das Google seiten auch negativ sieht welche nur nofollow-tags haben. Ist ja klar, die Seite erlaubt Google keine ausgehenden Links zu scannen und ist für den Crawler eine Sackgasse.

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...

Content Marketing: Darauf sollten Website-Betreiber achten

Dies ist ein Gast-Artikel von Fabian Heyer von seosupport.de

Die inhaltliche Aufstellung des eigenen Web-Angebots ist naturgemäß ausgesprochen wichtig. Ganz klar, der gebotene Content, also Texte, Bilder und Videos, ist eines der ausschlaggebenden Kriterien, geht es um eine anständige Konversionsrate.

Um aber erst einmal für gute Besucherzahlen zu sorgen, braucht es ebenfalls entsprechenden Inhalt, denn für die Suchmaschinenoptimierung (SEO) ist neuer und frischer Content so wichtig wie eh und je.

In einigen Fällen kollidieren allerdings diese beiden Aspekte des Onpage-Contents. Denn der bereits erstelle und veröffentliche Inhalt mag zwar ideal sein, um Besucher zu einem Kaufabschluss zu bewegen, weißt aber nicht zwangsläufig alle relevanten Merkmale auf, die für die SEO-Arbeit wichtig sind. Einige Website-Betreiber tun sich schwer damit, vorhandene Texte entsprechend umzuschreiben, so dass auch der Suchmaschinenoptimierer glücklich ist. Hier lohnt es sich, den vorhandenen Content durch weiteren Inhalt zu ergänzen, der diesen Vorgaben entspricht.

Der schwere Weg zum “unique content”

Seit schon längerer Zeit predigen die SEOs “Content, Content, Content”, denn Google wertet neuen Inhalt erst einmal positiv. Schließlich kann nur ein gerade erst eingestellter Beitrag etwas Neues und somit Interessantes für die User bereithalten, so die Annahme. Eine regelmäßige Erstellung von neuen Beiträgen ist also ein großes Plus für die SEO-Arbeit einer Seite.

Was viele Webmasters dabei immer wieder missachten: Der Content muss unbedingt “unique”, also absolut einzigartig sein! Einen Beschreibungstext zu einem bestimmten Produkt von der Website des Herstellers zu übernehmen, ist so genannten duplicate content (etwa: doppelter, duplizierter Inhalt). Google wertet dieses nicht nur als nutzlos, sondern unterstellt sogleich auch noch den Versuch, die Website absichtlich interessanter zu machen als sie eigentlich ist. Eine Herabstufung bei den Suchergebnissen ist die Folge.

Selbstgemacht muss nicht unbedingt aufwendig sein

Es bleibt also nichts anderes übrig, als immer wieder für neuen, eigenen Inhalt zu sorgen. Es muss nicht immer gleich ein langer Beitrag sein, ein neues Video oder eine Bildershow (gerne mit Beschreibungstext) sind ebenfalls eine gute Sache.

Hier ein paar Anhaltspunkte, die man bei der Erstellung und Nutzung von Content für die Suchmaschinenoptimierung berücksichtigen sollte:


Content-Marketing:21 neue Regeln

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...

Apache: SSLSessionCache: Invalid argument: size has to be >= 8192 bytes

Die Fehlermeldung des Apache-Servers unter Windows

Ihr erhaltet beim start des Apache die Fehlermeldung “SSLSessionCache: Invalid argument: size has to be >= 8192 bytes“?

screenshot-cmd-apache-windows-sssessioncache-error

Kein Grund zur Panik!

Die Lösung

Gebt folgenden Befehl in der cmd.exe-console ein: dir /x c:\
um die Kurzform des Pfades zum Apache zu erfahren, in diesem Fall C:\PROGRA\~2\Zend\Apache2

cmd-dir-x-c-apache-sslsessioncache-problem

Deshalb den Pfad in der httpd-ssl.conf mit dem Short-Name anpassen:
SSLSessionCache        “shmcb:C:\PROGRA\~2/Zend/Apache2/logs/ssl_scache(512000)”

Das war’s! :-)

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

GD Star Rating
loading...
GD Star Rating
loading...

Eigene Plugins in PHPStorm einbinden – z.b. den Magento Cache über PHPStorm löschen

php code

In PHPStorm ist es möglich eigene Menüpunkte anzulegen und für diese(n) Befehle zu hinterlegen.

Ein nützlich Beispiel ist z.b. den Shell-Code für das löschen des Magento-Caches zu hinterlegen.

So geht’s:

  1. In PHP-Storm im Menü “File/Einstellungen” wählen.
  2. Unter “external tools” (einfach danach suchen) könnt ihr ein neuen Eintrag hinzufügen,
    z.b.: alias clear-magento-cache=”rm -Rf var/cache/mage–*”
  3. Im Menü unter “Tools -> Magento -> Clear Magento Cache” findet ihr nun den entsprechenden Eintrag

Das war’s schon.

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

 

GD Star Rating
loading...
GD Star Rating
loading...