Was sind die 3 serverkritischen Dateien im SEO und was tun sie?
http://wenda-it-web.de/die-3-wichtigsten-serverdateien-im-seo/#axzz3J1d7cadK
Folgende 3 Dateien sollten immer auf dem Server sein
1. robots.txt http://de.wikipedia.org/wiki/Robots_Exclusion_Standard
Crawler liest zuerst robots.txt im Stammverzeichnis (root) einer Domain. Webpräsenz kann für bestimmte Suchmaschinen gesperrt werden.(z.B.:Newsletteranmeldung)
Zwei Zeilen: User Agent und Disallow (kann beliebig wiederholt werden)
Leerzeilen nur oberhalb user-agent -Zeilen zur Trennung erlaubt
* = Wildcard für crawler, d.h. gilt für alle alle crawler
/ = komplette website darf nicht durchsucht werden
steht nach disallow nichts ausser Doppelpunkt = komplette website darf durchsucht werden
wurde 1994 zusammen von Google, Microsoft und Yahoo entwickelt
Zuerst Seite aufbauen, ganz am Schluß robots.txt.
(relaunch auf sub-Domain anlegen, danach umleiten)
2. .htaccess http://de.wikipedia.org/wiki/.htaccess
muß auf root-Verzeichnis gespeichert werden
sorgt dafür, dass crawler auf eine eindeutige domain geführt wird
entscheiden, ob Domain mit Präfix www. oder Ohne, (Crawler sieht eine doppelte Adresse als fake, da Inhalt derselbe ist und degradiert, duplicated content)
Wenn man Domain kauft bekommt man immer zwei.
Rewrite zur Kontrolle: Domain eingeben, auf enter, dann sieht man ob Adresse mit www. bleibt oder umspringt. Wenn viele Domains auf eine Seite weitergleitet werden, ist es ok.
ist die wichtigste Datei. Hier wird Gewichtung angelegt, z.B. neueste Nachricht immer zuerst,
über uns zuletzt.
sitemap.xml ist bei Blogspot voreingerichtet
gsitecrawler = zur Erstellung der sitemap, hier kann Prio manuell vergeben werden
xml.gz = gepackt = gut für mobile geeignet wird ins root verzeichnis abgelegt
Für individuelle sitemaps können auch Generatoren verwendet werden (wenn z.B. das CMS keine sitemap hat)
sitemap immer aktualisieren, wenn neue Unterseite angelegt wird. (überschreiben und neu abspeichern)
Webmastertools
Mithilfe von Webmaster-Tools kann festgestellt werden, ob Seite gut von den Crawlern ausgelesen wird, welche Suchanfragen erfolgt sind,oder ob Seite gehackt wurde. Und Crawler-Statistiken abgerufen werden
Meta Tags müssen immer im Head stehen!!!!
Zur Verifizierung muss der angegebeneLnk kpiert werden und in den HTML-Text alsMeta-Tag eingegeben werden.
H1 ist der Titel
div. Container --> mit der Maus drüberfahren
Description anpassen um im Ranking höher zu kommen
SERP = Search Engine Result Pages = Seiten auf denen Suchergebnisse angezeigt werden
Page Ranking = Gewichtung aufgrund von Links auf die Seite nach Page und Brin
Crawling-Fehler müssen behoben werden, sonst wird Ranking schlechter
(draufklicken, markieren, als korrigiert markieren)
Google Index entfernen = Url'swerden entfernt, nicht die website
Crawling-Statistiken sind gut, wenn gezackte Kurven da sind
Penalties von Google
bei:
- zu hoher keyword density
- unnatürliche links auf die Seite
- unseriöse Backlinks
- exzessive H1 Tags
- 404-Fehler
- blognetwork
- duplicated content
Strafen:
Page Rank Herabstufung
Keyword Zurückstufung
Seiten um - 30 zurückstufen
Rausschmiss aus Index