Donnerstag, 20. November 2014

Tag 5: 14.11.2014

Onpage mit Webmastertools

Was sind die 3 serverkritischen Dateien im SEO und was tun sie?



http://wenda-it-web.de/die-3-wichtigsten-serverdateien-im-seo/#axzz3J1d7cadK



Folgende 3 Dateien sollten immer auf dem Server sein

1.  robots.txt  http://de.wikipedia.org/wiki/Robots_Exclusion_Standard

Crawler liest zuerst robots.txt im Stammverzeichnis (root) einer Domain. Webpräsenz kann für bestimmte Suchmaschinen gesperrt werden.(z.B.:Newsletteranmeldung) 
Zwei Zeilen: User Agent und Disallow (kann beliebig wiederholt werden)

Leerzeilen nur oberhalb user-agent -Zeilen zur Trennung erlaubt
* = Wildcard für crawler, d.h. gilt für alle alle crawler
/ = komplette website darf nicht durchsucht werden
steht nach disallow nichts ausser Doppelpunkt = komplette website darf durchsucht werden

wurde 1994 zusammen von Google, Microsoft und Yahoo entwickelt

Zuerst Seite aufbauen, ganz am Schluß robots.txt.
(relaunch auf sub-Domain anlegen, danach umleiten)


2.  .htaccess  http://de.wikipedia.org/wiki/.htaccess

muß auf root-Verzeichnis gespeichert werden

sorgt dafür, dass crawler auf eine eindeutige domain geführt wird
entscheiden, ob Domain mit Präfix www. oder Ohne, (Crawler sieht eine doppelte Adresse als fake, da Inhalt derselbe ist und degradiert, duplicated content) 
Wenn man Domain kauft bekommt man immer zwei.

Rewrite zur Kontrolle: Domain eingeben, auf enter, dann sieht man ob Adresse mit www. bleibt oder umspringt. Wenn viele Domains auf eine Seite weitergleitet werden, ist es ok.
 

3.  sitemap.xml  https://www.xml-sitemaps.com/details-erfolgswolf.12720988.html

ist die wichtigste Datei. Hier wird Gewichtung angelegt, z.B. neueste Nachricht immer zuerst,
über uns zuletzt.
sitemap.xml ist bei Blogspot voreingerichtet

gsitecrawler = zur Erstellung der sitemap, hier kann Prio manuell vergeben werden
xml.gz = gepackt = gut für mobile geeignet   wird ins root verzeichnis abgelegt

Für individuelle sitemaps können auch Generatoren verwendet werden (wenn z.B. das CMS keine sitemap hat)

sitemap immer aktualisieren, wenn neue Unterseite angelegt wird. (überschreiben und neu abspeichern)

Webmastertools

Mithilfe von Webmaster-Tools kann festgestellt werden, ob Seite gut von den Crawlern ausgelesen wird, welche Suchanfragen erfolgt sind,oder ob Seite gehackt wurde. Und Crawler-Statistiken abgerufen werden

Meta Tags müssen immer  im Head stehen!!!!

Zur Verifizierung muss der angegebeneLnk kpiert werden und in den HTML-Text  alsMeta-Tag eingegeben werden.

H1 ist der Titel

div. Container --> mit der Maus drüberfahren

Description anpassen um im Ranking höher zu kommen

SERP = Search Engine Result Pages = Seiten auf denen Suchergebnisse angezeigt werden

 Page Ranking = Gewichtung aufgrund von Links auf die Seite nach Page und Brin

Crawling-Fehler müssen behoben werden, sonst wird Ranking schlechter

(draufklicken, markieren, als korrigiert markieren)

Google Index entfernen =  Url'swerden entfernt, nicht die website

Crawling-Statistiken sind gut, wenn gezackte Kurven da sind

Penalties von Google

bei:
- zu hoher keyword density 
- unnatürliche links auf die Seite
- unseriöse Backlinks
- exzessive H1 Tags
- 404-Fehler
- blognetwork
- duplicated content

Strafen:

Page Rank Herabstufung
Keyword Zurückstufung
Seiten um - 30 zurückstufen
Rausschmiss aus Index
 


Tag 4: 13.11.2014

Tag 4 - OnpageSEO und HTML

Alexa Rank

Keyword Recherche mittels Samurai

HTML und onpage-Kriterien

Black hat

Tag 3: 12.11.2014

Noch im KH


Einstieg in SEO, Keywords


4 P's des Marketing

typische SERP

Universal search

Eye- Tracking-Studie

Wie du mit POST eine Contentstrategie entwirfst, die dich sofort effektiver macht

Jetzt lesen: http://erfolgswolf.de/wie-du-mit-post-eine-contentstrategie-entwirfst/#ixzz3Jc8zHGyk
Follow us:
@rrwenda on Twitter | erfolgswolf on Facebook

Keyword Planer von Google und andere keyword-Datenbanken

200 SEO Kriterien http://onlinemarketing.de/news/infografik-die-200-ranking-faktoren-von-Google

SEO- Neuigkeiten: https://www.mattcutts.com/blog/

t3n.de







Tag 2: 11.11.2014

nicht anwesend wg. OP

Stoff: 
Grundlagen Online - und Internet-Marketing  s. Skizze von Ralf (unten)

Überzeugungswaffen nach Dr. Cialdini (s. Download)

Einbinden von Impressum und Datenschutz

SERP, CRM, ERP

Briggs: Ausprägung menschlicher Characterzüge


John Wanamaker

Mattias Brandmüller


Montag, 17. November 2014

Tag 1: 10.11.2014

Vorstellung der Teilnehmer

ziemlich große Gruppe, unterschiedliche Level.

Ralf informiert über den Inhalt des Unterrichts  s. PDF web dich selbst

Google-Profil angelegt  omknov2014@gmail.com  Passwort: (mein Motorrad, das ich 1990 gekauft habe:-)

Blog erstellt  anoli1959.blogspot.com    was ist mit anoli55.blogspot.com ?? (nur über fritz.seimir??)

Backend = Bearbeitungsebene
Frontend= das was Leser sehen können

Kämpfe noch mit dem ungewohnten virtual classroom.
Wird schon werden! 

http://www.omkt.de/online-marketing-definition/