Profile cover photo
Profile photo
Ralf B.
137 followers -
Online Marketing im handlichen Format: kompetent und erfolgreich
Online Marketing im handlichen Format: kompetent und erfolgreich

137 followers
About
Posts

Post has attachment
Ziemlich guter Beitrag von dem Team rund um Oliver Zenglein. Öffnet Augen und Ohren bzw. gute Spritze für den Verstand.

Wer vorher gut plant, ist nachher klar im Vorteil. ;-)
Add a comment...

Jemand von euch heute ebenfalls beim Google Experten Ausbildungs Bootcamp? Hab' den Passierschein A75 bekommen und darf auf die Veranstaltung. yeah happy
Add a comment...

Uuups. Zu starke Google Webmaster-Tools Account Nutzung = Verdacht auf robot Account = structured data Ausgabe no more :-(
Add a comment...

Der letzte Post ist schon zwei Wochen her? O.O Seitdem recht viel Arbeit und Zeit in manche SEO Kunden gesteckt und deren "Technik" optimiert.

Den Kundendomains eine Diät verpasst, da sie zu viele Seiten im Index, Blockierte Ressourcen und falsch eingestellte http-header Einstellungen hatten.

In der kommenden Woche geht's dann los mit der Optimierung von Meta-Tags und Inhalten.
Add a comment...

Unter dem Motto "Viele Wege führen nach Rom, aber nur einer zur Ziel-URL" habe ich mir für heute mal das Thema "hackable URLs" raus gesucht.

Darunter versteht man im SEO Genre die absichtliche Unterbrechung eines (meist internen) Links, indem man ein Element in der URl verändert oder löscht. Führt man diese Veränderung aus, sollte eine 301 Weiterleitung auf die "richtige" Ziel-URL greifen.

An den folgenden fünf verschiedenen Arten an Beispielen seht ihr besser, was genau damit gemeint ist:

# ohne Dateiendung + Großschreibweise auf mit .html am Ende
RewriteRule Veranstaltungen$ http://www.ralfbaier.de/veranstaltungen.html [R=301,L]

# ohne Dateiendung + Kleinschreibweise auf mit .html am Ende
RewriteRule veranstaltungen$ http://www.ralfbaier.de/veranstaltungen.html [R=301,L]

# mit Trailing Slash (404) am Ende auf mit .html
RewriteRule veranstaltungen/$ http://www.ralfbaier.de/veranstaltungen.html [R=301,L]

# mit Trailing Slash (404) am Ende auf ohne Trailing Slash
RewriteRule veranstaltungen.html/$ http://www.ralfbaier.de/veranstaltungen.html [R=301,L]

# mit großen Anfangsbuchstaben auf kleinen Anfangsbuchstaben
RewriteRule Veranstaltungen.html$ http://www.ralfbaier.de/veranstaltungen.html [R=301,L]

In einigen CMS Produkten kommt es vor, dass die gewünschte Ziel-URL, neben der ursprünglich gewollten Variante, auch über zwei andere Schreibweisen erreichbar ist. Dies sollte man, falls möglich, unterbinden.
Add a comment...

Der folgende Post ist für die Follower aus dem Bereich #seo bzw. für diejenigen, die selber eine kleinen Internetauftritt betreiben und #doityourself SEO Tipps gut gebrauchen können.

Allerdings versuche ich mit den folgenden Punkten die Zielgruppe noch etwas einzugrenzen. Also bitte die Augen auf und die volle Konzentration auf die Lesestärke bzw. Adleraugen.

- Hast Du einen Internetauftritt, der in HTML5 programmiert ist?

- Hast Du am Quellcode Ende bereits ein "application/ld+json" Code-Snippet eingebaut?

- Kannst Du das Code-Snippet ggf. anpassen?

- Verwendet Dein Internetauftritt ein Logo?

Dann bitte die folgenden Fehler oder Irrtümer gar nicht erst begehen:

- Zwei verschiedene "@type" Blöcke in ein "application/ld+json" Code-Element unterbringen.
- Die Eigenschaft "logo" einbauen.

An dieser Stelle sei gesagt, dass ich beide "Fehler" vorher getestet habe. Das Ergebnis ist ganz simpel. Es wird nur der erste Block beachtet und die Logo Eigenschaft wird im "application/ld+json" nicht in der Google Search Console erfasst. Es muss separat ausgezeichnet werden.

Die folgenden Elemente können ohne Probleme verwendet und werden von Google auch in der Search Console problemlos ausgegeben:

<script type="application/ld+json">
{"@context":"http://schema.org",
"@type":"Organization",
"name":"Ralf Baier ohne Firmierung",
"legalName":"Ralf Baier mit Firmierung",
"url":"http://www.ralfbaier.de/",
"sameAs": [
"https://www.facebook.com/pages/Ralf-Baier/484652908291465",
"https://twitter.com/ralf_baier3",
"https://plus.google.com/+RalfBaier"
],
"contactPoint": [{
"@type": "ContactPoint",
"email": "info@santaclause.net",
"faxNumber":"+49-89-81893813",
"telephone":"+49-89-81893812",
"contactType":"customer service",
"areaServed":"DE",
"availableLanguage":"German"
}],
"foundingDate":"2013",
"founder":"Ralf Baier",
"foundingLocation":"München",
"address": [{
"streetAddress":"Josef-F&uuml;hrer-Stra&szlig;e 48",
"postalCode":"80997",
"addressLocality":"M&uuml;nchen",
"addressRegion":"Bayern",
"addressCountry":"Deutschland"
}]}
</script>

Kommen wir noch zu der Zeile mit dem Logo, die in dem "application/ld+json" Code-Snippet extra weg gelassen wurde. ;-)

Sucht in eurem Quellcode die entsprechende Zeile mit dem Logo und ergänzt die folgenden Elemente einfach. Die Verwendung der Elemente hat aber auch noch einen kleinen Haken: das Logo muss verlinkt sein, damit die Eigenschaft "url" verwendet werden kann!

Das Ganze sieht dann wie folgt aus:

<span itemscope itemtype="https://schema.org/Organization">
<a href="http://www.deinedomain.de/" itemprop="url" title="HIER könnte ihre Werbung stehen!">
<img itemprop="logo" src="http://www.deinedomain.de/img/dein-haus_dein-auto_dein-logo.png" alt="HIER könnte ihre Werbung stehen!" title="HIER könnte ihre Werbung stehen!" />
</a>
</span>
Add a comment...

Post has attachment
In der URL-Kürze liegt die Würze! ;-)

Der John Mueller von Google hat einen Tipp zu der bevorzugten URL-Länge abgegeben. Ist für diejenigen unter euch evtl. interessant, die von manchen URLs immer einen langen Hals haben.
Add a comment...

Können mal bitte kurz diejenigen unter euch den Arm heben, die ihre Ordner auf dem FTP mit den darin enthaltenen CSS und / oder JS Dateien über die robots.txt Datei blockiert haben?

Mit den folgenden Zeilen in der .htaccess Datei könnt ihr diese Maßnahme vermeiden, weil ihr durch die CSS / JS Dateisperre nämlich in das Seitenrendering eingreift und da kann der Googlebot ziemlich zur Diva werden, wenn die Dateien für die Darstellung der Seite wichtig sind:

(Bitte vor der Integration auf dem Live-System, in der Testumgebung ausprobieren!)

<ifModule mod_headers.c>

<filesMatch "\\.(js|css)$">
ExpiresActive Off
Header set Cache-Control "private, max-age=2592000"
Header set X-Robots-Tag "noindex, follow"
</filesMatch>

</ifModule>

Wenn die Zeilen eingebaut wurden und der http-Header Test erfolgreich war, bitte an die Entfernung der Sperre in der robots.txt denken und in der Google Search Console an die "Abruf wie durch Google" Durchführung denken! ;-)
Add a comment...

"Kannst Du auch mal wieder ein paar praktische SEO Tipps geben?"

Ja, sehr gerne sogar! ;-)

Einen Fehler sehe ich bei vielen Internetseiten recht häufig. Und zwar den, dass die XML Sitemap im Google Suchergebnis Index auftaucht. Die Seitenbetreiber lassen damit öffentlich die "Hose" runter und zeigen jedem quasi was sie so anzubieten haben.

Kann man machen, sollte man aber nicht. Gerade dann nicht, wenn man davon ausgeht, dass ihr / du als Seitenbetreiber auch immer einen Wettbewerber habt, der euch über die Schulter schaut.

Ihr / du könnt / kannst das ganz einfach mit "site:deinedomain filetype:xml" auf www.bing.de oder www.google.de überprüfen.

Wenn ihr / du dann merkt, dass die XML Sitemap im Index der Suchmaschinen aufgelistet wird, gibt es folgende Möglichkeit, wie ihr die Datei aus dem Index bekommt (gilt übrigens auch für die robots.txt Datei ;-) ).

Folgende Zeilen in der .htaccess Datei ergänzen:

<ifModule mod_headers.c>
<filesMatch "\\.(xml|txt)$">
Header set X-Robots-Tag "noindex, follow"
</filesMatch>
</ifModule>

Wenn ihr die XML / TXT Dateien im Index lassen wollt, kann man aus dem "noindex, follow" einfach ein "index, follow" machen.

Man könnte dann noch einen Schritt weitergehen und der XML Sitemap oder der robots.txt Datei noch eine "canonical" URL verpassen, sodass sie den Linkjuice weitervererbt, sollte sie von außen verlinkt werden (soll ja manchmal der Fall sein ;-) ).

Dann ergänzt man einfach noch die folgenden Zeilen:

<FilesMatch "sitemap.xml">
Header append Link "<http://domain.de/>; rel=\"canonical\""
</FilesMatch>
<FilesMatch "robots.txt">
Header append Link "<http://domain.de/>; rel=\"canonical\""
</FilesMatch>

Kann man machen, muss man aber nicht! ;-)

Und wer noch nicht fertige Seiten aus der XML Sitemap fernhalten will, der kann sie einfach in der "urllist.txt" Datei einfügen. Die Datei ist manchen SEOs nicht so geläufig. Kann auch problemlos bei den Google Webmaster Tools als "Sitemap Quelle" hochgeladen werden. ;-)
Add a comment...

Post has attachment
Wait while more posts are being loaded