Die Optimierung Ihrer Webseite
2. Die Optimierung Ihrer Website
In diesem Abschnitt soll es um einige Einstellungen gehen, die für Ihre Website von Interesse sein könnten. Wählen Sie dazu aus dem Menü „Website-Konfiguration“ den Menü-Punkt „Einstellungen“.
Hier haben Sie die Möglichkeit, bestimmte Parameter festzulegen.
a. Definition des geographischen Zieles (Geo-Targeting)
Dieses Tool dient der Ausrichtung einer Website auf ein bestimmtes geographisches Ziel. Diese Funktion ist besonders dann von Interesse, wenn Sie eine länderunspezifische Domain, wie zum Beispiel .eu oder .com besitzen, aber dennoch User ansprechen möchten, die speziell nach Websites aus einer bestimmten Region suchen. Auch wenn der Server Ihrer Website sich in einem anderen Land befindet, als Ihre Zielgruppe, empfiehlt sich diese Funktion.
Wenn Sie beispielsweise einen Internetshop mit einer .com-Domain betreiben, aber nur einen deutschlandweiten Versand anbieten, sollten Sie das geographische Ziel auf Deutschland festlegen.
Zur Festlegung aktivieren Sie einfach das Kontrollkästchen „Ausrichtung auf Nutzer in …“ und wählen aus dem Auswahlmenü das bevorzugte Ziel aus. Bestätigen Sie Ihre Auswahl dann mit „Speichern“. Es kann nur ein geographisches Ziel ausgewählt werden.
Anmerkung: Bis die Ergebnisse des Geo-Targeting in den Google-Suchergebnissen sichtbar sind, können bis zu einige Wochen vergehen. Üben Sie sich also bitte in Geduld.
Für Websites, die bereits eine Länderkennzeichnung in der Domain besitzen, also beispielsweise auf .de oder .at enden, kann zum gegenwärtigen Zeitpunkt kein geographisches Ziel festgelegt werden, da eine automatische Zuordnung anhand der Länderkennung der Domain vorgenommen wird.
Manchmal kommt es vor, dass eine geographische Ausrichtung nicht genügt, wenn Sie also zum Beispiel Waren sowohl nach Deutschland, als auch nach Frankreich versenden wollen und eine Ausrichtung auf diese beiden Länder nötig ist. In diesem Fall können Sie auch für Sub-Domains oder Unterverzeichnisse geographische Zieleinstellungen festlegen.
Dazu müssen Sie die entsprechende Subdomain, zum Beispiel de.example.com, oder das entsprechende Verzeichnis, zum Beispiel example.com/de, im Dashboard hinzufügen. Danach können die Einstellungen der geographischen Zieleinstellungen separat festgelegt werden.
b. Bevorzugte Domain
Mit dieser Anwendung können Sie festlegen, in welchem Format die URLs Ihrer Site in den Suchergebnissen angezeigt werden sollen, d.h. ob der www-Präfix sichtbar sein soll oder nicht. Das ist sinnvoll, wenn Suchmaschinen Ihre Website mit und ohne www-Präfix als zwei unterschiedliche Websites ansehen würden. Die Website würde dann durch die Suchmaschine nicht als Einheit erkannt werden und der Ruf der Seite sowie die Links würden benachteiligt. Ist jedoch ein Format festgelegt, werden alle eingehenden Links automatisch entsprechend konvertiert, so dass sie auf das gewünschte Format verweisen. Dadurch wird die Bestimmung des Page-Rankes Ihrer Seite gewährleistet. Wählen Sie einfach die gewünschte Option im Bereich „Bevorzugte Domain“ aus.
c. Crawling-Geschwindigkeit
Für die meisten Besitzer einer Website, bzw. Webmaster wird Googles Crawling-Geschwindigkeit genau richtig sein.
Wenn es jedoch zu Problemen mit dem Webserver oder Hostig-Server kommt, können Sie Ihre bevorzugte Crawling-Geschwindigkeit festlegen. Aktivieren Sie dazu den Punkt „Benutzerdefinierte Crawling-Geschwindigkeit festlegen“.
Es öffnet sich folgendes Fenster:
Die Option „Schneller“ ist nur dann verfügbar, wenn erkannt wird, dass der Server, auf dem Ihre Website lagert, mehr Anfragen bewältigen kann. Speichern Sie die Änderungen, indem Sie die Funktion „Speichern“ bedienen.
d. Erstellen und Einreichen von Sitemaps
Zunächst muss eine Unterscheidung zwischen HTML-Sitemap und XML-Sitemap getroffen werden. Unter einem HTML-Sitemap versteht man eine HTML-Seite mit einer Auflistung des Seiteninhaltes. Ziel dabei ist es, den Usern das Auffinden der benötigten Informationen zu erleichtern.
Google-Webmaster-Tools bietet die zweite Variante an, den XML-Sitemap. Damit können Suchmaschinen erkennen, aus welchen Inhalten Ihre Website besteht. XML-Sitemaps sind dann vorteilhaft, wenn einige URLs schwer zu finden sind. Das kann der Fall sein, wenn Sie über dynamischen Content verfügen, Ihre Website relativ neu ist, Ihre Seite über Ajax oder Flash Content verfügt oder bei Content, der nur über Formulare erreichbar ist.
Wenn Sie für Ihre Website keinen Sitemap hochladen können, weil es beispielsweise ein Blog ist, bei dem ein Datei-Upload nicht möglich ist, finden Sie bei Google Informationen zu Sitemaps für mehrere Websites. So ist es möglich, ein Sitemap für mehrere verifizierte Websites einzureichen. So können Sie Google nicht nur mitteilen, welche Sites es auf Ihrer Website gibt, sondern auch, wie oft diese aktualisiert werden, sowie die relative Wichtigkeit jeder Seite.
Folgende drei Formate stehen dabei zur Verfügung: a) Textdatei, b) Syndication-Feeds und c) XML-Sitemap-Protokoll.
i. Textdatei
Dies ist die einfachste Variante zur Erstellung eines Sitemap. Dabei wird einfach eine Textdatei angelegt. In dieser Textdatei wird jeweils eine URL pro Zeile vermerkt. Die Zahl der URLs pro Textdatei ist dabei auf 50.000 URLs beschränkt. Zudem darf die Datei keine anderen Informationen als die URLs enthalten.
Auch hier eignet sich der Texteditor hervorragend. Die Datei kann mit beliebigem Namen im .txt Format in der UFT-8 Codierung gespeichert werden.
ii. Syndication-Feeds
Hierbei akzeptiert Google nur bestimmte Formate. Dies sind: RSS 2.0, Atom 1.0. Die meisten Feeds beschränken sich auf die aktuellsten URLs. Gegebenenfalls müssen Sie daher Ihre Feed-Einstellungen anpassen. Dann können Sie Ihren Feed als Sitemap bereitstellen. Dabei folgen Sie den folgenden Anweisungen.
Falls Sie Blogger.com nutzen, sind von Ihrer Seite keine Aktionen notwendig, denn in diesem Fall wurde sie automatisch mit Hilfe Ihrer robots.txt-Datei hinzugefügt. Dieses Sitemap sehen Sie nicht in den Google-Webmaster-Tools aufgelistet.
iii. XML-Sitemap-Protokoll
Dieses Protokoll hat den Vorteil, von den meisten Suchmaschinen akzeptiert zu werden. Für die Erstellung dieser Art von Sitemap gibt es verschiedene Möglichkeiten.
Wenn Sie Zugriff auf Ihren Server und zusätzlich Phyton installiert haben, können Sie den Google-Sitemap-Generator verwenden. Auf Google finden Sie auch eine Liste mit Drittanbietern zur Erstellung von Sitemaps. Nutzen Sie dazu den Link „Hilfe zu: XML-Sitemaps“.
Sie gelangen auf die Seite „Erstellen und Einreichen von XML-Sitemaps. Am rechten unteren Rand finden Sie einen Link zu den Drittanbietern.
Auch im Forum für Webmaster finden Sie hilfreiche Tipps und Tricks zur Erstellung von Sitemaps. In der Hilfe für Webmaster finden sich genauere Hinweise
e. Manuelles Erstellen von Sitemaps
Erstellen Sie eine Textdatei und speichern Sie sie mit der Erweiterung „.xml“. Fügen Sie dann ganz oben in der Datei die folgende Aussage ein:
<?xml version=“1.0″ encoding=“UTF-8″?>
<urlset xmlns=“http://www.sitemaps.org/schemas/sitemap/0.9″>
Unten in der Datei wird die folgende Zeile eingefügt:
</urlset>
Für jeden URL erstellen Sie jetzt einen Eintrag. Nur das <loc>-Tag ist erforderlich, alle anderen sind optional.
<url>
<loc>http://www.example.com/</loc>
<lastmod>2005-01-01</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
Ihre Datei sollte dann so aussehen:
<?xml version=“1.0″ encoding=“UTF-8″?>
<urlset xmlns=“http://www.sitemaps.org/schemas/sitemap/0.9″>
<url>
<loc>http://www.example.com/</loc>
<lastmod>2005-01-01</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
</urlset>
Speichern Sie diese Datei und laden Sie sie auf Ihren Webserver. Reichen Sie dann Ihr Sitemap an Google-Webmaster-Tools. Dazu gehen Sie zum Dashboard der Google-Webmaster-Tools. Wählen Sie aus dem Auswahlmenü „Website-Konfiguration“ den Menüpunkt „XML-Sitemaps“.
Wählen Sie dann die Funktion „XML-Sitemap einreichen“.
Alternativ wählen Sie auf der Seite „Dasboard“ die Funktion „XML-Sitemap einreichen“.
Tragen Sie dann den Namen Ihrer Sitemap-Datei (die URL des Sitemaps oder Feeds) in das Feld ein und klicken Sie dann auf „XML-Sitemap einreichen“.
Das System meldet dann sofort, ob die Sitemap aufgerufen werden kann oder nicht. Wird die Datei erkannt, gelangen Sie zurück auf die Übersichtsseite; anderenfalls erscheint eine Fehlermeldung.
Wenn Sie Änderungen in Ihrer Sitemap vornehmen, erkennt Google diese automatisch und fügt sie ein. Jederzeit können Sie aber auch einen neuen Sitemap einreichen. Markieren Sie dazu die entsprechende Datei und klicken Sie auch „Auswahl erneut senden“.
f. Content indexieren
In diesem Abschnitt geht es vor allem darum zu zeigen, wie Sie verhindern können, dass bestimmter Content indexiert wird, bzw. was zu tun ist, wenn bereits indexierter Content wieder entfernt werden soll.
Es gibt dabei verschiedene Möglichkeiten, um zu verhindern, dass Content indexiert wird.
Der einfachste Weg ist es, den zu schützenden Content in einem passwortgeschützten Verzeichnis zu speichern. So können weder Crawler noch Nutzer auf diese Dateien zugreifen.
Eine weitere Variante sind Meta-Tags. Diese sind vor allem dann sinnvoll, wenn nur einzelne Seiten von der Indexierung ausgeschlossen werden sollen, aber auch bei kleinen Websites.
Soll die Indexierung einer ganzen Seite veranlasst werden, können Sie einfach die Anweisung
<meta name=“robots“
Content=“noindex, nofollow“>
als Metainformation für Suchmaschinen in den head-Abschnitt Ihrer Site einfügen.
<head>
<meta name=“robots“
Content=“noindex, nofollow“>
So werden Suchmaschinen-Robots veranlasst, diese Seite nicht zu indexieren und Links auf der entsprechenden Site werden nicht verfolgt. Sie können den Content-Teil in diesem Meta-Tag entsprechend Ihrer Bedürfnisse anpassen.
So könnte es beispielsweise Ihr Wunsch sein, die Seite selbst zu indexieren, nicht aber die Links. In diesem Fall setzen Sie den Content-Parameter auf „nofollow“.
<head>
<meta name=“robots“
Content=“nofollow“>
Besitzen Sie eine größere Site und wollen Sie ganze Verzeichnisse vom Crawling ausschließen, ist die Verwendung einer robots.txt–Datei empfehlenswert. Die Text-Datei müssen Sie dabei unbedingt robots.txt benennen und auf der route-Ebene Ihrer Site ablegen. Das ist wichtig, denn die Datei kann nicht erkannt werden, wenn sie sich in einem Unterverzeichnis befindet. Der entsprechende Content wird dann nicht gecrawled, kann aber dennoch im Index gelistet sein, wenn Links darauf verweisen. Soll also absolut sichergestellt werden, dass bestimmter Content nicht indexiert wird, ist die Verwendung des „noindex“-Meta-Tags bzw. die Anlage eines passwortgeschützten Verzeichnisses zu empfehlen.
g. Anlage einer robots.txt-Datei
In der ersten Zeile Ihrer robots.txt-Datei verwenden Sie:
User-Agent:*
Dies gibt dem Crawler die Informationen, ob die folgenden Informationen zutreffen oder nicht. Anstelle des * können Sie auch die Namen bestimmter Robots einsetzen.
User-Agent: Googlebot
In der Regel ist jedoch * die beste Wahl, denn damit werden alle Robots erreicht, die das robots.txt-Protokoll verfolgen. Als nächstes bestimmen Sie den Content, der vom Crawling ausgeschlossen werden soll. Dazu definieren Sie in der folgenden Zeile die vom Crawlen auszuschließenden Dateien oder Verzeichnisse. Verwenden Sie dazu Disallow:
Disallow:/private_datei.html
Disallow:/verzeichnis/
Doch Achtung: Wenn Sie nur einen / nach dem Doppelpunkt angeben, wird die gesamte Website blockiert. Achten Sie auch auf die Groß- und Kleinschreibung. Diese spielt in diesem Fall eine Rolle. Schreiben Sie deswegen die URLs genau so, wie sie auf Ihrer Website auftreten.
Es können mehrere Disallow –Anweisungen in einer robots.txt-Datei angegeben werden.
Disallow:/bilder/
Disallow:/nachrichten/
Disallow:/archiv/
Disallow:/privates/
Eine einfache und schnelle Variante zur Erstellung einer robots.txt-Datei finden Sie in den Google-Webmaster-Tools.
Ausgangspunkt dafür ist wieder das Dashboard der Google-Webmaster-Tools. Wählen Sie aus dem Auswahlmenü „Website-Konfiguration“ den Unterpunkt „Crawler-Zugriff“.
Es öffnet sich die Seite für den Crawler-Zugriff.
Wählen Sie den mittleren Menüpunkt „Datei ‚robots.txt’ erstellen“.
Sie werden zu folgendem Fenster weitergeleitet.
Hier können Sie zunächst ganz einfach den Standart-Zugriff des Crawler festlegen.
In einem zweiten Schritt können Sie festlegen, ob der Zugriff auf bestimmte Dateien zugelassen werden soll oder nicht.
Wählen Sie dazu zunächst die gewünschte Aktion aus:
Dann legen Sie fest, für welche Robots diese Regel anwendbar sein soll, das heißt welche Robots für die Suche zugelassen werden und welchen nicht:
Nun geben Sie einfach das gewünschte Verzeichnis ein und bestätigen Sie.
Laden Sie dann die fertige robots.txt-Datei herunter.
Laden Sie die Datei dann in das oberste Verzeichnis Ihrer Website.
Bevor Sie dies tun, können Sie Ihre neu erstellte robots.txt-Datei testen. So können Sie überprüfen, ob nur die von Ihnen gewünschten Dateien vom Crawling ausgeschlossen sind. Wählen Sie dazu die Funktion auf „robots.txt testen“.
Wenn Sie die robots.txt-Datei noch nicht auf Ihren Server hochgeladen haben, kopieren Sie Ihren robots.txt-Text in das Fenster.
In dem zweiten Fenster geben Sie die URLs an, mit denen die robots.txt-Datei getestet werden sollen.
Am Ende der Seite können Sie mit Hilfe eines Auswahlmenüs festlegen, ob die URLs noch anderen Robots als dem Standart-Googlebot getestet werden sollen.
Aktivieren Sie dann den Test.
Als Ergebnis wird Ihnen angezeigt, welche Dateien erreicht werden konnten und welche nicht.
Wenn Sie bereits eine robots.txt-Datei auf den Server hochgeladen haben, wird Ihnen hier die letzte Version angezeigt, die herunter geladen wurde. Sie werden auch informiert, wenn die Datei nicht gefunden werden konnte.
Sie können hier ebenfalls Änderungen vornehmen und diese testen. Diese Änderungen werden jedoch nicht in Ihrer robots.txt-Datei gespeichert. Wenn Sie also die Änderungen nach der Überprüfung übernehmen wollen, müssen Sie diese in Ihre robots.txt-Datei einfügen und eine aktualisierte Version auf Ihren Server hochladen.
h. Entfernen von Content
Um bereits indexierten Content zu entfernen, haben Sie folgende Möglichkeiten: i) 404- oder 410-Fehlermeldung, ii) Meta-Tag „noindex“, iii) eine robots.txt-Datei und iv) mit Google Webmaster-Tools.
i. 404- / 410-Fehlermeldung
Stellen Sie sicher, dass Ihr Server eine 404 (not found)- bzw. 410 (gone)-Fehlermeldung liefert, wenn die ehemalige Seite aufgerufen wird. Im Laufe der Zeit wird die Seite dann nicht mehr gecrawled werden.
ii. Meta-Tag „noindex“
Eine weitere Möglichkeit ist die Verwendung des Meta-Tags „noindex“. Wie Sie dies tun, erfahren Sie in dem Abschnitt „Content indexieren“.
iii. Robots.txt-Dateien
Ebenso können Sie bestimmten Content durch eine robots.txt-Datei für Google-Bot sperren. Wie Sie dies tun, erfahren Sie in dem Abschnitt „Content indexieren“.
iv. Google Webmaster-Tools
Soll die Entfernung des Content schneller, als innerhalb von 3-5 Tagen, erfolgen, können Sie auf die Google-Webmaster-Tools zurückgreifen. Ausgangspunkt ist das Dash-Board der Google-Webmaster-Tools. Wählen Sie aus dem Menü „Website-Konfiguration“ den Unterpunkt „Crawler-Zugriff“.
Auf der entsprechenden Seite wählen Sie den Menü-Punkt „URL entfernen“.
Wählen Sie nun den Menüpunkt „Neuer Antrag auf Entfernung“ aus. Stellen Sie dabei sicher, dass die zu entfernenden Seiten nicht mehr erreichbar sind.
Wählen Sie dazu eine der angebotenen Optionen aus, da sonst die Seite weiter gecrawled werden würde.
i. Anwendungsbeispiele
Wollen Sie eine ganze Seite oder ein Verzeichnis entfernen, müssen Sie eine robots.txt-Datei verwenden.
Wollen Sie die Cache-Version einer Site löschen, verwenden Sie den Meta-Tag „noarchive“.
Sobald die jeweiligen Seiten gesperrt sind, melden Sie sich bei den Google Webmaster-Tools an und wählen Sie die Site aus, auf der Content gesperrt werden soll. Verfahren Sie dabei wie unter Punkt d) beschrieben.
Soll Content wieder indexiert werden, kehren Sie zu dem Menüpunkt „URL entfernen“. Wählen Sie den Punkt „Entfernter Inhalt“ und dann den Menüpunkt „Content wieder aufnehmen“.
Keine Kommentare vorhanden