Robots.txt-Datei: Anleitung für SEO
Was sind Robots?
Robots werden vor Allem dazu genutzt, um Webseiten für die Suchmaschinen zu indizieren. Die beiden bekanntesten Vertreter in dieser Branche sind Google und Bing. Es gibt aber auch andere Anbieter, die sich auf bestimmte Marktsegmente, wie z. B. den medizinischen Sektor, spezialisiert haben.
Robots Exclusion Standard
Einhaltung ist freiwillig
Verhalten der Robots
Rolle der Robots für SEO
Unterschied zum Robots-Meta-Tag
<meta name="robots" content="(index | noindex), (follow | nofollow)">
Im Unterschied zur Robots.txt-Datei gilt das Meta-Tag aber nur für die aktuelle Unterseite und ist von den Funktionen her stark eingeschränkt. Außerdem lassen sich nur HTML-Dokumente vor der Indizierung schützen — Verzeichnisse und Dateien bleiben außen vor.
Erstellung einer Robots.txt-Datei
Die Robots.txt-Datei muss:
Syntax der robots.txt
Beispiel einer Robots.txt-Datei:
# 1. Block
User-agent: Googlebot-Image # Name
User-agent: Googlebot-Video # Name
Disallow: /media/ # Regel
Disallow: /*.mp4$ # Regel
# 2. Block
User-agent: *
Disallow: /temp/
Disallow: /unternehmen/
Allow: /unternehmen/impressum.html
User-agent
User-agent: Googlebot-Image
User-agent: Googlebot-Video
User-agent: *
- Googlebot. Der wichtigste Crawler von Google zum Indizieren von Websites in der mobilen Version und Desktop-Ansicht.
- Googlebot-Image. Dieser Googlebot indiziert die Bilder auf einer Website.
- Googlebot-Video. Ein auf Videos spezialisierter Crawler.
- Googlebot-News. Webcrawler speziell für das Google Nachrichten Angebot.
- Mediapartners-Google. Ein Crawler speziell für AdSense, der sich mit dem Googlebot einen gemeinsamen Cache teilt und doppelte Seitenaufrufe zu vermeiden.
- AdsBot-Google. Überprüfung der Anzeigequalität von Google Ads auf Desktop Geräten.
- AdsBot-Google-Mobile. Ein Crawler zur Prüfung der Anzeigenqualität von Google Ads auf mobilen Endgeräten.
- APIs-Google. Über diesen User-agent werden die Push-Benachrichtigungen den Google-APIs übermittelt.
- Bingbot. Der Standard Crawler von Bing zur Indizierung von Websites in mobiler und Desktopansicht.
- MSNBot. Ein Crawler, der dem Bingbot voraus geschickt wird, um erste Daten zu erheben.
- MSNBot-Media. Dieser Bot ist auf Bilder und Videos spezialisiert.
- AdIdxBot. Ein Webcrawler zur Qualitätskontrolle der Anzeigen mit Bing Ads auf mobilen und Desktop Geräten.
- BingPreview. Zum Rendern von Vorschauseiten in mobiler und Desktop Ansicht.
Allow und Disallow
User-agent: *
Disallow: /
User-agent: *
Disallow: /temp/
User-agent: *
Disallow: /temp/
Allow: /temp/images/
Allow: /temp/videos/
User-agent: *
Disallow: /test*/
User-agent: *
Disallow: /*test*/
User-agent: *
Disallow: /*.pdf$
Zusätzliche Optionen
- Sitemap. Der Link zur Sitemap sollte natürlich direkt in der Google Search Console und den Webmastertools von Bing hinterlegt sein. Für alle anderen Crawler ist der zusätzliche Eintrag einer Sitemap in der Robots.txt-Datei aber hilfreich.
Sitemap: https://www.domain.tlp/linkzursitemap.xml
- Crawl-Delay. Um den Traffic durch Suchmaschinen etwas zu verteilen und den Server zu entlasten, kann die Zeitspanne zwischen den Anfragen manuell festgelegt werden. In der Praxis hat diese Regel allerdings kaum Bedeutung, denn sie wird von Google und Bing ignoriert.
Crawl-delay: 60
Verarbeitung der Robots.txt-Datei
Ergebnisse eines Vergleiches:
Ergebnisse eines Vergleiches mit URL-Kodierung:
Case Study: Syntax check mit der Search Console
Zunächst testen wir das Beispiel der Robots.txt-Datei aus diesem Beitrag weiter oben. Wie zu erwarten werden hier keinerlei Probleme festgestellt:
Möchtest du persönliche Serpstat-Demonstration, die Testversion oder erfolgreiche Use-Cases bekommen? Sende eine Demo-Anfrage und unser Support-Team kontaktiert dich ;)
Nachwort des Autors
blog_main_page_trial_form_header
article_trial_block_first_line
article_trial_block_second_line
discover_more_seo_tools
seo_seo_block_title_1
seo_seo_block_text_1
seo_seo_block_title_2
seo_seo_block_text_2
seo_seo_block_title_3
seo_seo_block_text_3
seo_seo_block_title_4
seo_seo_block_text_4
Cases, Lifechaks, Studien und nützliche Artikel
Hast du keine Zeit, um auf dem Laufenden zu bleiben? Kein Problem! Unsere Lieblingsredakteurin Stacy sammelt für dich die besten Artikel, die dir unbedingt bei der Arbeit helfen. Trete unserer Community bei :)
Wenn du auf die Schaltfläche zum Absenden klickst, stimmst du den Nutzungsbedingungen und der Datenschutz-Policy von Serpstat zu.