Robots.txt Generator

Eine robots.txt-Datei von Grund auf neu erstellen
or
Wähle eine der vorgeschlagenen Optionen
Eine robots.txt-Datei von Grund auf neu erstellen
  • Von Grund auf neu erstellen
  • Vorschläge
Action
Pfad
Bot

Action

Path

Bot

Delete

Action

Path

Bot

Delete
Fügen eine weitere Zeile hinzu
Kopiere alle wichtigen Dateien
Alle Bilder kopieren
Allgemeine Vorschläge
Alle wichtigen Dateien zulassen
User-agent: *
Allow: /
Eine Website verbieten
User-agent: *
Disallow: /
Alles nur für Google zulassen
User-agent: *
Disallow: /
User-agent: Googlebot
Allow: /
Alles für die am häufigsten blockierten Bots verbieten
User-agent: AhrefsBot
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: YandexBot
Disallow: /
User-agent: baiduspider
Disallow: /
Verbiete alles für alle Bots, außer Google
User-agent: Googlebot
Disallow: /
User-agent: APIs-Google
Disallow: /
User-agent: Mediapartners-Google
Disallow: /
User-agent: AdsBot-Google-Mobile
Disallow: /
User-agent: AdsBot-Google
Disallow: /
User-agent: Googlebot-Image
Disallow: /
User-agent: Googlebot-News
Disallow: /
User-agent: Googlebot-Video
Disallow: /
User-agent: Storebot-Google
Disallow: /
Alles für alle Google Bots verbieten
User-agent: Googlebot
Allow: /
User-agent: APIs-Google
Allow: /
User-agent: Mediapartners-Google
Allow: /
User-agent: AdsBot-Google-Mobile
Allow: /
User-agent: AdsBot-Google
Allow: /
User-agent: Googlebot-Image
Allow: /
User-agent: Googlebot-News
Allow: /
User-agent: Googlebot-Video
Allow: /
User-agent: Storebot-Google
Allow: /
Vorgefertigte robots.txt Datei für CMS
robots.txt für WordPress
User-agent: *
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-login.php
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /cgi-bin
Disallow: /*.php$
Disallow: /*.inc$
Disallow: /*.gz$
Allow: */uploads
Allow: /*.js
Allow: /*.css
Allow: /*.png
Allow: /*.jpg
Allow: /*.jpeg
Allow: /*.gif
Allow: /*.svg
Allow: /*.webp
Allow: /*.pdf
robots.txt für Joomla
User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /modules/
Disallow: /plugins/
Disallow: /tmp/
robots.txt für MODX
User-agent: *
Disallow: /*?id=
Disallow: /assets
Disallow: /assets/cache
Disallow: /assets/components
Disallow: /assets/docs
Disallow: /assets/export
Disallow: /assets/import
Disallow: /assets/modules
Disallow: /assets/plugins
Disallow: /assets/snippets
Disallow: /connectors
Disallow: /core
Disallow: /index.php
Disallow: /install
Disallow: /manager
Disallow: /profile
Disallow: /search
robots.txt für Drupal
User-agent: *
Allow: /core/*.css$
Allow: /core/*.css?
Allow: /core/*.js$
Allow: /core/*.js?
Allow: /core/*.gif
Allow: /core/*.jpg
Allow: /core/*.jpeg
Allow: /core/*.png
Allow: /core/*.svg
Allow: /profiles/*.css$
Allow: /profiles/*.css?
Allow: /profiles/*.js$
Allow: /profiles/*.js?
Allow: /profiles/*.gif
Allow: /profiles/*.jpg
Allow: /profiles/*.jpeg
Allow: /profiles/*.png
Allow: /profiles/*.svg
Disallow: /core/
Disallow: /profiles/
Disallow: /README.txt
Disallow: /web.config
Disallow: /admin/
Disallow: /comment/reply/
Disallow: /filter/tips/
Disallow: /node/add/
Disallow: /search/
Disallow: /user/register/
Disallow: /user/password/
Disallow: /user/login/
Disallow: /user/logout/
Disallow: /index.php/admin/
Disallow: /index.php/comment/reply/
Disallow: /index.php/filter/tips/
Disallow: /index.php/node/add/
Disallow: /index.php/search/
Disallow: /index.php/user/password/
Disallow: /index.php/user/register/
Disallow: /index.php/user/login/
Disallow: /index.php/user/logout/
robots.txt für Magento
User-agent: *
Disallow: /index.php/
Disallow: /*?
Disallow: /checkout/
Disallow: /app/
Disallow: /lib/
Disallow: /*.php$
Disallow: /pkginfo/
Disallow: /report/
Disallow: /var/
Disallow: /catalog/
Disallow: /customer/
Disallow: /sendfriend/
Disallow: /review/
Disallow: /*SID=
robots.txt für OpenСart
User-agent: *
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Disallow: /*?tracking=
Disallow: /*&tracking=
Disallow: /*compare-products
Disallow: /*search
Disallow: /*cart
Disallow: /*checkout
Disallow: /*login
Disallow: /*logout
Disallow: /*vouchers
Disallow: /*wishlist
Disallow: /*my-account
Disallow: /*order-history
Disallow: /*newsletter
Disallow: /*return-add
Disallow: /*forgot-password
Disallow: /*downloads
Disallow: /*returns
Disallow: /*transactions
Disallow: /*create-account
Disallow: /*recurring
Disallow: /*address-book
Disallow: /*reward-points
Disallow: /*affiliate-forgot-password
Disallow: /*create-affiliate-account
Disallow: /*affiliate-login
Disallow: /*affiliates
Disallow: /*?filter_tag=
Disallow: /*brands
Disallow: /*specials
Disallow: /*simpleregister
Disallow: /*simplecheckout
Disallow: *utm=
Allow: /catalog/view/javascript/
Allow: /catalog/view/theme/*/
robots.txt für WooСommerce
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-json/
Disallow: /*add-to-cart=*
Disallow: /cart/
Disallow: /checkout/
Disallow: /my-account/
Ihre Sitemap-Datei
robots.txt generieren
Zurücksetzen
Deine robots.txt-Datei
Klick zum Kopieren
robots.txt-Datei herunterladen

Überprüfe deine robots.txt, sitemap.xml und andere Crawling-Probleme

Detaillierte und leicht zu befolgende Tipps anzeigen
Wofür wird robot.txt verwendet?

Wofür wird robot.txt verwendet?

Wofür wird robot.txt verwendet?

Wenn ein Suchbot deine Website besucht, bittet er zunächst um Erlaubnis, sie zu crawlen, indem er versucht, die robots.txt-Datei abzurufen, die sich im Hauptverzeichnis befindet.

Da die robots.txt-Datei Informationen darüber enthält, wie Suchmaschinen deine Website crawlen sollen, kannst du sie nutzen, um Bots daran zu hindern, bestimmte Teile deiner Website zu crawlen, und um Suchmaschinen hilfreiche Tipps zu geben, wie sie deine Seiten, Dateien und Abschnitte am besten crawlen können.

Robots.txt ist öffentlich zugänglich. Du kannst diese Textdatei einsehen, indem du https://yourwebsite/robots.txt in die Adressleiste eingibst.

Robots.txt-Syntax

Die robots.txt-Syntax besteht aus Richtlinien, Parametern und Sonderzeichen. Wenn du willst, dass die Datei richtig funktioniert, solltest du bei der Erstellung einer robots.txt-Datei bestimmte inhaltliche Anforderungen einhalten:

1. Jede Richtlinie muss in einer neuen Zeile beginnen. Es kann nur einen Parameter pro Zeile geben.

User-agent: * Disallow: /folder1/ Disallow: /folder2/
User-agent: *
Disallow: /folder1/
Disallow: /folder2/

2. In der robots.txt wird zwischen Groß- und Kleinschreibung unterschieden. Wenn zum Beispiel der Name eines Website-Ordners groß geschrieben wird, aber in der robots.txt-Datei klein geschrieben ist, kann das die Crawler verwirren.

User-agent: Disallow: /folder/
Disallow: /Folder/

3. Du kannst keine Anführungszeichen, Leerzeichen am Zeilenanfang oder Semikolons nach den Zeilen verwenden.

Disallow: /folder1/;
Disallow: /“folder2”/
Disallow: /folder1/
Disallow: /folder2/

Mehr zeigen
Wie verwendet man die Disallow-Direktive richtig?

Sobald du die User-Agent-Direktive ausgefüllt hast, solltest du das Verhalten bestimmter (oder aller) Bots festlegen, indem du Crawl-Anweisungen hinzufügst. Hier sind einige wichtige Tipps:

1. Lass die Disallow-Direktive nicht ohne einen Wert. In diesem Fall wird der Bot den gesamten Inhalt der Website crawlen.

Disallow: - Erlauben, die gesamte Website zu crawlen

2. Du musst nicht jede Datei auflisten, die du für das Crawling sperren willst. Es reicht, wenn du den Zugriff auf einen Ordner verbietest, damit alle Dateien darin vom Crawlen und Indexieren ausgeschlossen werden.

Disallow: /folder/

3. Blockiere den Zugriff auf die Website nicht mit dieser Richtlinie:

Disallow: / - Zugriff auf die gesamte Website blockieren

Andernfalls kann die Seite komplett aus den Suchergebnissen entfernt werden.

Außerdem solltest du sicherstellen, dass wichtige Seiten deiner Website nicht für das Crawling gesperrt werden: die Startseite, Landing Pages, Produktkarten usw. Mit dieser Richtlinie solltest du nur Dateien und Seiten angeben, die nicht in den SERPs erscheinen sollen.

Mehr zeigen
Hinzufügen deiner Sitemap zur robots.txt-Datei

Falls nötig, kannst du deine Sitemap zur robots.txt-Datei hinzufügen. Das erleichtert es den Bots, den Inhalt der Website zu crawlen. Die Sitemap-Datei befindet sich unter http://your website/sitemap.xml. Du musst eine Direktive mit der URL deiner Sitemap hinzufügen, wie unten gezeigt:

User-agent: *
Disallow: /folder1/
Allow: /image1/
Sitemap: https://your-site.com/sitemap.xml

Mehr zeigen
Wie übermittle ich eine robots.txt-Datei an Suchmaschinen?

Du musst keine robots.txt-Datei an die Suchmaschinen übermitteln. Wenn Crawler eine Website besuchen, bevor sie sie crawlen, suchen sie nach einer robots.txt-Datei. Und wenn sie eine finden, lesen sie diese Datei zuerst, bevor sie deine Website scannen.

Wenn du gleichzeitig Änderungen an der robots.txt-Datei vorgenommen hast und Google darüber informieren möchtest, kannst du deine robots.txt-Datei an die Google Search Console senden. Verwende den Robots.txt-Tester, um die Textdatei einzufügen und klicke auf Senden.

Mehr zeigen
Wie definiert man den User-Agent?

Wenn du die robots.txt erstellst und Crawling-Regeln konfigurierst, solltest du den Namen des Bots angeben, dem du Crawling-Anweisungen gibst. Das kannst du mit Hilfe der User-agent-Direktive tun.

Wenn du allen Crawlern den Zugriff auf bestimmte Inhalte verwehren oder erlauben willst, kannst du das tun, indem du * (Sternchen) als User-Agent angibst:

User-agent: *

Oder du möchtest, dass alle deine Seiten in einer bestimmten Suchmaschine erscheinen, zum Beispiel in Google. In diesem Fall verwendest du den Googlebot User-agent wie folgt:

User-agent: Googlebot

Denke daran, dass jede Suchmaschine ihre eigenen Bots hat, die sich im Namen von der Suchmaschine unterscheiden können (z.B. Yahoos Slurp). Außerdem haben einige Suchmaschinen je nach Crawl-Ziel mehrere Crawler. Google zum Beispiel hat neben seinem Haupt-Crawler Googlebot noch weitere Bots:

  • Der Googlebot News kriecht durch die Nachrichten;
  • Google Mobile crawlt mobile Seiten;
  • Googlebot Video-crawlt Videos;
  • Googlebot Bilder - durchforstet Bilder;
  • Google AdSense durchforstet Websites, um den Inhalt zu ermitteln und relevante Anzeigen zu schalten.

Mehr zeigen
Wie verwende ich die Allow-Direktive richtig?

Die Allow-Direktive wird verwendet, um der Disallow-Direktive entgegenzuwirken. Wenn du die Allow- und Disallow-Richtlinien zusammen verwendest, kannst du Suchmaschinen mitteilen, dass sie auf einen bestimmten Ordner, eine Datei oder eine Seite in einem ansonsten verbotenen Verzeichnis zugreifen können.

Disallow: /album/ - Suchmaschinen ist der Zugriff auf das Verzeichnis /album/ nicht gestattet

Allow: /album/picture1.jpg - aber sie dürfen auf die Datei picture1 des Verzeichnis /album/

Mit dieser Direktive solltest du auch wichtige Website-Dateien angeben: Skripte, Styles und Bilder. Zum Beispiel:

Allow: */uploads
Allow: /wp-/*.js
Allow: /wp-/*.css
Allow: /wp-/*.png
Allow: /wp-/*.jpg
Allow: /wp-/*.jpeg
Allow: /wp-/*.gif
Allow: /wp-/*.svg
Allow: /wp-/*.webp
Allow: /wp-/*.pdf

Mehr zeigen
Wie füge ich die generierte robots.txt-Datei zu deiner Website hinzu?

Suchmaschinen und andere Crawling-Bots suchen nach einer robots.txt-Datei, wenn sie eine Website besuchen. Aber sie suchen nur an einem bestimmten Ort nach dieser Datei - dem Hauptverzeichnis. Nachdem du also die robots.txt-Datei erstellt hast, solltest du sie zum Hauptverzeichnis deiner Website hinzufügen. Du findest sie unter https://your-site.com/robots.txt.

Wie du eine robots.txt-Datei hinzufügst, hängt von dem Server und dem CMS ab, das du verwendest. Wenn du keinen Zugriff auf das Stammverzeichnis hast, wende dich an deinen Webhosting-Anbieter.

Mehr zeigen

Erkunden Sie weitere Features

  • Analysieren Sie die Ziel-URL für das gewünschte Keyword.
  • Bereitstellung von Link-Analysen, technischen, inhaltlichen und 11 weiteren Arten von Analysen
  • Holen Sie sich die analysierten Parameter als “bestanden”, “Warnungen” und “Fehler”.
  • Verwenden Sie praktische Tipps zur Lösung der Probleme und zur Beseitigung der Warnungen.
  • Bieten Sie Ihren Kunden ein kostenloses On-Page SEO-Audit an.
  • Hinzufügen eines benutzerdefinierten Widgets zu Ihrer Website
  • Erhalten Sie Informationen über Ihre Besucher und wandeln Sie sie in Kunden um.
  • Analysieren und gruppieren Sie Suchanfragen, die mit den URLs derselben Website übereinstimmen.
  • Gruppierung beliebiger lokaler Keywords
  • Überprüfen Sie das Suchvolumen direkt auf Anhieb
  • Einfache Gruppierung von Long-Tail-Suchanfragen
  • Ermöglicht es Ihnen, Domain-Logo, Header und Footer, Farbschema und vieles mehr anzupassen.
  • Setzen Sie automatisierte oder manuell generierte Brand-Reports.
  • Individueller Zugriff auf verschiedene SEO-Einrichtungen
  • Verwenden Sie Ihre eigene Domain mit einem separaten persönlichen Zugang.
  • Entdecken Sie Wettbewerber nach Keywords, Domains, Subdomains und URLs.
  • Analysieren Sie die Adwords-Werbegeschichte.
  • Erhalten Sie eine Liste aller Ihrer Mitbewerber in den Suchergebnissen.
  • Holen Sie sich Ideen für alternative Keywords für Ihre Werbekampagne und organische Werbung.
  • Analysieren Sie alle wichtigen SEO-Parameter auf allen Seiten Ihrer Website.
  • Vergleichen Sie die Crawls Ihrer vorherigen Audits.
  • Befolgen Sie unsere Richtlinien, um die Probleme zu lösen.
  • Sehen Sie sich die analysierten Parameter an, die in die Kategorien “bestanden”, “Warnungen” und “Fehler” unterteilt sind.
  • Für die Recherche stehen 14 Länderdatenbanken zur Verfügung.
  • Systematische Aktualisierung der Suchanfrage
  • Finden Sie wertvolle Long-Tail-Keyword-Vorschläge für die Suchanfrage.
  • Analysieren Sie organische und bezahlte Keywords, die mit dem Google Adwords-Verlauf geliefert werden.
  • Überprüfen Sie die Keyword-Rankings von Google, Bing, Yahoo, YouTube.
  • Alle Länderdatenbanken/alle Standorte/alle Sprachen sind für die Positionsüberwachung verfügbar.
  • Verfolgen Sie Desktop- und mobile Ergebnisse, globale und regionale Rankings.
  • Google SERP-Features und Google Adwords-Ergebnisse können für ein verfolgtes Keyword gefunden werden.
1
/