Robots.txt-Generator
Aktuelle Regeln
User-Agent | Regel | Pfad | Aktionen |
---|
Generierte robots.txt
Anleitung zur Benutzung des Robots.txt-Generators
Der Robots.txt-Generator ermöglicht es Ihnen, einfach und schnell eine robots.txt-Datei zu erstellen, um den Zugriff von Suchmaschinencrawlern auf bestimmte Bereiche Ihrer Webseite zu steuern. Folgen Sie dieser Anleitung, um das Tool optimal zu nutzen:
Schritt-für-Schritt-Anleitung:
- Schritt 1: Wählen Sie den User-Agent
Im ersten Dropdown-Menü können Sie auswählen, auf welchen Suchmaschinen-Crawler sich die Regel beziehen soll. Zur Auswahl stehen gängige Crawler wie Googlebot, Bingbot oder allgemeine Einstellungen für alle Crawler (*).
- Schritt 2: Regeltyp auswählen
Entscheiden Sie im zweiten Dropdown-Menü, ob der Zugriff auf einen bestimmten Pfad erlaubt (Allow) oder verboten (Disallow) sein soll.
- Schritt 3: Pfad definieren
Geben Sie im Textfeld den spezifischen Pfad ein, den Sie für den gewählten User-Agent regeln möchten. Beispiele:
- /example-directory/: Bezieht sich auf ein Verzeichnis.
- /example-file.html: Bezieht sich auf eine Datei.
- /: Bezieht sich auf die gesamte Webseite.
- Schritt 4: Regel hinzufügen
Klicken Sie auf den Button „Regel hinzufügen“, um die Regel in die Tabelle der aktuellen Regeln zu übernehmen.
- Schritt 5: Übersicht der Regeln
Unterhalb des Formulars finden Sie eine Tabelle, die alle von Ihnen hinzugefügten Regeln anzeigt. Hier können Sie jede Regel bei Bedarf durch einen Klick auf „Entfernen“ löschen.
- Schritt 6: Generierte robots.txt-Datei
Im Bereich „Generierte robots.txt“ wird der Inhalt der aktuell konfigurierten Datei angezeigt. Sie können diesen Code kopieren oder direkt als Datei herunterladen, indem Sie auf den Button „Herunterladen“ klicken.
Wichtige Hinweise:
- Überprüfen Sie alle Pfade und Regeln sorgfältig, bevor Sie die Datei veröffentlichen. Falsche Konfigurationen können den Zugriff von Suchmaschinen verhindern.
- Die Datei robots.txt sollte im Hauptverzeichnis (Root-Verzeichnis) Ihrer Webseite gespeichert werden, damit sie von Crawlern gefunden wird.
- Sie können die Funktionalität der Datei mit entsprechenden Tools („Robots.txt-Testtool“) validieren.
Mit dieser Anleitung können Sie Ihre Robots.txt-Datei unkompliziert erstellen und dafür sorgen, dass Suchmaschinen nur auf die gewünschten Inhalte Ihrer Webseite zugreifen. Viel Erfolg!