Robots.txt

TL; DR: Robots.txt ist eine Datei, die von Websites zur Kommunikation mit Webcrawlern und anderen Webrobotern verwendet wird und angibt, welche Teile der Website nicht verarbeitet oder gescannt werden sollen. Es hilft dabei, den Zugriff dieser Bots auf bestimmte Bereiche einer Website zu kontrollieren.
Teilen

Robots.txt ist eine Textdatei, die zu einer Gruppe von Webprotokollen namens Robots Exclusion Protocol oder REP gehört. Diese Datei weist Suchmaschinen-Bots wie Googlebots an, welche Seiten gecrawlt und indexiert werden sollen. Robot.txt hilft Websites, nicht mit zu vielen Anfragen bombardiert zu werden. Es spielt eine große Rolle bei einem guten SEO-Score.

Aktualisiert Februar 17, 2024
Axel Grubba ist der Gründer von Findstack, eine B2B-Software-Vergleichsplattform, mit seinem Hintergrund in der Unternehmensberatung und im Risikokapital, wo er in Software investierte. In letzter Zeit hat Axel eine Leidenschaft für das Programmieren entwickelt und reist gerne, wenn er nicht gerade baut und verbessert Findstack.