# robots.txt - Steuerung des Crawlings für Bots # ============================ # Standardregel für alle anderen Bots # ============================ User-agent: * # Spezielle Bereiche blockieren Disallow: /tmp/ Disallow: /a.php Disallow: /e.php Disallow: /ie.php Disallow: /impressum.php Disallow: /allgemein/ Allow: /allgemein/partner.php Disallow: /suche/ Disallow: /pgm/ Disallow: /pgm/forum/edit.php # Ausnahme: URLs mit "thema-" dürfen Parameter enthalten Allow: /*thema-*?* # Alle anderen URLs mit Parametern blockieren Disallow: /*?* # Text Fragments erlauben (Chrome-Feature zum Text-Highlighting) Allow: /*#:~:text=*