home · Automad · Bludit · ChatGPT · CMS · GetSimple · GRAV · Handlebars · htaccess · Java · Jira · PHP · Pico · Smarty · Typemill · WonderCMS · WordPress · Yellow ·
Ausschließlich Googlebot und Bingbot für den Crawling-Zugriff zulassen

Ausschließlich Googlebot und Bingbot für den Crawling-Zugriff zulassen

Die Listen der zu sperrenden Bots kann in der htaccess bisweilen sehr lang werden. Besser ist es bestimmte Bots zu erlauben und alle anderen zu sperren.

Viele Administratoren und Domain-Besitzer kennen das Problem, oft sollen die nervigen Bots, die die Daten der Webseite ungefragt kopieren, gesperrt werden. Dazu richtet man normalerweise eine Liste mit Bot-Namen ein, die vom Server abgewiesen werden. Diese Liste kann jedoch unglaublich lang werden, denn täglich erblicken neue Bots das Licht der digitalen Welt.

Es ist viel sinnvoller eine Hand voll Bots zu erlauben und alle anderen Spider und Bots abzuweisen. Mit dem folgenden Eintrag ist das ganz leicht erledigt:

...
# --- Erlaubte Bots (Googlebot und Bingbot) ---
RewriteCond %{HTTP_USER_AGENT} !(Googlebot|Bingbot) [NC]
RewriteCond %{HTTP_USER_AGENT} ^.*(bot|crawl|spider|slurp).*$ [NC]
RewriteRule .* - [F,L]
...

htaccess

Die oben gezeigten Befehle lassen den Googlebot und den Bingbot passieren und weisen alle Bots, Crawler und Spider ab, die nicht Googlebot oder nicht Bingbot heißen.

Normale Zugriffe durch menschliche Leser, sind nach wie vor möglich.

Dieser Leitartikel besitzt keine untergeordneten Beiträge.

Affiliate

WordPress 6 - Das umfassende Handbuch. Fast 1.000 Seiten Wissen zu WordPress inkl. Themes, Plug-ins, WooCommerce, SEO und mehr. Ausgabe 2025

Hinweis: Die Webseite ist Mitglied im Amazon.Partnernet und kann mit Affiliate-Links den Betrieb stützen. Für Sie als Leser ist das natürlich vollkommen kostenlos.

(c) by CMSWorkbench.de