17.09.2017, 13:26
Witam posiadam obecny robots.txt taki:
Sitemap: http://paintballmod.com/sitemap.xml
User-agent: Googlebot
Allow: /
User-agent: msnbot
Allow: /
User-agent: *
Disallow: /
Disallow: /captcha.php
Disallow: /editpost.php
Disallow: /misc.php
Disallow: /modcp.php
Disallow: /moderation.php
Disallow: /member.php
Disallow: /memberlist.php
Disallow: /newreply.php
Disallow: /newthread.php
Disallow: /online.php
Disallow: /printthread.php
Disallow: /private.php
Disallow: /ratethread.php
Disallow: /report.php
Disallow: /reputation.php
Disallow: /search.php
Disallow: /sendthread.php
Disallow: /task.php
Disallow: /usercp.php
Disallow: /usercp2.php
Disallow: /calendar.php
Disallow: /*action=emailuser*
Disallow: /*action=nextnewest*
Disallow: /*action=nextoldest*
Disallow: /*year=*
Disallow: /*action=weekview*
Disallow: /*action=nextnewest*
Disallow: /*action=nextoldest*
Disallow: /*sort=*
Disallow: /*order=*
Disallow: /*mode=*
Disallow: /*datecut=*
Allow: /
Chciałbym go poprawić ale nie wiem za co się zabrać mianowicie, usunąć dostęp dla robotów by przeglądy profile to chyba zrobiłem poprzez Disallow: /member.php nie wiem a druga sprawa chciałbym zablokować dostęp wszystkim robotom oprócz GoogleBota, MSN, Yahoo, Binga. Powtarzają mi się wpisy Allow: / i nie wiem czy to jest ok?
Szukałem po forach i chyba znalazłem wpisy:
User-agent: Googlebot
Allow: /
User-agent: msnbot
Allow: /
Choć nie wiem czy poprawnie mam wszystko w robots.txt dodane
Chodzi mi o to ze mam pełno robotów co zjadają mi transfer. podam obecne pliki robots.txt, .htaccess
Do meta dodałem
<meta name="robots" content="index,follow">
Może ktoś zna lepszy sposób na blokadę niepotrzebnych robotów?
[attachment=12641]
Sitemap: http://paintballmod.com/sitemap.xml
User-agent: Googlebot
Allow: /
User-agent: msnbot
Allow: /
User-agent: *
Disallow: /
Disallow: /captcha.php
Disallow: /editpost.php
Disallow: /misc.php
Disallow: /modcp.php
Disallow: /moderation.php
Disallow: /member.php
Disallow: /memberlist.php
Disallow: /newreply.php
Disallow: /newthread.php
Disallow: /online.php
Disallow: /printthread.php
Disallow: /private.php
Disallow: /ratethread.php
Disallow: /report.php
Disallow: /reputation.php
Disallow: /search.php
Disallow: /sendthread.php
Disallow: /task.php
Disallow: /usercp.php
Disallow: /usercp2.php
Disallow: /calendar.php
Disallow: /*action=emailuser*
Disallow: /*action=nextnewest*
Disallow: /*action=nextoldest*
Disallow: /*year=*
Disallow: /*action=weekview*
Disallow: /*action=nextnewest*
Disallow: /*action=nextoldest*
Disallow: /*sort=*
Disallow: /*order=*
Disallow: /*mode=*
Disallow: /*datecut=*
Allow: /
Chciałbym go poprawić ale nie wiem za co się zabrać mianowicie, usunąć dostęp dla robotów by przeglądy profile to chyba zrobiłem poprzez Disallow: /member.php nie wiem a druga sprawa chciałbym zablokować dostęp wszystkim robotom oprócz GoogleBota, MSN, Yahoo, Binga. Powtarzają mi się wpisy Allow: / i nie wiem czy to jest ok?
Szukałem po forach i chyba znalazłem wpisy:
User-agent: Googlebot
Allow: /
User-agent: msnbot
Allow: /
Choć nie wiem czy poprawnie mam wszystko w robots.txt dodane
Chodzi mi o to ze mam pełno robotów co zjadają mi transfer. podam obecne pliki robots.txt, .htaccess
Do meta dodałem
<meta name="robots" content="index,follow">
Może ktoś zna lepszy sposób na blokadę niepotrzebnych robotów?
[attachment=12641]