屏蔽国外蜘蛛爬行,这个robots该怎么写呢?

搬瓦工机场JMS

比如hostloc的robots是这样的

  1. #
  2. # robots.txt for Discuz! X3
  3. #
  4. User-agent: *
  5. Disallow: /api/
  6. Disallow: /data/
  7. Disallow: /source/
  8. Disallow: /install/
  9. Disallow: /template/
  10. Disallow: /config/
  11. Disallow: /uc_client/
  12. Disallow: /uc_server/
  13. Disallow: /static/
  14. Disallow: /admin.php
  15. Disallow: /search.php
  16. Disallow: /member.php
  17. Disallow: /api.php
  18. Disallow: /misc.php
  19. Disallow: /connect.php
  20. Disallow: /forum.php?mod=redirect*
  21. Disallow: /forum.php?mod=post*
  22. Disallow: /home.php?mod=spacecp*
  23. Disallow: /userapp.php?mod=app&*
  24. Disallow: /*?mod=misc*
  25. Disallow: /*?mod=attachment*
  26. Disallow: /*mobile=yes*

复制代码

—————————————————–

需要屏蔽 MJ12bot 与  YandexBot   这些爬的网站都跑不动了。  

求帮助~~

湖南网友:

  1. #
  2. # robots.txt for Discuz! X3 P Inc.
  3. #
  4. User-agent: *
  5. Disallow: /api/
  6. Disallow: /data/
  7. Disallow: /source/
  8. Disallow: /install/
  9. Disallow: /template/
  10. Disallow: /config/
  11. Disallow: /uc_client/
  12. Disallow: /uc_server/
  13. Disallow: /static/
  14. Disallow: /admin.php
  15. Disallow: /search.php
  16. Disallow: /member.php
  17. Disallow: /api.php
  18. Disallow: /abc*/
  19. Disallow: /misc.php
  20. Disallow: /connect.php
  21. Disallow: /forum.php?mod=redirect*
  22. Disallow: /forum.php?mod=post*
  23. Disallow: /home.php?mod=spacecp*
  24. Disallow: /userapp.php?mod=app&*
  25. Disallow: /*?mod=misc*
  26. Disallow: /*?mod=attachment*
  27. Disallow: /*mobile=yes*
  28. User-agent: AhrefsBot
  29. Disallow: /
  30. User-agent: AhrefsBot/6.1
  31. Disallow: /
  32. User-agent: BLEXBot
  33. Disallow: /
  34. User-agent: BLEXBot/1.0
  35. Disallow: /
  36. User-agent: CheckMarkNetwork
  37. Disallow: /
  38. User-agent: CCBot
  39. Disallow: /
  40. User-agent: DotBot
  41. Disallow: /
  42. User-agent: DoCoMo Spider
  43. Disallow: /
  44. User-agent: Ezooms/1.0
  45. Disallow: /
  46. User-agent: Mail.RU_Bot
  47. Disallow: /
  48. User-agent: MauiBot
  49. Disallow: /
  50. User-agent: MegaIndex.ru
  51. Disallow: /
  52. User-agent: MJ12bot
  53. Disallow: /
  54. User-agent: MJ12bot/v1.4.8
  55. Disallow: /
  56. User-agent: SemrushBot
  57. Disallow: /
  58. User-agent: SemrushBot/6~bl
  59. Disallow: /
  60. User-agent: spbot
  61. Disallow: /
  62. User-agent: SeznamBot
  63. Disallow: /
  64. User-agent: YandexBot
  65. Disallow: /
  66. User-agent: EasouSpider
  67. Disallow: /

复制代码
======================
宝塔双11活动预热  组队抢nginx防火墙
28元半年专业版 http://t.cn/Ai34aQbZ
香港网友:谢谢大佬,头像很赞
黑龙江网友:几只蜘蛛都能把网站爬的跑不动,这得是什么样的配置啊!
江苏网友:个人小博客,一核心
安徽网友:我用nginx屏蔽
上海网友:我感觉应该用robots不允许它,然后在拉黑这些蜘蛛的ip段
四川网友:我跟你说 他们并不一定遵守这个 还需要屏蔽他的IP段最好 用xx.xx.xx.0/24 这几家的蜘蛛IP就IP并不多。
贵州网友:robots就行了 又不是国产的百度
天津网友:
已执行此命令  
吉林网友:
已执行此命令  
湖南网友:你要的是这个,直接UA屏蔽

https://www.yunloc.com/763.html

上海网友:这还用屏蔽。。。。
本来就没几个串门的
另外就跟前面大佬说的一样,几个蜘蛛网站就卡,配置得多差

未经允许不得转载:美国VPS_搬瓦工CN2 GIA VPS » 屏蔽国外蜘蛛爬行,这个robots该怎么写呢?

赞 (0) 打赏

评论 0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏