浏览器访问限制配置

  user_agent收入的浏览器中,我们通过百度,谷歌很容易就可以查到相关的一些资料,方便了我们对知识的查找,但在某些特定情况下,我们并不希望有人可以通过某写搜索引擎直接访问到我们的网页。举例如果我开放了一个公网的服务,这个网页带宽很小,只能容纳几个人访问,所有在这种条件下我们并不希望更多的人通过百度浏览器,或者谷歌浏览器访问这个页面,来消耗我们的带宽,在这里我们就可以通过rewirete功能针对%

  • {HTTP_USER_AGENT}搜索引擎进行限制。
  • %{REQUEST_URI}:网页锁定URI文件
 
限制配置

方式一

vim httpd-vhosts.conf

<ifModule mod_rewrite.c>
    # 开启功能模块
    RewriteEngine on
    # 指定引擎*Firefox/4.0
    RewriteCond %{HTTP_USER_AGENT} ^.*Firefox/4.0* [NC,OR]
    # 指定引擎Tomato Bot/1.0
    RewriteCond %{HTTP_USER_AGENT} ^.*Tomato Bot/1.0* [NC]
    # 防止死循环、不匹配404跳转到这里
    RewriteCond %{REQUEST_URI} !^/404*
    # 如果指定到搜索引擎就报404错误
    RewriteRule .* /404.html
</ifModule>
配置文件

相关文章:

  • 2022-12-23
  • 2022-01-16
  • 2022-12-23
  • 2021-09-07
  • 2021-07-26
  • 2021-10-13
  • 2021-07-02
  • 2021-10-13
猜你喜欢
  • 2021-07-16
  • 2022-12-23
  • 2022-02-28
  • 2021-08-23
  • 2022-12-23
  • 2021-12-14
相关资源
相似解决方案