`
ynp
  • 浏览: 429378 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

用户访问频率控制的redis模拟实现

阅读更多
用户访问频率控制的redis模拟实现

---》场景
限制用户 1分钟内登录不超过10次

---》模拟实现1
* 原理: 利用 key的存活时间内进行判断用户登录次数。
* 模拟实现
127.0.0.1:6379> clear
127.0.0.1:6379> set user1 1
OK
127.0.0.1:6379> expire user1 60
(integer) 1
127.0.0.1:6379> set user1 2
OK
127.0.0.1:6379> get user1
"2"
127.0.0.1:6379> set user2 1
OK
127.0.0.1:6379> expire user2 60
(integer) 1
127.0.0.1:6379> set user1 3
OK
127.0.0.1:6379> ttl user1
(integer) -1
127.0.0.1:6379> exists user2
(integer) 0
127.0.0.1:6379> get user2
(nil)
127.0.0.1:6379>

* 改进:创建key 和 设置存活时间放到一个事务里面
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set user3 1
QUEUED
127.0.0.1:6379> expire user3 60
QUEUED
127.0.0.1:6379> exec
1) OK
2) (integer) 1
127.0.0.1:6379> ttl user3
(integer) 51
127.0.0.1:6379> get user3
"1"
127.0.0.1:6379>

---》模拟实现2
* 原理:一个链表存10个登录时间,通过对比时间分析此用户登录频率
* 模拟实现
127.0.0.1:6379> lpush userlogintime "time1"
(integer) 1
127.0.0.1:6379> llen userlogintime
(integer) 1
127.0.0.1:6379> lpush userlogintime "time2"
(integer) 2
127.0.0.1:6379> llen userlogintime
(integer) 2
127.0.0.1:6379> lindex userlogintime 0
"time2"
127.0.0.1:6379> lindex userlogintime 1
"time1"
127.0.0.1:6379>

分享到:
评论

相关推荐

    基于scrapy-redis实现分布式爬虫.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    一个分布式网络爬虫,底层存储mongodb,分布式使用redis实现,使用django可视化爬虫.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    基于Redis实现的简单到爆的分布式爬虫.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    基于scrapy,scrapy-redis实现的一个分布式网络爬虫.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    基于Python+scrapy+redis的分布式爬虫实现框架.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    新浪微博爬虫(Scrapy、Redis).zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    基于scrapy-redis的分布式新闻爬虫.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    链家二手房爬虫~ Springboot + Webmagic + Mysql + Redis.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    毕业设计-基于Scrapy-redis的分布式爬虫Web平台.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    基于SSM的爬虫系统,Spring+Spring MVC+MyBatis+Druid+Redis+MQ.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    商场 购物车 秒杀 Kafka redis lucene等等,Spring Boot,vue,微信小程序 .zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    前后端分离开发的大众点评小程序。重点是基于redis解决高并发问题。.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    分布式网络爬虫.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    基于微信小程序的图书馆座位预约系统,后端(SpringBoot+MyBatis+redis),微信小程序,Vue2.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    股票监控平台.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    利用kNN算法实现图书推荐系统.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    爬虫集合.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    爬虫项目源码整理.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    电商网站商品信息爬虫.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

Global site tag (gtag.js) - Google Analytics