【Redis】Redis 进阶

文章目录

  • 1. BigKey
    • 1.1 MoreKey
    • 1.2 BigKey
  • 2. 缓存双写一致性更新策略
    • 2.1 读缓存数据
    • 2.2 数据库和缓存一致性的更新策略
    • 2.3 canal 实现双写一致性
  • 3. 进阶应用
    • 3.1 统计应用
    • 3.2 hyperloglog
    • 3.3 GEO
    • 3.4 bitmap
  • 4. 布隆过滤器
  • 5. Redis 经典问题
    • 5.1 缓存预热
    • 5.2 缓存穿透
    • 5.3 缓存击穿
    • 5.4 缓存雪崩
    • 5.5 问题总结
  • 6. Redis 内存淘汰策略
  • 7. Redis 分布式锁
    • 7.1 分布式锁设计
    • 7.2 redission
  • 8. Redis 线程与 IO 多路复用
    • 8.1 Redis 线程
    • 8.2 网络编程

1. BigKey

1.1 MoreKey

生产上限制使用 keys *flushdbflushall 等危险命令,由于 redis 读写是单线程的,这些命令在存在千万级以上的 key 会导致 redis 服务卡顿,所有读写 redis 的其它的指令都会被延后甚至会超时报错,可能会引起缓存雪崩甚至数据库宕机。

  • 测试 :导入百万级数据到 redis中

    1. 生成百万级导入数据脚本:for((i=1;i<=100*10000;i++)); do echo "set k$i v$i" >> redisTest.txt ;done;
    2. 导入数据脚本:cat redisTest.txt | redis-cli -p 6379 -a redis --pipe
    3. 执行 keys * 花费了 3.22s
  • 配置禁用命令redis.conf 中配置 rename-command

    rename-command keys ""
    rename-command flushdb ""
    rename-command flushall ""
    
  • keys * 替代方案scan cursor [MATCH pattern] [COUNT count] ,基于游标的迭代器,需要基于上一次的游标延续之前的迭代过程

    • 使用示例:scan 0 MATCH k* COUNT 2 ,下一次迭代需要将 0 换成结果中的游标,如果游标结果为 0 表示迭代结束;COUNT 默认为 10 可不填
    • 特点:返回结果中有两个,一个是游标用于下一次迭代,一个是返回的元素集合;
    • SCAN的遍历顺序:非常特别,它不是从第一维数组的第零位一直遍历到末尾,而是采用了高位进位加法来遍历。之所以使用这样特殊的方式进行遍历,是考虑到字典的扩容和缩容时避免槽位的遍历重复和遗漏。

1.2 BigKey

参考《阿里云 Redis 开发手册 》:【强制】拒绝 bigkey(防止网卡流量、慢查询)

  • string 类型控制在 10KB 以内,hash、list、set、zset 元素个数不要超过 5000

查找 bigkey

  • redis-cli -a 密码 --bigkeys :给出每种数据结构Top 1 bigkey,同时给出每种数据类型的键值个数+平均大小
  • memory usage key [samples count] :返回 key 值及管理该 key 分配的内存总字节数,嵌套类型可用选项 samplescount 表示抽样元素个数,默认 5,当需要抽样全部元素时使用 samples 0 。可结合 scan 命令遍历所有 key 来找到所有 bigkey

bigkey删除:非字符串的 bigkey ,不要使用 del 删除,使用 hscan、sscan、zscan方式渐进式删除,同时要注意防止 bigkey 过期时间自动删除的问题(过期删除会触发 del 操作,且不会出现在慢查询中(latency可查))

  • String :一般用 del,如果过于庞大用 unlink
  • hash :使用 hscan 每次获取少量 field-value ,再使用 hdel 删除每个 field
  • list :使用 ltrim 渐进式删除
  • set :使用 sscan 每次获取部分元素,再使用 srem 命令删除元素
  • zset :使用 zscan 每次获取部分元素,再使用 zremrangebyrank 命令删除元素

生产调优

  • 非阻塞式命令:如使用 unlink 命令或 async 参数
  • 惰性释放 lazyfree 配置:lazyfree-lazy-server-del yesreplica-lazy-flush yes 以及 lazyfree-lazy-user-del yes ,这几个默认都是 no

2. 缓存双写一致性更新策略

缓存双写是指缓存与数据库之间必然面临数据不一致的问题,这里主要谈同步直写的问题及解决方案,异步缓写一般可采用 MQ 重试重写。

2.1 读缓存数据

读缓存数据:最简单的实现逻辑是读缓存,缓存没有读数据库,读完数据库写回缓存。

上面的实现逻辑存在一定问题,高并发时如果缓存数据被修改,如果两个请求同时先后读缓存且后先写缓存就会造成缓存将一直是旧值的问题,这里提供一种双检加锁的实现方式

public User findUserById(Integer id){
    User user = null;
    String key = CACHE_KEY_USER+id;
    user = (User) redisTemplate.opsForValue().get(key);
    
    if(user == null) {
        synchronized (UserService.class){
            user = (User) redisTemplate.opsForValue().get(key);
            if (user == null) {
                user = userMapper.selectByPrimaryKey(id);
                if (user == null) {
                    return null;
                }else{
                    redisTemplate.opsForValue().setIfAbsent(key,user,7L,TimeUnit.DAYS);
                }
            }
        }
    }
    return user;
}

2.2 数据库和缓存一致性的更新策略

  1. 先更新数据库,再更新缓存
    • 异常:如 A、B 同时做更新,A先更新数据库为 100,B再更新数据库为 80,之后 B先更新缓存为 80,A更新缓存为 100,最终缓存与数据库数据不一致
  2. 先更新缓存,再更新数据库
    • 异常:更新缓存成功,之后更新数据库失败,缓存的数据是错误的数据
  3. 先删除缓存,再更新数据库
    • 异常:删除缓存后,其他线程将直接访问数据库,并读到旧数据回写
    • 延迟双删策略:通过在更新数据库后,增加 sleep 和再次删除缓存,等其他线程写了旧数据后再次删除数据达到最终一致性(这种方案需要评估好其他线程执行这段代码的时间,不是很好控制)
  4. 先更新数据库,再删除缓存:推荐方案,使用 canal 也基本上是基于该方案实现的
    • 异常:在更新数据库及删除缓存之间会有短时间的旧缓存存在时期,但是可以实现最终数据一致性

分布式情况下很难做到实时一致性,如果要求必须实现实时一致性,那就需要在更新数据库时,先在 redis 缓存客户端暂停并发读请求(即加锁),等数据库更新完、缓存值删除后,再读取数据,从而保证数据一致性,这是理论可以实现的效果,但实际一般不推荐

2.3 canal 实现双写一致性

canel 基于数据库增量日志解析,提供增量数据订阅和消费,即可以用来实时监控数据库数据变化,并通知 redis 、MQ等其它应用

canel 工作原理

  • canal 模拟 MySQL slave 的交互协议,伪装自己为 MySQL slave ,向 MySQL master 发送 dump 协议
  • MySQL master 收到 dump 请求,开始推送 binary log 给 slave (即 canal )
  • canal 解析 binary log 对象(原始为 byte 流)

canal 可用于实现 mysql-canal-redis 双写一致性,即当使用 canal 监听到数据库对应变化时,对 redis 缓存也直接进行修改,示例代码:

需引入依赖

<dependency>
    <groupId>com.alibaba.otter</groupId>
    <artifactId>canal.client</artifactId>
    <version>1.1.6</version>
</dependency>
public class RedisCanalClientExample{
    public static final Integer _60SECONDS = 60;
    public static final String  REDIS_IP_ADDR = "192.168.115.129";

    private static void redisInsert(List<Column> columns)
    {
        JSONObject jsonObject = new JSONObject();
        for (Column column : columns)
        {
            System.out.println(column.getName() + " : " + column.getValue() + "    update=" + column.getUpdated());
            jsonObject.put(column.getName(),column.getValue());
        }
        if(columns.size() > 0)
        {
            try(Jedis jedis = RedisUtils.getJedis())
            {
                jedis.set(columns.get(0).getValue(),jsonObject.toJSONString());
            }catch (Exception e){
                e.printStackTrace();
            }
        }
    }


    private static void redisDelete(List<Column> columns)
    {
        JSONObject jsonObject = new JSONObject();
        for (Column column : columns)
        {
            jsonObject.put(column.getName(),column.getValue());
        }
        if(columns.size() > 0)
        {
            try(Jedis jedis = RedisUtils.getJedis())
            {
                jedis.del(columns.get(0).getValue());
            }catch (Exception e){
                e.printStackTrace();
            }
        }
    }

    private static void redisUpdate(List<Column> columns)
    {
        JSONObject jsonObject = new JSONObject();
        for (Column column : columns)
        {
            System.out.println(column.getName() + " : " + column.getValue() + "    update=" + column.getUpdated());
            jsonObject.put(column.getName(),column.getValue());
        }
        if(columns.size() > 0)
        {
            try(Jedis jedis = RedisUtils.getJedis())
            {
                jedis.set(columns.get(0).getValue(),jsonObject.toJSONString());
                System.out.println("---------update after: "+jedis.get(columns.get(0).getValue()));
            }catch (Exception e){
                e.printStackTrace();
            }
        }
    }

    public static void printEntry(List<Entry> entrys) {
        for (Entry entry : entrys) {
            if (entry.getEntryType() == EntryType.TRANSACTIONBEGIN || entry.getEntryType() == EntryType.TRANSACTIONEND) {
                continue;
            }

            RowChange rowChage = null;
            try {
                //获取变更的row数据
                rowChage = RowChange.parseFrom(entry.getStoreValue());
            } catch (Exception e) {
                throw new RuntimeException("ERROR ## parser of eromanga-event has an error,data:" + entry.toString(),e);
            }
            //获取变动类型
            EventType eventType = rowChage.getEventType();
            System.out.println(String.format("================&gt; binlog[%s:%s] , name[%s,%s] , eventType : %s",
                    entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
                    entry.getHeader().getSchemaName(), entry.getHeader().getTableName(), eventType));

            for (RowData rowData : rowChage.getRowDatasList()) {
                if (eventType == EventType.INSERT) {
                    redisInsert(rowData.getAfterColumnsList());
                } else if (eventType == EventType.DELETE) {
                    redisDelete(rowData.getBeforeColumnsList());
                } else {//EventType.UPDATE
                    redisUpdate(rowData.getAfterColumnsList());
                }
            }
        }
    }


    public static void main(String[] args)
    {
        System.out.println("---------O(∩_∩)O哈哈~ initCanal() main方法-----------");

        //=================================
        // 创建链接canal服务端
        CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress(REDIS_IP_ADDR,
                11111), "example", "", "");
        int batchSize = 1000;
        //空闲空转计数器
        int emptyCount = 0;
        System.out.println("---------------------canal init OK,开始监听mysql变化------");
        try {
            connector.connect();
            //connector.subscribe(".*\\..*");
            connector.subscribe("bigdata.t_user");
            connector.rollback();
            int totalEmptyCount = 10 * _60SECONDS;
            while (emptyCount < totalEmptyCount) {
                System.out.println("我是canal,每秒一次正在监听:"+ UUID.randomUUID().toString());
                Message message = connector.getWithoutAck(batchSize); // 获取指定数量的数据
                long batchId = message.getId();
                int size = message.getEntries().size();
                if (batchId == -1 || size == 0) {
                    emptyCount++;
                    try { TimeUnit.SECONDS.sleep(1); } catch (InterruptedException e) { e.printStackTrace(); }
                } else {
                    //计数器重新置零
                    emptyCount = 0;
                    printEntry(message.getEntries());
                }
                connector.ack(batchId); // 提交确认
                // connector.rollback(batchId); // 处理失败, 回滚数据
            }
            System.out.println("已经监听了"+totalEmptyCount+"秒,无任何消息,请重启重试......");
        } finally {
            connector.disconnect();
        }
    }
}

3. 进阶应用

3.1 统计应用

亿级系统常见的四种统计:

  • 聚合统计:交差并等集合统计操作
    • 差集运算 A-B:属于A但不属于B的集合,命令:sdiff key [key...]
    • 并集运算 AUB:属于A或属于B的集合合并后的集合,命令:sunion key [key...]
    • 交集运算 A∩B:属于A也属于B的共同元素构成的集合,命令:sinter key [key...]
  • 排序统计:大数据排序统计如最新列表,排行榜等,使用 zset 命令,即 Sorted set 有序集合
  • 二值统计:集合元素只有 0,1两种取值,使用 bitmap 位图
  • 基数统计:统计一个集合中不重复元素的个数,使用 hyperloglog 估算,误差不超过 0.815 %12KB 可计算解决 2^64 个不同元素的基数。
    • 【拓展】UV(独立访客数)、PV(页面浏览量)、DAU(日活跃用户量)、MAU(月活跃用户量)

3.2 hyperloglog

在 Redis 中每个 hyperloglog 键只需要花费 12 KB 内存就可以计算接近 2^64 个不同元素的基数,误差为 1.04/ sqrt(16384) = 0.008125

为什么只需要花费 12 KB?

Redis 使用了 2^14 = 16384 个桶,用前 14 位来确定桶编号,剩下 50 位用来做基数估计。而 2^6 = 64 > 50 ,所以只需要用 6 位来表示下标值,一般情况下 hyperloglog 数据结构占用内存的大小为 16384 * 6 / 8 = 12 KB,Redis 将这种情况称为密集存储。

3.3 GEO

使用该类型的 georadius api可以快速找出以某个点为中心,半径为 r(传参) 的其他地理位置。

3.4 bitmap

签到日历,电影、广告是否被点击过,可基于 bitmap 实现,以达到极好的空间利用率。也可用于实现布隆过滤器。

4. 布隆过滤器

布隆过滤器是一个很长的初值为0的二进制数组(00000000)+一系列随机hash算法映射函数高级数据结构,主要用于判断一个元素是否在集合中。

特点:

  • 高效的插入和查询
  • 一个元素如果通过布隆过滤器判断结果为存在时,元素不一定存在;但是判断结果为不存在时,则一定不存在
  • 布隆过滤器不能删除元素,由于涉及 hashcode 判断依据,删掉某个元素可能会导致其他落在相同位置的元素一起被删掉,导致误判率增加

应用场景:布隆过滤器可用于防止重复推荐、安全连接网址的判断、白名单黑名单校验以及解决缓存穿透问题

布隆过滤器原理

  • 初始化:初始化数组所有值均为 0
  • 添加:多次 hash(key) ,取模运算,所有位置置为 1
  • 判断存在:多次 hash(key) + 取模运算,判断所有位置,只要一个位置为0,则该 key 必然不在集合中,而所有位置均为 1 ,则集合该 key 极有可能存在
  • 使用时最好不要让实际元素远大于初始化数量,一次给够,避免扩容;如需扩容,扩容时应重新建立布隆过滤器,重新 add 历史元素

使用 guava 自带的布隆过滤器(该功能类被标注为 @Beta ,谨慎使用),需先引入依赖:

<dependency>
    <groupId>com.google.guava</groupId>
    <artifactId>guava</artifactId>
    <version>32.0.0-android</version>
</dependency>
@Test
public void test2() {
    BloomFilter<String> bloomFilter = BloomFilter.create(Funnels.stringFunnel(Charset.defaultCharset()),
                                                         1000, // 数据量
                                                         0.001); // 误判率
    bloomFilter.put("天");
    bloomFilter.put("地");
    bloomFilter.put("通信");
    System.out.println(bloomFilter.mightContain("天"));
    System.out.println(bloomFilter.mightContain("没有"));
}

另外还有优化的布谷鸟过滤器,可支持对元素的删除,因为应用还不够成熟,这里不多加篇幅叙述。

5. Redis 经典问题

5.1 缓存预热

避免用户使用时才将数据加入到缓存,而是在项目启动时或对应功能上线时就将缓存加入到 redis 中。

5.2 缓存穿透

去查一条不存在的记录,查 redis 查不到,会再查 mysql ,都查不到该条记录,但是请求每次都会到 mysql 数据库。

解决方案:

  • 空对象缓存或者缺省值:当第一次查不到时,将空对象缓存或者缺省值存入缓存中,一定要设置过期时间。缺点:无法防止不同 key 的恶意攻击
  • 布隆过滤器:白名单过滤,将合法的元素加入过滤器中,通过过滤的才考虑查缓存查数据库

5.3 缓存击穿

缓存击穿就是热点 key 突然失效,大量请求直达数据库。

预防及解决方案:一般技术部门需要知道热点 key 是哪些,做到心里有数防止击穿

  • 方案一:差异化失效时间或者不设置过期时间:一种差异化失效时间的实现方式是使用双缓存架构,对于热点 key ,开辟两块缓存,主A从B,更新时先更新 B 再更新 A;查询时先查询主缓存 A ,没有才查询从缓存 B

    //先更新B缓存
    redisTemplate.delete(JHS_KEY_B);
    redisTemplate.opsForList().leftPushAll(JHS_KEY_B,list);
    redisTemplate.expire(JHS_KEY_B, 86410L, TimeUnit.SECONDS);
    //再更新A缓存
    redisTemplate.delete(JHS_KEY_A);
    redisTemplate.opsForList().leftPushAll(JHS_KEY_A,list);
    redisTemplate.expire(JHS_KEY_A, 86400L, TimeUnit.SECONDS);
    
  • 方案二:互斥更新,查询时采用双检加锁策略

  • 方案三:随机退避,即 redis 获取不到值时休眠+重试

5.4 缓存雪崩

主要有两种情况,

  • 偏向硬件运维:redis 主机挂了
  • 偏向软件开发:redis 有大量 key 同时过期,大面积失效

预防+解决方案:

  • redis 中 key 设置永不过期或者过期时间错开
  • redis 缓存使用集群实现高可用
  • 多缓存结合预防雪崩:使用 ehcache 本地缓存 + redis 缓存
  • 服务降级:Hystrix 或者 sentinel 限流 & 降级
  • 使用云数据库 redis 版

5.5 问题总结

缓存问题产生原因解决方案
缓存一致性数据变更、缓存时效性同步更新(canal)、失效更新、异步更新(MQ)、定时更新(xxl-job)
缓存不一致同步更新、异步更新增加重试、补偿机制、最终一致
初次加载速度慢初次加载无缓存缓存预热
缓存穿透恶意攻击空对象缓存、布隆过滤器
缓存击穿热点 key 失效双检互斥更新、双缓存架构差异失效时间、随机退避(重试)
缓存雪崩缓存挂了、大量 key 过期差异失效时间、快速失败熔断、集群模式

6. Redis 内存淘汰策略

Redis 最大占用内存默认为 0,表示不限制 Redis 内存使用,一般推荐设置内存最大为物理内存的四分之三

  • 修改最大内存,配置文件中参数:maxmemory <bytes> ;命令临时修改:config set maxmemory <bytes>
  • 查询内存使用情况:info memory 查询最大内存:config get maxmemory
  • 默认超过最大使用内存会报错 OOM

redis 过期键的删除策略:

  • 立即删除:对CPU不太友好,用处理器性能换取存储空间(时间换空间)
  • 惰性删除:再次访问过期键才删除,对 memory 不友好,用存储空间换处理器性能(空间换时间)
    • 配置文件中参数:lazyfree-lazy-eviction ,默认 no
  • 定期删除:折中,但服务器必须根据情况,合理地设置删除操作的执行时长和执行频率。

LRU算法:最近最少使用页面置换算法,淘汰最长时间未被使用的页面。

LFU算法:最近最不常用页面置换算法,淘汰一定时期内被访问次数最少的页。

上面方式都不是那么好,redis 还提供了超出最大内存的兜底方案redis 缓存淘汰策略,配置文件中检索 MAXMEMORY POLICY ,共有以下 8 种:

  1. volatile-lru :对所有设置了过期的 key 使用 LRU 算法删除
  2. allkeys-lru :对所有 key 使用 LRU 算法删除
  3. volatile-lfu :对所有设置了过期的 key 使用 LFU 算法删除
  4. allkeys-lfu :对所有 key 使用 LFU 算法删除
  5. volatile-random :对所有设置了过期的 key 随机删除
  6. allkeys-random :对所有 key 随机删除
  7. volatile-ttl :删除马上要过期的 key
  8. noeviction :默认方案,不驱逐任何 key ,只报错

使用选择:

  • 在所有 key 都是最近最常使用,那么就需要选择 allkeys-lru 进行置换,如果不确定使用哪种策略,那么推荐使用 allkeys-lru
  • 如果所有的 key 的访问概率差不多,那么可选用 allkeys-random 策略
  • 如果对数据足够了解,能够为 key 指定过期时间,那么可以选择 volatile-ttl

7. Redis 分布式锁

一个靠谱分布式锁需要具备以下特点:

  • 独占性:只能有一个线程持有
  • 高可用:高并发情况下,性能良好;集群情况下,不会因为单点故障导致获取锁或释放锁失败
  • 防死锁:杜绝死锁,必须有超时控制或者撤销操作,有兜底终止跳出方案
  • 可重入性:同一线程获得锁后,可再次获得该锁

常见实现分布式锁方式:

  • MySQL:基于唯一索引
  • ZooKeeper:基于临时有序节点
  • Redis:利用 redis 操作时单线程,基于 setnxhset 命令实现

7.1 分布式锁设计

  1. 单机锁应用:使用 synchronized 或者 lock
  2. 使用 setnx 实现分布式锁:添加 key 为上锁,删除 key 为解锁,继承 Lock 接口
  3. 自旋优化:使用 while 替换 if 判断,实现自旋重试
  4. 过期时间优化:上锁时设置过期时间,如果不设置过期时间,当微服务部署的机器上锁后未解锁便挂了将导致无法解锁,注意命令执行要求原子性
  5. 自动续期:当实际业务执行时间超过过期时间,为防止锁过期导致其他线程进来,需另外启动守护线程,自动加过期时间,一般频率为过期时间的 三分之一
  6. 防止误删key:确定 value,value 使用 UUID:threadId ,确保只有锁所有者线程才能解锁
  7. 可重入性:改用 hset 实现分布式锁,使用 key field value 中的 value 表示重入次数
  8. 使用 lua 脚本保证命令原子性,使用工厂模式方便分布式锁使用对象的创建
    • lua 脚本的执行命令 EVAL script numkeys key [key ...] arg [arg ...] ,在 script 中可用 KEYS[1]ARGV[1] 动态传入参数

自研分布式锁重点

  • 实现 Lock 接口
  • 加锁关键逻辑
    • 加锁:设置 hash 对象类型 key 并设置过期时间
    • 自旋
    • 续期
  • 解锁关键逻辑:删除 key ,但不能乱删,只能删除自己设置的 key

进阶:使用分布式锁可能会导致功能阻塞时间过长,可考虑使用分段锁概念进行优化

上面还有一个问题没解决,就是当 redis 宕机时,分布式锁也可能会受到影响而无法使用

7.2 redission

redission 是 java 的 redis 客户端之一,提供了一些 api 方便操作。其中有支持分布式锁的实现。并实现了红锁算法 为 7.1 中分布锁存在的问题提供了解决方案。该依赖包比较重,相比 redisTemplate 多了更多分布式相关的功能但也有了更多复杂功能,有一定学习成本,个人认为可以仅当成使用 redis 的补充

redission 的分布式锁实现逻辑与上面差不多,如不想引入 redisssion 也可考虑按上面步骤自行实现分布式锁,但需清楚无法抵御 redis 宕机情况。

  • 默认锁失效时间:30s,可修改
  • 看门狗(watch dog):获取锁后即添加一个看门狗线程用于续期,每 1/3 过期时间检查一次锁并续期
  • 红锁算法:如果需解决7.1遗留问题,则需要另外设置 redis 机器RedLock 已被弃用,建议使用 MultiLock
    • 容错公式N=2*X+1 其中 N 是最终部署机器数,X 是容错机器数,注意:这里部署的机器与 redis 集群是分开的,且部署方式均非集群且均为主机。
    • 红锁算法下加锁成功的条件:
      • 条件1:客户端从超过半数(大于等于N/2+1)的Redis实例上成功获取到了锁;
      • 条件2:客户端获取锁的总耗时没有超过锁的有效时间

springboot中同时使用 redisTemplateredissonClient

引入依赖:这里没使用 redisson 的 starter 的原因是 spring-boot-starter-data-redisredisson-spring-boot-starter 自动装配存在冲突问题(这里就不展开了)

<dependency>
	<groupId>org.springframework.boot</groupId>
	<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
<dependency>
	<groupId>org.redisson</groupId>
	<artifactId>redisson</artifactId>
	<version>3.25.2</version>
</dependency>
<dependency>
	<groupId>org.springframework.boot</groupId>
	<artifactId>spring-boot-starter-test</artifactId>
</dependency>

配置 redisTemplateredissonClient

@MapperScan("com.springboot.mapper")
@SpringBootApplication
@EnableConfigurationProperties(RedisProperties.class)
public class SpringBootApplicationMain {

	@Autowired private RedisProperties redisProperties;

	public static void main(String[] args) {
		SpringApplication.run(SpringBootApplicationMain.class);
	}

	@Bean
	public RedisTemplate<String, Object> redisTemplate(LettuceConnectionFactory lettuceConnectionFactory)
	{
		RedisTemplate<String,Object> redisTemplate = new RedisTemplate<>();
		redisTemplate.setConnectionFactory(lettuceConnectionFactory);
		//设置key序列化方式string
		redisTemplate.setKeySerializer(new StringRedisSerializer());
		//设置value的序列化方式json,使用GenericJackson2JsonRedisSerializer替换默认序列化
		redisTemplate.setValueSerializer(new GenericJackson2JsonRedisSerializer());
		redisTemplate.setHashKeySerializer(new StringRedisSerializer());
		redisTemplate.setHashValueSerializer(new GenericJackson2JsonRedisSerializer());
		redisTemplate.afterPropertiesSet();
		return redisTemplate;
	}

	@Bean
	public RedissonClient redissonClient() {
		Config config = new Config();
		config.useSingleServer()
				.setAddress("redis://" + redisProperties.getHost() + ":" + redisProperties.getPort())
				.setPassword(redisProperties.getPassword());
		return Redisson.create(config);
	}
}

测试代码

@SpringBootTest(classes = SpringBootApplicationMain.class)
public class MainTest {

	@Autowired private RedisTemplate redisTemplate;

	@Autowired private RedissonClient redissonClient;

	@Test
	public void test1() throws InterruptedException {

		redisTemplate.opsForValue().set("bbb", "人才");

		RLock lock = redissonClient.getLock("aaaa");
		lock.lock();
		System.out.println("加锁成功");
		TimeUnit.SECONDS.sleep(100);
		lock.unlock();
		System.out.println("解锁成功");

		redisTemplate.delete("bbb");
	}
}

8. Redis 线程与 IO 多路复用

Redis 快速的主要原因:

  • 基于内存操作
  • 优异的数据结构:Redis 的数据结构时专门设计的,而这些简单的数据结构的查找和操作的大部分时间复杂度是 O(1) 的,因此性能较高
  • 多路复用和非阻塞 I/O:Redis 使用 I/O 多路复用监听多个 socket 连接客户端
  • 单线程模型:单线程模型可以避免上下文切换和多线程竞争,且单线程不存在死锁问题

8.1 Redis 线程

Redis 的工作线程是单线程的,但是整个 redis 来说是多线程的

使用单线程模型的主要原因:作者原话

  1. 使用单线程模型是 Redis 的开发和维护更简单,因为单线程模型方便开发和调试
  2. 即使使用单线程模型也并发的处理多客户端的请求,主要使用的是IO多路复用和非阻塞IO
  3. 对于Redis系统来说,主要的性能瓶颈是内存或者网络带宽而并非 CPU

另外,由于大 key 问题,redis 引入一些异步删除的命令,如 unlink key / flushall async 等命令

在 Redis6/7 中,Redis 将网络数据读写、请求协议解析通过多个IO线程的来处理但真正命令的执行仍然使用主线程操作

Redis 7 中网络I/O多线程默认关闭,如果发现 Redis 实例的 CPU 开销不大但吞吐量却没有提升,可以考虑使用多线程机制,加锁网络处理:

  1. io-thread-do-reads :配置项为yes,表示启动多线程
  2. io-thread :设置线程个数,官方的建议是如果为 4 核的 CPU,建议线程数设置为 2 或 3,如果为 8 核 CPU 建议线程数设置为 6,线程数一定要小于机器核数,线程数并不是越大越好

8.2 网络编程

Unix网络编程中的五种 IO 模型:

  • Blocking IO:阻塞 IO
  • NoneBlocking IO:非阻塞 IO
  • IO Multiplexing:IO 多路复用
  • signal driven IO:信号驱动 IO,这里不展开讨论
  • asynchronous:异步 IO,这里不展开讨论

同步和异步的理解:讨论对象是被调用者(服务提供者),重点在于获得调用结果的消息通知方式上

  • 同步:要求调用者必须等待调用结果的通知
  • 异步:调用者无需等待,一般由被调用方调用回调通知调用者

阻塞与非阻塞的理解:讨论对象是调用者,重点在于等消息时候的行为,调用者是否可以干别的

  • 阻塞:调用方必须等待,当前线程会被挂起,什么都不能干
  • 非阻塞:不会阻塞当前线程,而会立即返回(可以返回待执行等状态),可以去干别的

各种 IO 模型如何应对多连接

  • BIO 阻塞 IO服务端通过多线程解决多连接问题(Tomcat 7 之前就是使用该方案);两个痛点,1调用者线程阻塞,必须等待返回。2被调用者资源有限,而创建线程比较耗费系统资源,高并发情况下,可能无法支撑过多连接

    public class RedisServerBIOMultiThread
    {
        public static void main(String[] args) throws IOException
        {
            ServerSocket serverSocket = new ServerSocket(6379);
    
            while(true)
            {
                Socket socket = serverSocket.accept();//阻塞1 ,等待客户端连接
                new Thread(() -> {
                    try {
                        InputStream inputStream = socket.getInputStream();
                        int length = -1;
                        byte[] bytes = new byte[1024];
                        System.out.println("-----333 等待读取");
                        while((length = inputStream.read(bytes)) != -1)//阻塞2 ,等待客户端发送数据
                        {
                            System.out.println("-----444 成功读取"+new String(bytes,0,length));
                            System.out.println("====================");
                            System.out.println();
                        }
                        inputStream.close();
                        socket.close();
                    } catch (IOException e) {
                        e.printStackTrace();
                    }
                },Thread.currentThread().getName()).start();
    
                System.out.println(Thread.currentThread().getName());
    
            }
        }
    }
    
    public class RedisClient
    {
        public static void main(String[] args) throws IOException
        {
            Socket socket = new Socket("127.0.0.1",6379);
            OutputStream outputStream = socket.getOutputStream();
    
            //socket.getOutputStream().write("RedisClient01".getBytes());
    
            while(true)
            {
                Scanner scanner = new Scanner(System.in);
                String string = scanner.next();
                if (string.equalsIgnoreCase("quit")) {
                    break;
                }
                socket.getOutputStream().write(string.getBytes());
                System.out.println("------input quit keyword to finish......");
            }
            outputStream.close();
            socket.close();
        }
    }
    
  • NIO 非阻塞 IO:在 NIO 中,一切都是非阻塞式的,在NIO模式中,只有一个线程:当一个客户端与服务端进行连接,这个socket就会加入到一个数组中,隔一段时间遍历一次(像自旋锁自旋),看这个socket的read()方法能否读到数据,这样一个线程就能处理多个客户端的连接和读取了

    • accept():非阻塞式,如果没有客户端连接就返回无连接标识
    • read():非阻塞式,读不到数据就返回空闲中标识,如果读取到数据时只阻塞 read() 方法读数据的时间
    public class RedisServerNIO
    {
    	static ArrayList<SocketChannel> socketList = new ArrayList<>();
    	static ByteBuffer byteBuffer = ByteBuffer.allocate(1024);
    
    	public static void main(String[] args) throws IOException
    	{
    		System.out.println("---------RedisServerNIO 启动等待中......");
    		ServerSocketChannel serverSocket = ServerSocketChannel.open();
    		serverSocket.bind(new InetSocketAddress("127.0.0.1",6379));
    		serverSocket.configureBlocking(false);//设置为非阻塞模式
    
    		while (true)
    		{
    			for (SocketChannel element : socketList)
    			{
    				int read = element.read(byteBuffer);
    				if(read > 0)
    				{
    					System.out.println("-----读取数据: "+read);
    					byteBuffer.flip();
    					byte[] bytes = new byte[read];
    					byteBuffer.get(bytes);
    					System.out.println(new String(bytes));
    					byteBuffer.clear();
    				}
    			}
    
    			SocketChannel socketChannel = serverSocket.accept();
    			if(socketChannel != null)
    			{
    				System.out.println("-----成功连接: ");
    				socketChannel.configureBlocking(false);//设置为非阻塞模式
    				socketList.add(socketChannel);
    				System.out.println("-----socketList size: "+socketList.size());
    			}
    		}
    	}
    }
    
  • IO 多路复用 :多路I/O复用模型是利用 select、poll、epoll 可以同时监察多个流的 I/O 事件的能力,在空闲的时候,会把当前线程阻塞掉,当有一个或多个流有 I/O 事件时,就从阻塞态中唤醒,于是程序就会轮询一遍所有的流(epoll 是只轮询那些真正发出了事件的流),并且只依次顺序的处理就绪的流,这种做法就避免了大量的无用操作。 采用多路 I/O 复用技术可以让单个线程高效的处理多个连接请求(尽量减少网络 IO 的时间消耗),且 Redis 在内存中操作数据的速度非常快,也就是说内存内的操作不会成为影响Redis性能的瓶颈

    • select :select 其实就是把NIO中用户态要遍历的fd数组(我们的每一个socket链接,安装进ArrayList里面的那个)拷贝到了内核态,让内核态来遍历,因为用户态判断socket是否有数据还是要调用内核态的,所有拷贝到内核态后,这样遍历判断的时候就不用一直用户态和内核态频繁切换了,但存在以下几个缺点
      1. bitmap最大1024位,一个进程最多只能处理1024个客户端
      2. &rset不可重用,每次socket有数据就相应的位会被置位
      3. 文件描述符数组拷贝到了内核态(只不过无系统调用切换上下文的开销。(内核层可优化为异步事件通知)),仍然有开销。select 调用需要传入 fd 数组,需要拷贝一份到内核,高并发场景下这样的拷贝消耗的资源是惊人的。(可优化为不复制)
      4. select并没有通知用户态哪一个socket有数据,仍然需要 O(n) 的遍历。select 仅仅返回可读文件描述符的个数,具体哪个可读还是要用户自己遍历。(可优化为只返回给用户就绪的文件描述符,无需用户做无效的遍历)
    • poll :poll使用pollfd数组来代替select中的bitmap,数组没有1024的限制,可以一次管理更多的client。它和 select 的主要区别就是,去掉了 select 只能监听 1024 个文件描述符的限制;当pollfds数组中有事件发生,相应的revents置位为1,遍历的时候又置位回零,实现了pollfd数组的重用
    • epoll :epoll 通过三步调用 epoll_createepoll_ctlepoll_wait 只轮询那些真正发出了事件的流

在这里插入图片描述

selectpollepoll
操作方式遍历遍历回调
数据结构bitmap数组红黑树
最大连接数1024(x86) 或 2048(x64)无上限无上限
最大支持文件描述符数一般有最大值限制6553565535
fd拷贝每次调用 select ,都需要把 fd 集合从用户态拷贝到内核态同 selectfd 首次调用 epoll_ctl 拷贝,每次调用 epoll_wait 不拷贝
工作效率每次调用线性遍历,O(n)同 select事件通知方式,每当 fd 就绪,系统注册的回调函数就会被调用,将就绪 fd 放在 readList 里面,时间复杂度 O(1)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/312674.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

C++ 类 对象

C 在 C 语言的基础上增加了面向对象编程&#xff0c;C 支持面向对象程序设计。类是 C 的核心特性&#xff0c;通常被称为用户定义的类型。 类用于指定对象的形式&#xff0c;是一种用户自定义的数据类型&#xff0c;它是一种封装了数据和函数的组合。类中的数据称为成员变量&a…

Anaconda定制Python编程并打包

本文主要介绍如何使用Anaconda定制一个Python编程环境并打包&#xff0c;方便编程环境迁移。 文章参考 谢作如 邱奕盛两位老师的《为信息科技教学定制一个Python编程环境》 * 开发不同的项目需要不同的库&#xff08;甚至不同版本&#xff09;&#xff0c;把所有的库安装到一…

Jenkins基础篇--添加用户和用户权限设置

添加用户 点击系统管理&#xff0c;点击管理用户&#xff0c;然后点击创建用户&#xff08;Create User&#xff09; 用户权限管理 点击系统管理&#xff0c;点击全局安全配置&#xff0c;找到授权策略&#xff0c;选择安全矩阵&#xff0c;配置好用户权限后&#xff0c;点击…

计算机网络-VLAN间通信

之前复习了VLAN的概念以及几个接口类型。VLAN在二层可以实现广播域的划分&#xff0c;VLAN间可以实现二层通信&#xff0c;但是不能实现三层通信&#xff0c;需要借助其它方式。 一、概述 实际网络部署中一般会将不同IP地址段划分到不同的VLAN。同VLAN且同网段的PC之间可直接进…

【Unity】Joystick Pack摇杆插件实现锁四向操作

Joystick Pack ​ 简介&#xff1a;一款Unity摇杆插件&#xff0c;非常轻量化 ​ 摇杆移动类型&#xff1a;圆形、横向、竖向 ​ 摇杆类型&#xff1a; Joystick描述Fixed固定位置Floating浮动操纵杆从用户触碰的地方开始&#xff0c;一直固定到触碰被释放。Dynamic动态操纵…

【设计模式】01-前言

23 Design Patterns implemented by C. 从本文开始&#xff0c;一系列的文章将揭开设计模式的神秘面纱。本篇博文是参考了《设计模式-可复用面向对象软件的基础》这本书&#xff0c;由于该书的引言 写的太好了&#xff0c;所以本文基本是对原书的摘抄。 0.前言 评估一个面向对…

孩子用什么样的灯对眼睛没有伤害?分享最合适孩子的护眼台灯

为人父母以后&#xff0c;孩子健康成长一定是摆放在首位的&#xff0c;随着孩子慢慢长大&#xff0c;步入更高的年级&#xff0c;作业课程也在随之增多。不少孩子哪怕夜色已经降临&#xff0c;仍就伏案在桌子上完成没有做完的功课&#xff0c;作为父母的我们不得不担心孩子的视…

Unity 工具 之 Azure 微软连续语音识别ASR的简单整理

Unity 工具 之 Azure 微软连续语音识别ASR的简单整理 目录 Unity 工具 之 Azure 微软连续语音识别ASR的简单整理 一、简单介绍 二、实现原理 三、注意实现 四、实现步骤 五、关键脚本 一、简单介绍 Unity 工具类&#xff0c;自己整理的一些游戏开发可能用到的模块&#x…

书客、明基、好视力护眼台灯大比拼,哪款更胜一筹?

在现代生活中&#xff0c;我们经常面对着各种电子屏幕&#xff0c;给眼睛造成了一定的压力&#xff0c;时间一长&#xff0c;会发现眼睛很疲劳。很多家长仔细观察&#xff0c;当孩子长时间处在不合适地灯光下玩耍、学习&#xff0c;会发现他们有揉眼的动作&#xff0c;这就是不…

Mac 使用nvm use命令无法切换node版本

解决方案&#xff1a;先卸载使用brew安装的node&#xff08; 具体操作请移步使用brew卸载node&#xff09;&#xff0c;再使用nvm use命令切换node版本。 问题复现&#xff1a;使用nvm use命令显示切换成功&#xff0c;但是实际版本还是原来的node版本&#xff0c;应该是与bre…

HTTP响应码

1&#xff1a;1xx(临时响应) 表示临时响应并需要请求者继续执行操作的状态代码。 2&#xff1a;2xx(成功) 表示成功处理了请求的状态代码。 3&#xff1a;3xx(重定向) 表示要完成请求&#xff0c;需要进一步操作。 通常&#xff0c;这些状态代码用来重定向。 4&#xff1a;4…

SpringBoot原理(@Conditional)—三种自动配置方法、步骤详解

简介&#xff1a;我们一直在说基于SpringBoot开发简单、快捷&#xff0c;但是总是不太清楚为什么会有这样的便利&#xff0c;对于开发人员来说我们不仅要知其然&#xff0c;还要知其所以然&#xff0c;这篇文章就是说明SpringBoot的底层原理&#xff0c;让读者对SpringBoot底层…

深入理解 Flink(五)Flink Standalone 集群启动源码剖析

前言 Flink 集群的逻辑概念&#xff1a; JobManager(StandaloneSessionClusterEntrypoint) TaskManager(TaskManagerRunner) Flink 集群的物理概念&#xff1a; ResourceManager(管理集群所有资源&#xff0c;管理集群所有从节点) TaskExecutor(管理从节点资源&#xff0c;接…

order by 与 分页 的冲突

order by 与 分页 的冲突 问题背景 Oracle拼接SQL&#xff0c;JAVA使用SQLQueryExecutor执行拼接的SQL&#xff0c;SQL如下&#xff1a; SELECT col_key, col_other_info FROM tb_tableName WHERE col_where_info 一些筛选条件 order by col_updatetime desc 该表中的数…

python 计数器

这个Python脚本定义了一个名为new_counter()的函数&#xff0c;它读取系统时间并将其与存储在文件中的时间进行比较。然后根据比较结果更新存储在另一个文件中的计数器值。如果系统时间与存储的时间匹配&#xff0c;则计数器值增加1。如果系统时间与存储的时间不匹配&#xff0…

JS逆向实战案例1——某房地产url动态生成

说明&#xff1a;仅供学习使用&#xff0c;请勿用于非法用途&#xff0c;若有侵权&#xff0c;请联系博主删除 作者&#xff1a;zhu6201976 一、 反爬分析 url&#xff1a;aHR0cHM6Ly9uZXdob3VzZS4wNTU3ZmRjLmNvbQ 该站点项目url通过点击JS生成&#xff0c;project_id与生成后…

SQL SERVER 19安装 SQL Prompt 10.02版本

SQL Prompt最新版官网下载地址&#xff1a;https://download.red-gate.com/SQLPromptDownload.exe 下载完成后&#xff0c;断开网络&#xff0c;全部点下一步。 注册机会报毒&#xff0c;安装前请先关闭杀毒软件&#xff01; 下载好附件之后解压&#xff0c;打开SQLPrompt_7…

深入理解 Flink(六)Flink Job 提交和 Flink Graph 详解

Flink Program 编程套路回顾 1、获取执行环境对象 StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment(); 2、通过执行环境对象&#xff0c;注册数据源 Source&#xff0c;得到数据抽象 DataStream ds env.socketTextStream(...) 3、调用数…

【RabbitMQ】2 RabbitMQ介绍与架构

目录 简介架构Connection 和Channel关系工作流程生产者发送消息的流程消费者接收消息的过程 RabbitMQ数据存储存储机制 安装和配置RabbitMQRabbitMQ常用操作命令 简介 RabbitMQ&#xff0c;俗称“兔子MQ”&#xff08;可见其轻巧&#xff0c;敏捷&#xff09;&#xff0c;是目…