Heim  >  Artikel  >  Datenbank  >  Redis 在新浪微博中的应用

Redis 在新浪微博中的应用

WBOY
WBOYOriginal
2016-06-07 17:37:23972Durchsuche

Redis在新浪微博中的应用Redis简介1.支持5种数据结构支持strings,hashes,lists,sets,sortedsetsstring是很好的存储方式,用来做计数存储。sets用于建立索引库非

Redis 在新浪微博中的应用

Redis简介1. 支持5种数据结构

支持strings, hashes, lists, sets, sorted sets
string是很好的存储方式,用来做计数存储。sets用于建立索引库非常棒;

2. K-V 存储 vs K-V 缓存

新浪微博目前使用的98%都是持久化的应用,2%的是缓存,用到了600+服务器
Redis中持久化的应用和非持久化的方式不会差别很大:
非持久化的为8-9万tps,那么持久化在7-8万tps左右;
当使用持久化时,需要考虑到持久化和写性能的配比,也就是要考虑redis使用的内存大小和硬盘写的速率的比例计算;

3. 社区活跃

Redis目前有3万多行代码, 代码写的精简,有很多巧妙的实现,作者有技术洁癖
Redis的社区活跃度很高,这是衡量开源软件质量的重要指标,开源软件的初期一般都没有商业技术服务支持,,如果没有活跃社区做支撑,一旦发生问题都无处求救;

Redis基本原理

redis持久化(aof) append online file:
写log(aof), 到一定程度再和内存合并. 追加再追加, 顺序写磁盘, 对性能影响非常小

1. 单实例单进程

Redis使用的是单进程,所以在配置时,一个实例只会用到一个CPU;
在配置时,如果需要让CPU使用率最大化,可以配置Redis实例数对应CPU数, Redis实例数对应端口数(8核Cpu, 8个实例, 8个端口), 以提高并发:
单机测试时, 单条数据在200字节, 测试的结果为8~9万tps;

2. Replication

过程: 数据写到master-->master存储到slave的rdb中-->slave加载rdb到内存。
存储点(save point): 当网络中断了, 连上之后, 继续传.
Master-slave下第一次同步是全传,后面是增量同步;、

3. 数据一致性

长期运行后多个结点之间存在不一致的可能性;
开发两个工具程序:
1.对于数据量大的数据,会周期性的全量检查;
2.实时的检查增量数据,是否具有一致性;

对于主库未及时同步从库导致的不一致,称之为延时问题;
对于一致性要求不是那么严格的场景,我们只需要要保证最终一致性即可;
对于延时问题,需要根据业务场景特点分析,从应用层面增加策略来解决这个问题;
例如:
1.新注册的用户,必须先查询主库;
2.注册成功之后,需要等待3s之后跳转,后台此时就是在做数据同步。

新浪Redis使用历程

2009年, 使用memcache(用于非持久化内容), memcacheDB(用于持久化+计数),
memcacheDB是新浪在memcache的基础上,使用BerkeleyDB作为数据持久化的存储实现;

1. 面临的问题

基于以上考虑, 选择了Redis

2. 寻找开源软件的方式及评判标准Redis应用场景1. 业务使用方式

上述四种, 从精细化控制方面,hash sets和string(counter)推荐使用, sort sets和lists(queue)不推荐使用
还可通过二次开发,进行精简。比如: 存储字符改为存储整形, 16亿数据, 只需要16G内存
存储类型保存在3种以内,建议不要超过3种;

将memcache +myaql 替换为Redis:
Redis作为存储并提供查询,后台不再使用mysql,解决数据多份之间的一致性问题;

2. 对大数据表的存储

(eg:140字微博的存储)
一个库就存唯一性id和140个字;
另一个库存id和用户名,发布日期、点击数等信息,用来计算、排序等,等计算出最后需要展示的数据时再到第一个库中提取微博内容;

改进的3个步骤:
1)发现现有系统存在问题;
2)发现了新东西, 怎么看怎么好, 全面转向新东西;
3)理性回归, 判断哪些适合新东西, 哪些不适合, 不合适的回迁到老系统

3. 一些技巧遇到的问题及解决办法

(注意: 都是量特别大时候会出现的, 量小了怎么都好说)

1.Problem: Replication中断后, 重发-->网络突发流量

Solution: 重写Replication代码, rdb+aof(滚动)

2.Problem: 容量问题

Solution: 容量规划和M/S的sharding功能(share nothing, 抽象出来的数据对象之间的关联数据很小)
增加一些配置, 分流, 比如: 1,2,3,4, 机器1处理%2=1的, 机器2处理%2=0的.
低于内存的1/2使用量, 否则就扩容(建议Redis实例使用的数据,最大不要超过内存的80%)
我们线上96G/128G内存服务器不建议单实例容量大于20/30G。
微博应用中单表数据最高的有2T的数据,不过应用起来已经有些力不从心;
每个的端口不要超过20G;测试磁盘做save所需要的时间,需要多长时间能够全部写入;内存越大,写的时间也就越长;
单实例内存容量较大后,直接带来的问题就是故障恢复或者Rebuild从库的时候时间较长,对于普通硬盘的加载速度而言,我们的经验一般是redis加载1G需要1分钟;(加载的速度依赖于数据量的大小和数据的复杂度)
Redis rewrite aof和save rdb时,将会带来非常大且长的系统压力,并占用额外内存,很可能导致系统内存不足等严重影响性能的线上故障。

reblance: 现有数据按照上述配置重新分发。
后面使用中间层,路由HA;
注:目前官方也正在做这个事,Redis Cluster,解决HA问题;

3. Problem: bgsave or bgwriteaof的冰晶问题

Solution: 磁盘性能规划和限制写入的速度, 比如: 规定磁盘以200M/s的速度写入, 细水长流, 即使到来大量数据. 但是要注意写入速度要满足两个客观限制:
符合磁盘速度
符合时间限制(保证在高峰到来之前, 就得写完)

4.Problem: 运维问题

1)Inner Crontab: 把Crontab迁移到Redis内部, 减少迁移时候的压力
  本机多端口避免同时做 - 能做到
  同一业务多端口(分布在多机上), 避免同时做 - 做不到
2)动态升级: 先加载.so文件, 再管理配置, 切换到新代码上(Config set命令)
把对redis改进的东西都打包成lib.so文件,这样能够支持动态升级
自己改的时候要考虑社区的升级。当社区有新的版本,有很好用的新功能时,要能很容易的与我们改进后的版本很好的merge;
升级的前提条件: 模块化, 以模块为单位升级
加载时间取决于两个方面: 数据大小, 数据结构复杂度. 一般, 40G数据耗时40分钟
分布式系统的两个核心问题: A.路由问题 B.HA问题

3)危险命令的处理: 比如: fresh all删除全部数据, 得进行控制
运维不能只讲数据备份,还得考虑数据恢复所需要的时间;
增加权限认证(管理员才有权限)eg:flashall 权限认证,得有密码才能做;
当然,高速数据交互一般都不会在每次都进行权限认证,通用的处理策略是第一次认证,后期都不用再认证;
控制hash策略(没有key, 就找不到value; 不知道hash策略, 就无法得到key)

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn