ホームページ >データベース >mysql チュートリアル >Redis在linux上的安装过程和遇到的问题
我的安装系统是 :Red Hat Enterprise Linux 5.5 下面是安装过程及一些遇到的问题: 1、下载安装包 [root@appshop ~]$ wget http://download.redis.io/releases/redis-2.6.13.tar.gz 2、解压缩 [root@appshop ~]# tar xzf redis-2.6.13.tar.gz 3、编译 [root
我的安装系统是 :Red Hat Enterprise Linux 5.5
下面是安装过程及一些遇到的问题:
1、下载安装包
[root@appshop ~]$ wget http://download.redis.io/releases/redis-2.6.13.tar.gz
2、解压缩
[root@appshop ~]# tar xzf redis-2.6.13.tar.gz
3、编译
[root@appshop ~]# cd redis-2.6.13 [root@appshop ~]# make
假如服务器上咩有安装 GCC的编译环境的话会报错,安装下GCC就可以 ,使用root用户 运行:yum install gcc 就会自动下载 安装,如下图
然后再运行 :make 命令
编译完成,对于Redis的配置 redis.conf配置选项如下:根据需要修改
daemonize 是否以后台进程运行,默认为no pidfile 如以后台进程运行,则需指定一个pid,默认为/var/run/redis.pid bind 绑定主机IP,默认值为127.0.0.1(注释) port 监听端口,默认为6379 timeout 超时时间,默认为300(秒) loglevel 日志记录等级,有4个可选值,debug,verbose(默认值),notice,warning logfile 日志记录方式,默认值为stdout databases 可用数据库数,默认值为16,默认数据库为0 save <seconds> <changes> 指出在多长时间内,有多少次更新操作,就将数据同步到数据文件。这个可以多个条件配合,比如默认配置文件中的设置,就设置了三个条件。 save 900 1 900秒(15分钟)内至少有1个key被改变 save 300 10 300秒(5分钟)内至少有300个key被改变 save 60 10000 60秒内至少有10000个key被改变 rdbcompression 存储至本地数据库时是否压缩数据,默认为yes dbfilename 本地数据库文件名,默认值为dump.rdb dir 本地数据库存放路径,默认值为 ./ slaveof <masterip> <masterport> 当本机为从服务时,设置主服务的IP及端口(注释) masterauth <master-password> 当本机为从服务时,设置主服务的连接密码(注释) requirepass 连接密码(注释) maxclients 最大客户端连接数,默认不限制(注释) maxmemory <bytes> 设置最大内存,达到最大内存设置后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理后,任到达最大内存设置,将无法再进行写入操作。(注释) appendonly 是否在每次更新操作后进行日志记录,如果不开启,可能会在断电时导致一段时间内的数据丢失。因为redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认值为no appendfilename 更新日志文件名,默认值为appendonly.aof(注释) appendfsync 更新日志条件,共有3个可选值。no表示等操作系统进行数据缓存同步到磁盘,always表示每次更新操作后手动调用fsync()将数据写到磁盘,everysec表示每秒同步一次(默认值)。 vm-enabled 是否使用虚拟内存,默认值为no vm-swap-file 虚拟内存文件路径,默认值为/tmp/redis.swap,不可多个Redis实例共享 vm-max-memory 将所有大于vm-max-memory的数据存入虚拟内存,无论vm-max-memory设置多小,所有索引数据都是内存存储的(Redis的索引数据 就是keys),也就是说,当vm-max-memory设置为0的时候,其实是所有value都存在于磁盘。默认值为0。 #当dump .rdb数据库的时候是否压缩数据对象 rdbcompression yes #dump数据库的数据保存的文件名 dbfilename dump.rdb #Redis的工作目录 dir /var/lib/redis/ ########### Replication ##################### #Redis的复制配置 # slaveof <masterip> <masterport> # masterauth <master-password> ############## SECURITY ########### # requirepass foobared ############### LIMITS ############## #最大客户端连接数 # maxclients 128 #最大内存使用率 # maxmemory <bytes> ########## APPEND ONLY FILE MODE ######### #是否开启日志功能 appendonly no # 刷新日志到disk的规则 # appendfsync always appendfsync everysec # appendfsync no ################ VIRTUAL MEMORY ########### #是否开启VM功能 vm-enabled no # vm-enabled yes vm-swap-file logs/redis.swap vm-max-memory 0 vm-page-size 32 vm-pages 134217728 vm-max-threads 4 ############# ADVANCED CONFIG ############### glueoutputbuf yes hash-max-zipmap-entries 64 hash-max-zipmap-value 512 #是否重置Hash表 activerehashing yes Redis官方文档对VM的使用提出了一些建议: 当你的key很小而value很大时,使用VM的效果会比较好.因为这样节约的内存比较大. 当你的key不小时,可以考虑使用一些非常方法将很大的key变成很大的value,比如你可以考虑将key,value组合成一个新的value. 最好使用linux ext3 等对稀疏文件支持比较好的文件系统保存你的swap文件. vm-max-threads这个参数,可以设置访问swap文件的线程数,设置最好不要超过机器的核数.如果设置为0,那么所有对swap文件的操作都是串行的.可能会造成比较长时间的延迟,但是对数据完整性有很好的保证.
[hadoop@appshop redis-2.6.13]$ src/redis-server
5、再重启一个客户端的ssl窗口 运行客户端测试
[root@appshop redis-2.6.13]# src/redis-cli
使用 set 和 get 存取命令,测试成功