redis是单线程处理,也就是命令会顺序执行。那么为什么会存在并发问题呢?
个人理解是,虽然redis是单线程,但是可以同时有多个客户端访问,每个客户端会有
一个线程。客户端访问之间存在竞争。
简单的总结下,其实redis本事是不会存在并发问题的,因为他是单进程的,再多的command
都是one by one执行的。我们使用的时候,可能会出现并发问题,比如get
和set
这一对。
因为存在多客户端并发,所以必须保证操作的原子性。比如银行卡扣款问题,获取余额,判断,扣款,写回就必须构成事务,否则就可能出错。
redis中的并发问题
使用redis作为缓存已经很久了,redis是以单进程的形式运行的,命令是一个接着一个执行的,一直以为不会存在并发的问题,直到今天看到相关的资料,才恍然大悟~~
具体问题实例
有个键,假设名称为mynum
,里面保存的是阿拉伯数字,假设现在值为1,存在多个连接对mynum
进行操作的情况,这个时候就会有并发的问题。假设有两个连接linka
和linkb
,这两个连接都执行下面的操作,取出mynum
的值, 1,然后再存回去,看看下面的交互:
linka get mynum => 1
linkb get mynum => 1
linka set munum => 2
linkb set mynum => 2
执行完操作之后,结果可能是2,这和我们预期的3不一致。
再看一个具体的例子:
'tcp',
'host' => '127.0.0.1',
'port' => 6379,
]);
for ($i = 0; $i < 1000; $i ) {
$num = intval($client->get("name"));
$num = $num 1;
$client->setex("name", $num, 10080);
usleep(10000);
}
设置name
初始值为0,然后同时用两个终端执行上面的程序,最后name
的值可能不是2000,而是一个<2000的值,这也就证明了我们上面的并发问题的存在,这个该怎么解决呢?
redis中的事务
redis中也是有事务的,不过这个事务没有mysql中的完善,只保证了一致性和隔离性,不满足原子性和持久性。
redis事务使用multi、exec命令
原子性,redis会将事务中的所有命令执行一遍,哪怕是中间有执行失败也不会回滚。kill信号、宿主机宕机等导致事务执行失败,redis也不会进行重试或者回滚。
持久性,redis事务的持久性依赖于redis所使用的持久化模式,遗憾的是各种持久化模式也都不是持久化的。
隔离性,redis是单进程,开启事务之后,会执行完当前连接的所有命令直到遇到exec命令,才处理其他连接的命令。
一致性,看了文档,觉得挺扯的,但是貌似说的没有问题。
redis中的事务不支持原子性,所以解决不了上面的问题。
当然了redis还有一个watch
命令,这个命令可以解决这个问题,看下面的例子,对一个键执行watch,然后执行事务,由于watch的存在,他会监测键a
,当a
被修该之后,后面的事务就会执行失败,这就确保了多个连接同时来了,都监测着a
,只有一个能执行成功,其他都返回失败。
127.0.0.1:6379> set a 1
ok
127.0.0.1:6379> watch a
ok
127.0.0.1:6379> multi
ok
127.0.0.1:6379> incr a
queued
127.0.0.1:6379> exec
1) (integer) 2
127.0.0.1:6379> get a
"2"
失败时候的例子,从最后可以看出,test
的值被其他连接修改了:
127.0.0.1:6379> set test 1
ok
127.0.0.1:6379> watch test
ok
127.0.0.1:6379> multi
ok
127.0.0.1:6379> incrby test 11
queued
127.0.0.1:6379> exec
(nil)
127.0.0.1:6379> get test
"100"
我的问题如何解决
redis中命令是满足原子性的,因此在值为阿拉伯数字的时候,我可以将get
和set
命令修改为incr
或者incrby
来解决这个问题,下面的代码开启两个终端同时执行,得到的结果是满足我们预期的2000
。
'tcp',
'host' => '127.0.0.1',
'port' => 6379,
]);
for ($i = 0; $i < 1000; $i ) {
$client->incr("name");
$client->expire("name", 10800);
usleep(10000);
}
@manzilu 提到的方法
评论中manzilu提到的方法查了下资料,确实可行,效果还不错,这里写了个例子
'tcp',
'host' => '127.0.0.1',
'port' => 6379,
]);
class redislock
{
public $objredis = null;
public $timeout = 3;
/**
* @desc 设置redis实例
*
* @param obj object | redis实例
*/
public function __construct($obj)
{
$this->objredis = $obj;
}
/**
* @desc 获取锁键名
*/
public function getlockcachekey($key)
{
return "lock_{$key}";
}
/**
* @desc 获取锁
*
* @param key string | 要上锁的键名
* @param timeout int | 上锁时间
*/
public function getlock($key, $timeout = null)
{
$timeout = $timeout ? $timeout : $this->timeout;
$lockcachekey = $this->getlockcachekey($key);
$expireat = time() $timeout;
$isget = (bool)$this->objredis->setnx($lockcachekey, $expireat);
if ($isget) {
return $expireat;
}
while (1) {
usleep(10);
$time = time();
$oldexpire = $this->objredis->get($lockcachekey);
if ($oldexpire >= $time) {
continue;
}
$newexpire = $time $timeout;
$expireat = $this->objredis->getset($lockcachekey, $newexpire);
if ($oldexpire != $expireat) {
continue;
}
$isget = $newexpire;
break;
}
return $isget;
}
/**
* @desc 释放锁
*
* @param key string | 加锁的字段
* @param newexpire int | 加锁的截止时间
*
* @return bool | 是否释放成功
*/
public function releaselock($key, $newexpire)
{
$lockcachekey = $this->getlockcachekey($key);
if ($newexpire >= time()) {
return $this->objredis->del($lockcachekey);
}
return true;
}
}
$start_time = microtime(true);
$lock = new redislock($client);
$key = "name";
for ($i = 0; $i < 10000; $i ) {
$newexpire = $lock->getlock($key);
$num = $client->get($key);
$num ;
$client->set($key, $num);
$lock->releaselock($key, $newexpire);
}
$end_time = microtime(true);
echo "花费时间 : ". ($end_time - $start_time) . "\n";
执行shell
php setnx.php & php setnx.php&
,最后会得到结果:
$ 花费时间 : 4.3004920482635
[2] 72356 done php setnx.php
# root @ ritoyan-virtual-pc in ~/php/redis-high-concurrency [20:23:41]
$ 花费时间 : 4.4319710731506
[1] 72355 done php setnx.php
同样循环1w次,去掉usleep,使用incr直接进行增加,耗时在2s左右。
而获取所得时候取消usleep,时间不但没减少,反而增加了,这个usleep的设置要合理,免得进程做无用的循环
总结
看了这么多,简单的总结下,其实redis本事是不会存在并发问题的,因为他是单进程的,再多的command
都是one by one执行的。我们使用的时候,可能会出现并发问题,比如get
和set
这一对。