不同业务场景下的数据一致性模型
强一致性、弱一致性和最终一致性是描述数据在多个地点或系统中如何保持同步的术语。它们各自对应不同的系统设计和应用场景。下面是这三种一致性级别的详细分析:
1. 强一致性(Strong Consistency)
强一致性是最严格的一致性模型,要求系统在进行了更新后,所有的访问立即看到这些更改。这意味着在一个数据项被更新之后,所有的读取操作都必须返回新的值。通常这种模型可以提供最直观和一致的用户体验,并且开发者可以假设数据在任何时候都是最新的,从而简化应用开发。
强一致性虽然提供了数据操作的最直观和一致的体验,但它也带来了一些显著的缺点,尤其是在大规模分布式系统中的可扩展性和性能,以及操作的延迟。在强一致性模型下,系统必须确保所有的数据副本在任何时候都是完全一致的。这种严格的一致性要求会导致资源大量消耗,因为系统可能需要在多个节点之间频繁地同步数据,这在多数据中心或跨地理位置分布的系统中尤其昂贵和复杂。此外,所有的写入操作必须在所有相关的副本上同步完成才能向用户报告成功,这种同步过程会形成瓶颈,限制系统处理高并发写入操作的能力,并随着系统规模的扩大,维护强一致性的复杂性和成本也会增加。此外,强一致性模型还要求每次操作都必须在所有节点之间进行协调,以确保数据的一致性,这通常涉及到复杂的协议和网络通信,如使用Raft或Paxos协议,每个写入操作都需要在多数节点上达成共识,这个过程是耗时的。在某些情况下,系统可能需要阻塞读取或写入操作直到所有的副本都更新完毕,这种阻塞会直接导致用户感受到明显的延迟。此外,如果系统的一个节点发生故障,恢复其数据和重新同步可能需要较长时间,期间系统的响应速度可能下降。这些限制使得在需要极高性能和可扩展性的应用场景中,强一致性可能不是最佳选择。
而且,当需要保持数据的强一致性时,更好的决策应该是不使用缓存,所有的操作都应该从数据读写,以保证数据的实时性和一致性。
所以,虽然缓存与数据库的强一致性模型有一些相当难以替代的有点,但是由于其代价过大,在通常的业务系统中并不需要使用这样的模型,而对于某些特定的业务场景,这些系统由于其业务的关键性和故障的巨大成本,通常才会采用强一致性模型来保证其业务数据的一致性。可以参考的一个例子是一些关键的基于数据和算法的决策系统,该系统可能会对于一定时间段的数据做出某种指导业务的决策,通常在一段时间内可能是读多写少,如果对于每次读请求都重新计算,会带来性能的巨大损耗,此时可以考虑将结果缓存。那么对于这种情况,如何保证缓存与数据库数据的强一致性呢?
强一致性解决方案分析
要解决的问题主要有两个:
- 单线程下更新操作不同步问题
- 并发读/写操作
要想解决以上问题,强一致性模型就必须保证更新数据库和更新缓存两者的原子性,但由于redis不支持传统意义上的事务,所以我们只能另辟蹊径。另一方面,必须保证消除或者避免并发读写产生竞争条件。
对于前者,我们可以考虑通过硬编码的形式解决,对于后者,可以考虑读写锁(分布式系统应该升级为分布式锁),兼顾一定的性能。考虑以下代码
package com.example.demo;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;
import org.springframework.transaction.annotation.Transactional;
import redis.clients.jedis.Jedis;
@Service
public class DataService {
@Autowired
private JDBCTemplate jdbcTemplate;
@Autowired
private RedissonClient redissonClient;
/**
* 使用写锁保护的资源更新方法
*/
@Transactional
public void updateProtectedResource(String newData,int repeatCount) {
Jedis jedis = new Jedis("localhost");
RReadWriteLock rwLock = redissonClient.getReadWriteLock("myReadWriteLock");
RLock writeLock = rwLock.writeLock();
try {
// 获取写锁
writeLock.lock();
// 执行写操作
Model data = parse(newData);
String sql = "UPDATE data_table SET name = ?, value = ? WHERE id = ?";
jdbcTemplate.update(sql, data.getName(), data.getValue(), data.getId());
// 更新缓存
while (true && (repeatCount--) > 0) {
long result = jedis.del(cacheKey);
if (result > 0) {
System.out.println("Key deleted successfully.");
break;
} else {
if(repeatCount==0){
throw new BussinessException("更新缓存失败,请检查");
}
// Optional: Add some delay or max attempt logic
try {
Thread.sleep(1000); // 等待一秒再次尝试
} catch (InterruptedException e) {
Thread.currentThread().interrupt();
System.out.println("Thread interrupted");
break;
}
}
}
// 模拟数据操作
Thread.sleep(1000);
} catch (InterruptedException e) {
Thread.currentThread().interrupt();
} finally {
// 释放写锁
writeLock.unlock();
jedis.close();
}
}
/**
* 使用读锁保护的资源访问方法
*/
public void accessProtectedResource(String newData) {
Jedis jedis = new Jedis("localhost");
RReadWriteLock rwLock = redissonClient.getReadWriteLock("myReadWriteLock");
RLock readLock = rwLock.readLock();
try {
// 获取读锁
readLock.lock();
// 执行读操作
Model data = parse(newData);
String value = jedis.get(data.getName());
} catch (InterruptedException e) {
Thread.currentThread().interrupt();
} finally {
// 释放读锁
readLock.unlock();
jedis.close();
}
}
}
该代码模拟了通过结合使用数据库事务和分布式锁来确保对Redis和MySQL之间的数据操作的强一致性,在删除Redis缓存时,添加了延时重试逻辑,如果删除失败会再次尝试,直到成功或达到重试限制,如果最终缓存删除仍然失败,代码通过抛出异常进行告警,并可以通过外部重试机制解决。这增加了操作的健壮性。
根据是否接收写请求,可以把缓存分成读写缓存和只读缓存。
- 只读缓存:只在缓存进行数据查找,即使用“更新数据库+删除缓存”策略。
- 读写缓存:需要在缓存中对数据进行增删改查,即使用“更新数据库+更新缓存”策略。
在模拟代码中选择了只读缓存,进一步避免了机器算力资源的浪费,提升了性能。
具体的实现机制和流程如下:
- 数据库事务管理: 使用
@Transactional
注解,该方法内的所有数据库操作都会在一个事务中执行。如果方法中的任何数据库操作失败,则整个事务会被回滚,这包括对MySQL数据库的所有更改。 - 分布式锁: 代码中使用了Redisson客户端来实现分布式锁的功能。这里用到了
Redisson
的RReadWriteLock
,它是一个可重入的读写锁。在更新资源时,首先获取写锁,这会阻塞其他试图获取写锁或读锁的操作,从而保证在更新操作期间不会有其他操作可以修改或读取相关的资源。 这段代码设计用于保持Redis缓存和MySQL数据库之间的强一致性,通过使用Spring框架、JDBC模板进行数据库交互,以及Redisson客户端进行分布式锁管理。下面我们详细分析这段代码的优缺点:
当然,这也在其他方面付出了一些代价,包括:
- 性能损耗:使用分布式写锁会阻塞所有其他的读写操作,这在高并发场景下可能会显著降低性能。尤其是在分布式系统中,锁的管理还可能增加网络延迟和复杂性。
- 可用性和扩展性的挑战:
-
- 在强一致性模型中,任何单点的故障都可能导致整个系统的不可用。
- 扩展系统(尤其是水平扩展)变得更加困难,因为每个新增节点都需要加入到数据同步和一致性协议中。
- 要使用同步复制来保持各个数据副本之间的一致性。每个写操作都必须在所有副本上确认,才能完成。
- 复杂性增加:
-
- 实现和维护一个强一致性系统的复杂性显著增加,这需要更多的开发和运维投入。
- 错误处理和异常管理变得更加复杂,系统必须能够处理网络分区、节点故障等问题,并保持一致性不受影响。
总结来说,这段代码通过使用数据库事务确保MySQL操作的一致性和原子性,同时利用Redisson实现的分布式读写锁确保在更新操作期间不会有其他读写操作干扰,从而保证了在更新操作和缓存同步之间的强一致性。然而,它也带来了性能上的损耗。
2. 最终一致性(Eventual Consistency)
最终一致性是一种弱一致性的形式,保证只要没有新的更新,系统最终会达到一致的状态。更新在系统中逐渐传播,经过一段时间后,所有的副本最终将反映最新的状态。这种最终一致性适合大多数的系统,可以提高系统的可用性和扩展性,并且允许系统在部分节点故障时继续运行。只是一致性达成可能有延迟,但是在业务系统的接受范围之内。
应用场景:
- 大型分布式系统,如云存储服务和大数据处理平台。
- 社交网络,用户的更新(如状态更新或图片上传)可以容忍短时间的不一致。
实现最终一致性的方案较多,这里列举一部分:
- 使用消息队列技术:如Apache Kafka或RabbitMQ,将更新操作放入队列中,然后异步处理这些更新操作,以达到最终一致性。这种方式适用于一致性要求较高的场景。
- 解析MySQL的binlog:通过解析MySQL的binlog来同步更新Redis。这种方式可以实现较为精确的数据同步,但需要额外的工具和技术支持。
- 先更新MySQL再删除Redis:这是一种较为推荐的方案,因为它产生的数据不一致概率最低,数据丢失风险最小,把控度最高。然而,这也意味着在某些情况下可能会出现短暂的数据不一致。
- 延时双删:这是一种更复杂的方案,它在“先删除Redis,再更新MySQL + Redis读策略”的基础上增加了最后一步Redis删除的操作。这个方案可以解决最终Redis中的数据与MySQL中的数据不一致的问题。
- 监控与补偿:记录所有关键操作步骤和任何异常情况在日志中,定期检查MySQL和Redis之间的数据一致性,对于异常和不一致的情况触发对应的补偿机制。
基础平台稳定性构建
系统崩溃或重启
系统崩溃或重启导致内存中的缓存数据丢失是一种常见的问题,这种情况下的数据不一致问题尤其需要关注。在系统崩溃或重启的过程中,内存中存储的所有信息(包括缓存数据)都会丢失,因为内存是易失性的存储设备。与此同时,数据库中的数据通常存储在硬盘等非易失性存储设备上,因此即使在系统崩溃后,数据库的数据依然保持不变。当系统重新启动后,如果缓存中的数据没有被适当地从数据库或其他持久存储中恢复,那么就会出现缓存与数据库之间的数据不一致问题。
为了应对系统崩溃或重启后可能出现的缓存与数据库间的数据不一致问题,可以采取以下几种策略:
- 持久化缓存数据:某些缓存解决方案提供了持久化选项,可以将内存中的数据定期保存到硬盘上。这样,在系统重启后可以从这些持久化的数据恢复缓存,减少数据丢失的风险。
- 缓存预热(Cache Warming):在系统启动时主动加载最常访问的数据到缓存中。这个过程称为缓存预热,它可以帮助系统更快地恢复到崩溃前的性能水平。
- 使用备份缓存服务器:在分布式缓存解决方案中,可以通过部署多个缓存节点来防止单点故障,即使一个缓存服务器失败,其他服务器仍能提供服务。
- 定期校验和同步:定期检查缓存与数据库之间的数据一致性,并根据需要进行同步,确保数据的准确性和最新性。
通过实施这些策略,可以最大程度地减少系统崩溃或重启对业务操作的影响,并确保数据的一致性和可靠性。这对于保持应用性能和提供高质量的用户体验是至关重要的。
缓存穿透策略
缓存穿透是指查询不存在于缓存中的数据,导致请求直接到达数据库,增加数据库的负载。解决方案包括:
- 空对象缓存:对于查询结果为空的情况,依然将这个空结果进行缓存,防止对同一数据的重复查询。
- 布隆过滤器:使用布隆过滤器预判数据是否存在于数据库中,不存在则拒绝查询,减少数据库压力。
缓存击穿策略
缓存击穿是指一个热点key突然过期,导致大量请求直接打到数据库上。解决方案包括:
- 设置热点数据永不过期:针对一些热点数据设置为不过期,通过后台定时任务更新这些数据。
- 互斥锁:当缓存失效时,不是所有的请求都去查询数据库,而是使用锁或者其他同步工具保证只有一个请求去查询数据库和重建缓存。
缓存雪崩策略
缓存雪崩是指缓存中大量的key同时过期,导致所有的请求都转到数据库上。解决方案包括:
- 缓存数据的过期时间随机化:使得缓存的过期时间不会同时发生,避免同时大量的缓存失效。
- 提高缓存服务的高可用性:使用集群或者分布式缓存系统,确保单点故障不会导致整个缓存服务不可用。