精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

三劍客 RocketMQ 事務消息 + 本地消息表 + XXL-Job 對賬,實現分布式事務 1w-10wqps 高并發

開發 架構
下游服務消費消息時,需通過 “訂單 ID” 實現冪等(避免重復扣庫存),同時記錄消費狀態,為后續對賬提供查詢依據;消費失敗時返回RECONSUME_LATER,觸發 RocketMQ 重試,重試耗盡后進入死信隊列。

CP (強一致)和AP(高并發)的根本沖突

從上面的指標數據可以知道, Seata AT/TCC是 強一致,并發能力弱。

CP (強一致)和AP(高并發)是一對  根本矛盾,存在根本沖突。

10Wqps 的高并發事務,并不是CP,而是屬于AP 高并發。Seata  如果不做特殊改造,很難滿足。

CAP 定理

CAP 該定理指出一個 分布式系統 最多只能同時滿足一致性(Consistency)可用性(Availability)和分區容錯性(Partition tolerance)這三項中的兩項。

CAP定理的三個要素可以用來描述分布式系統的一致性和可用性。

如果事務要追求高并發,根據cap定理,需要放棄強一致性,只需要保證數據的最終一致性

所以,在實踐可以使用本地消息表的方案來解決分布式事務問題。

經典ebay 本地消息表方案

本地消息表方案最初是ebay提出的,其實也是BASE理論的應用,屬于可靠消息最終一致性的范疇。

消息生產方/ 消息消費方,需要額外建一個消息表,并記錄消息發送狀態。

一個簡單的本地消息表, 設計如下:

字段

類型

注釋

id

long

id

msg_type

varchar

消息類型

biz_id

varchar

業務唯一標志

content

text

消息體

state

varchar

狀態(待發送,已消費)

create_time

datetime

創建時間

update_time

datetime

更新時間

消息表和業務數據要在一個事務里提交,也就是說他們要在一個數據庫里面。

然后消息會經過MQ發送到消息的消費方。如果消息發送失敗,會進行重試發送。

消息消費方  需要處理這個消息,并完成自己的業務邏輯。

此時如果本地事務處理成功,表明已經處理成功了,如果處理失敗,那么就會重試執行。

如果是業務上面的失敗,可以給生產方發送一個業務補償消息,通知生產方進行回滾等操作。

經典 ebay 本地消息表步驟

生產方定時掃描本地消息表,把還沒處理完成的消息或者失敗的消息再發送一遍。

發送消息方:

  • 需要有一個消息表,記錄著消息狀態相關信息。
  • 業務數據和消息表在同一個數據庫,要保證它倆在同一個本地事務。直接利用本地事務,將業務數據和事務消息直接寫入數據庫。
  • 在本地事務中處理完業務數據和寫消息表操作后,通過寫消息到 MQ 消息隊列。使用專門的投遞工作線程進行事務消息投遞到MQ,根據投遞ACK去刪除事務消息表記錄。
  • 消息會發到消息消費方,如果發送失敗,即進行重試。

消息消費方:

  • 處理消息隊列中的消息,完成自己的業務邏輯。
  • 如果本地事務處理成功,則表明已經處理成功了。
  • 如果本地事務處理失敗,那么就會重試執行。
  • 如果是業務層面的失敗,給消息生產方發送一個業務補償消息,通知進行回滾等操作。

生產方和消費方定時掃描本地消息表,把還沒處理完成的消息或者失敗的消息再發送一遍。

圖片圖片

經典ebay本地消息表方案中,還設計了靠譜的自動對賬補賬邏輯,確保數據的最終一致性。

經典ebay本地消息表的注意事項

使用本地消息表實現分布式事務可以確保消息在分布式環境中的可靠傳遞和一致性。

然而,需要注意以下幾點:

  • 消息的冪等性: 消費者一定需要保證接口的冪等性,消息的冪等性非常重要,以防止消息重復處理導致的數據不一致。
  • 本地消息表的設計: 本地消息表的設計需要考慮到消息狀態、重試次數、創建時間等字段,以便實現消息的跟蹤和管理。
  • 定時任務和重試機制: 需要實現定時任務或者重試機制來確保消息的可靠發送和處理。

經典ebay本地消息表訪問的優點和缺點:

優點:

  • 本地消息表建設成本比較低,實現了可靠消息的傳遞確保了分布式事務的最終一致性。
  • 無需提供回查方法,進一步減少的業務的侵入。
  • 在某些場景下,還可以進一步利用注解等形式進行解耦,有可能實現無業務代碼侵入式的實現。

缺點:

  • 本地消息表與業務耦合在一起,難于做成通用性,不可獨立伸縮。
  • 本地消息表是基于數據庫來做的,而數據庫是要讀寫磁盤IO的,因此在高并發下是有性能瓶頸的。
  • 數據大時,消息積壓問題,掃表效率慢。
  • 數據大時,事務表數據爆炸,定時掃表存在延遲問題。

使用定時任務(如 XXL-Job )實現分布式事務最終一致性方案

通過 XXL-Job 定時任務替代延遲消息,定期查詢 “待對賬” 業務數據,對比 Service A 與 Service B 的業務狀態,通過 “主動核查 + 差異修復” 確保最終一致性。

核心是 “本地事務保初始一致 + 定時任務查狀態差異 + 人工 / 自動補單修偏差”

1. Service A(發起方):本地消息表設計與事務保障

Service A 在執行核心業務(如創建訂單)時,需在本地數據庫事務中同時完成兩件事:

  • 執行核心業務邏輯(如插入訂單表,狀態標記為 “已創建”);
  • 插入 “本地消息對賬表”(字段含:對賬 ID、業務 ID(如訂單 ID)、業務類型(如 “訂單扣庫存”)、Service A 狀態(如 “訂單已創建”)、Service B 狀態(初始為 “未確認”)、對賬狀態(初始為 “待對賬”)、創建時間、最后對賬時間),確保 “業務成功則對賬記錄必存在”,避免初始數據缺失。

2. Service B(依賴方):業務狀態可查與結果反饋

Service B 執行依賴業務(如扣減庫存)時,需:

  • 執行核心業務邏輯(如扣減庫存表,標記 “已扣減”,并關聯 Service A 的業務 ID(訂單 ID));
  • 提供狀態查詢接口(如 “根據訂單 ID 查詢庫存扣減狀態”),返回 “已成功”“已失敗”“處理中” 三種明確狀態,方便定時任務核查;
  • 若 Service B 執行成功 / 失敗,可主動調用 Service A 的 “狀態回調接口” 更新本地消息對賬表的 “Service B 狀態”(非強制,定時任務會兜底核查)。

3、XXL-Job 定時任務設計:對賬與修復

定時任務執行時,按以下步驟完成對賬:

1)篩選待對賬數據:查詢 Service A 本地消息對賬表中 “對賬狀態 = 待對賬” 且 “創建時間超過 5 分鐘”(避免業務未執行完就對賬)的記錄,按分片范圍批量獲取(如每次查 1000 條,避免一次性查太多導致 OOM);

2) 雙端狀態查詢:對每條待對賬記錄,分別調用 Service A 的 “業務狀態接口”(確認訂單是否真的已創建)、Service B 的 “狀態查詢接口”(確認庫存是否已扣減);

3)狀態一致性判斷與處理:

  • 若 “Service A 成功 + Service B 成功”:更新本地消息對賬表 “對賬狀態 = 已一致”“Service B 狀態 = 已成功”,完成對賬;
  • 若 “Service A 失敗 + Service B 失敗”:更新 “對賬狀態 = 已一致”“Service B 狀態 = 已失敗”,無需額外處理;
  • 若 “Service A 成功 + Service B 失敗 / 處理中”:觸發自動重試(調用 Service B 的 “重試執行接口”,如重新扣減庫存),重試 3 次仍失敗則標記 “對賬狀態 = 不一致”,生成業務工單;
  • 若 “Service A 失敗 + Service B 成功”:屬于異常數據(Service A 業務失敗但 Service B 執行成功),直接標記 “對賬狀態 = 不一致”,生成業務工單;

4)異常兜底:若調用 Service A/Service B 接口超時,標記該記錄 “對賬狀態 = 待重試”,下次定時任務重新核查,避免因臨時網絡問題誤判不一致。

RocketMQ 事務消息 + 本地消息表 + XXL-Job 對賬  分布式式事務方案實操

本方案將規整為標準 Markdown 格式,同時補充 XXL-Job 定時任務事務對賬機制,通過 “事務消息保初始一致性 + 定時對賬兜底差異” 的雙層保障,確保電商下單(生成訂單→扣減庫存→發送通知)場景的分布式事務最終一致。

1. 系統架構

以電商下單場景為核心,涉及 3 個服務與 1 個中間件,職責分工明確:

  • 訂單服務(發起方):核心服務,負責生成訂單、記錄本地消息表、發送 RocketMQ 事務消息,同時提供訂單狀態查詢接口。
  • 庫存服務(依賴方 1):訂閱訂單消息,執行庫存扣減,提供庫存扣減狀態查詢接口,支持重試執行。
  • 通知服務(依賴方 2):訂閱訂單消息,發送短信 / APP 通知,提供通知發送狀態查詢接口。
  • RocketMQ:作為事務協調中間件,接收訂單服務的事務消息,確認本地事務成功后投遞消息至下游服務。
  • XXL-Job:定時任務調度中心,部署對賬任務,定期核查訂單服務與下游服務的業務狀態差異,兜底修復不一致數據。

2. 數據庫表設計

訂單服務的 本地消息表message_log)包括對賬相關字段(如對賬狀態、重試次數、下次對賬時間),支撐定時對賬邏輯;

message_log 同時 包含 核心業務字段,確保消息與訂單的關聯可追溯。

-- 訂單服務:本地消息表(含對賬字段)
CREATE TABLE message_log (
    id BIGINT PRIMARY KEY AUTO_INCREMENT,
    order_id BIGINT NOT NULL COMMENT '訂單ID(關聯t_order表,唯一)',
    rocketmq_msg_id VARCHAR(64) DEFAULT NULL COMMENT 'RocketMQ消息唯一ID(關聯消息中間件)',
    message_content TEXT NOT NULL COMMENT '消息內容(JSON格式,含orderId、skuId、quantity等)',
    business_type VARCHAR(32) NOT NULL COMMENT '業務類型:ORDER_CREATE(創建訂單)、INVENTORY_DEDUCT(扣庫存)、NOTICE_SEND(發通知)',
    msg_status ENUM('INIT','SENT','CONSUMED','FAIL') DEFAULT 'INIT' COMMENT '消息狀態:INIT=初始,SENT=已投遞,CONSUMED=已消費,FAIL=失敗',
    reconcile_status ENUM('PENDING','SUCCESS','FAIL','RETRY') DEFAULT 'PENDING' COMMENT '對賬狀態:PENDING=待對賬,SUCCESS=對賬一致,FAIL=對賬不一致,RETRY=待重試',
    retry_count TINYINT DEFAULT 0 COMMENT '對賬重試次數(最大5次)',
    next_reconcile_time DATETIME NOT NULL COMMENT '下次對賬時間(定時任務篩選依據)',
    create_time DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '消息創建時間',
    update_time DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '狀態更新時間',
    UNIQUE KEY uk_order_id_business_type (order_id, business_type) COMMENT '避免同一訂單同一業務類型重復發消息'
);
-- 訂單服務:訂單表(簡化,僅保留核心字段)
CREATE TABLE t_order (
    id BIGINT PRIMARY KEY AUTO_INCREMENT,
    order_id VARCHAR(64) NOT NULL COMMENT '訂單唯一編號',
    user_id BIGINT NOT NULL COMMENT '用戶ID',
    sku_id BIGINT NOT NULL COMMENT '商品SKU ID',
    quantity INT NOT NULL COMMENT '購買數量',
    order_status ENUM('CREATED','PAID','SHIPPED','FINISHED','CANCELED') DEFAULT 'CREATED' COMMENT '訂單狀態',
    create_time DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '訂單創建時間',
    UNIQUE KEY uk_order_id (order_id)
);
-- 庫存服務:庫存扣減記錄表(支撐狀態查詢與冪等)
CREATE TABLE inventory_deduct_log (
    id BIGINT PRIMARY KEY AUTO_INCREMENT,
    order_id VARCHAR(64) NOT NULL COMMENT '訂單ID(關聯訂單服務)',
    sku_id BIGINT NOT NULL COMMENT '商品SKU ID',
    deduct_quantity INT NOT NULL COMMENT '扣減數量',
    deduct_status ENUM('SUCCESS','FAIL','PROCESSING') DEFAULT 'PROCESSING' COMMENT '扣減狀態',
    create_time DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP,
    UNIQUE KEY uk_order_id (order_id) COMMENT '按訂單ID冪等,避免重復扣減'
);

3. 代碼實現

3.1 Producer 端(訂單服務):事務消息發送

通過 TransactionMQProducer 發送事務消息,確保 “生成訂單” 與 “記錄本地消息” 在同一本地事務中,保證初始數據一致性;

同時初始化消息的對賬狀態(PENDING)與下次對賬時間(默認 5 分鐘后,避免業務未執行完就對賬)。

import org.apache.rocketmq.client.producer.TransactionMQProducer;
import org.apache.rocketmq.common.message.Message;
import org.springframework.stereotype.Service;
import org.springframework.transaction.annotation.Transactional;
import javax.annotation.Resource;
import java.nio.charset.StandardCharsets;
import java.util.Date;
import java.util.concurrent.TimeUnit;
@Service
public class OrderServiceImpl implements OrderService {
    // 注入RocketMQ事務生產者(單例,由Spring容器初始化)
    @Resource
    private TransactionMQProducer transactionMQProducer;
    @Resource
    private OrderMapper orderMapper;
    @Resource
    private MessageLogMapper messageLogMapper;
    /
     * 創建訂單 + 發送事務消息
     */
    @Override
    public void createOrder(OrderCreateDTO dto) throws Exception {
        // 1. 構造訂單數據(生成唯一訂單號)
        String orderId = generateOrderId();
        TOrder order = TOrder.builder()
                .orderId(orderId)
                .userId(dto.getUserId())
                .skuId(dto.getSkuId())
                .quantity(dto.getQuantity())
                .orderStatus("CREATED")
                .build();
        // 2. 構造RocketMQ事務消息(主題:OrderTopic,標簽:INVENTORY_DEDUCT+NOTICE_SEND,支持多下游訂閱)
        String msgContent = JSON.toJSONString(dto);
        Message message = new Message(
                "OrderTopic",  // 主題:下游服務訂閱此主題
                "INVENTORY_DEDUCT||NOTICE_SEND",  // 標簽:區分業務類型,下游可按標簽過濾
                orderId.getBytes(StandardCharsets.UTF_8),  // 消息Key:訂單ID,便于定位
                msgContent.getBytes(StandardCharsets.UTF_8)
        );
        // 3. 發送事務消息(將訂單數據作為參數透傳給事務監聽器)
        transactionMQProducer.sendMessageInTransaction(message, order);
    }
    /
     * 事務監聽器:執行本地事務 + 事務回查
/
    @Resource
    private TransactionListener orderTransactionListener;
    // 初始化事務生產者時綁定監聽器(Spring Bean初始化方法)
    @PostConstruct
    public void initProducer() {
        transactionMQProducer.setTransactionListener(orderTransactionListener);
    }
    /
     * 本地事務邏輯(由監聽器調用,確保訂單與消息表同成功/同失敗)
/
    @Transactional(rollbackFor = Exception.class)
    public LocalTransactionState executeLocalTransaction(TOrder order, Message message) {
        try {
            // 步驟1:保存訂單到訂單表
            orderMapper.insert(order);
            // 步驟2:記錄本地消息表(對賬狀態初始為PENDING,下次對賬時間5分鐘后)
            Date nextReconcileTime = new Date(System.currentTimeMillis() + TimeUnit.MINUTES.toMillis(5));
            MessageLog log = MessageLog.builder()
                    .orderId(order.getOrderId())
                    .rocketmqMsgId(message.getMsgId())
                    .messageContent(new String(message.getBody()))
                    .businessType("ORDER_CREATE")
                    .msgStatus("INIT")
                    .reconcileStatus("PENDING")
                    .retryCount(0)
                    .nextReconcileTime(nextReconcileTime)
                    .build();
            messageLogMapper.insert(log);
            // 步驟3:提交本地事務,返回COMMIT(通知RocketMQ投遞消息)
            return LocalTransactionState.COMMIT_MESSAGE;
        } catch (Exception e) {
            // 本地事務失敗,回滾,返回ROLLBACK(通知RocketMQ丟棄消息)
            return LocalTransactionState.ROLLBACK_MESSAGE;
        }
    }
    /*
     * 事務回查邏輯(Broker未收到Commit/Rollback時觸發)
/
    public LocalTransactionState checkLocalTransaction(String orderId) {
        // 查本地消息表,按訂單ID判斷本地事務狀態
        MessageLog log = messageLogMapper.selectByOrderId(orderId);
        if (log == null) {
            return LocalTransactionState.ROLLBACK_MESSAGE; // 本地無記錄,回滾
        }
        // 本地消息已記錄,說明本地事務成功,返回COMMIT
        if ("INIT".equals(log.getMsgStatus()) || "PENDING".equals(log.getReconcileStatus())) {
            return LocalTransactionState.COMMIT_MESSAGE;
        }
        return LocalTransactionState.ROLLBACK_MESSAGE;
    }
    // 工具方法:生成唯一訂單號
    private String generateOrderId() {
        return "ORDER_" + System.currentTimeMillis() + RandomUtils.nextInt(1000, 9999);
    }
}

3.2 Consumer 端(庫存服務):消息消費與冪等控制

下游服務消費消息時,需通過 “訂單 ID” 實現冪等(避免重復扣庫存),同時記錄消費狀態,為后續對賬提供查詢依據;消費失敗時返回RECONSUME_LATER,觸發 RocketMQ 重試,重試耗盡后進入死信隊列。

import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus;
import org.apache.rocketmq.spring.annotation.RocketMQMessageListener;
import org.apache.rocketmq.spring.core.RocketMQListener;
import org.springframework.stereotype.Component;
import org.springframework.transaction.annotation.Transactional;
import javax.annotation.Resource;
@Component
// 訂閱訂單主題,僅消費“扣庫存”標簽的消息
@RocketMQMessageListener(topic = "OrderTopic", selectorExpression = "INVENTORY_DEDUCT", consumerGroup = "inventory_consumer_group")
public class InventoryConsumer implements RocketMQListener<MessageExt> {
    @Resource
    private InventoryMapper inventoryMapper;
    @Resource
    private InventoryDeductLogMapper deductLogMapper;
    @Resource
    private MessageLogFeignClient messageLogFeignClient; // 調用訂單服務的消息表接口
    @Override
    @Transactional(rollbackFor = Exception.class)
    public void onMessage(MessageExt messageExt) {
        // 1. 解析消息(獲取訂單ID、商品ID、扣減數量)
        String msgContent = new String(messageExt.getBody());
        OrderCreateDTO dto = JSON.parseObject(msgContent, OrderCreateDTO.class);
        String orderId = dto.getOrderId();
        Long skuId = dto.getSkuId();
        Integer quantity = dto.getQuantity();
        // 2. 冪等控制:查詢是否已扣減(按訂單ID)
        InventoryDeductLog existLog = deductLogMapper.selectByOrderId(orderId);
        if (existLog != null && "SUCCESS".equals(existLog.getDeductStatus())) {
            // 已成功扣減,直接返回成功
            messageLogFeignClient.updateMsgStatus(orderId, "CONSUMED"); // 通知訂單服務更新消息狀態
            return;
        }
        try {
            // 3. 執行庫存扣減(先查庫存是否充足)
            Inventory inventory = inventoryMapper.selectBySkuId(skuId);
            if (inventory == null || inventory.getStock() < quantity) {
                // 庫存不足,記錄失敗狀態,返回失敗(不重試,避免無效循環)
                deductLogMapper.insert(InventoryDeductLog.builder()
                        .orderId(orderId)
                        .skuId(skuId)
                        .deductQuantity(quantity)
                        .deductStatus("FAIL")
                        .build());
                messageLogFeignClient.updateMsgStatus(orderId, "FAIL"); // 通知訂單服務更新消息狀態
                throw new RuntimeException("庫存不足,扣減失敗");
            }
            // 4. 扣減庫存并記錄日志
            inventory.setStock(inventory.getStock() - quantity);
            inventoryMapper.updateById(inventory);
            deductLogMapper.insert(InventoryDeductLog.builder()
                    .orderId(orderId)
                    .skuId(skuId)
                    .deductQuantity(quantity)
                    .deductStatus("SUCCESS")
                    .build());
            // 5. 通知訂單服務更新消息狀態為“已消費”
            messageLogFeignClient.updateMsgStatus(orderId, "CONSUMED");
            // 返回消費成功
        } catch (Exception e) {
            // 消費失敗,記錄“處理中”狀態,返回重試
            deductLogMapper.insertOrUpdate(InventoryDeductLog.builder()
                    .orderId(orderId)
                    .skuId(skuId)
                    .deductQuantity(quantity)
                    .deductStatus("PROCESSING")
                    .build());
            return ConsumeConcurrentlyStatus.RECONSUME_LATER;
        }
    }
    /
     * 對外提供庫存扣減狀態查詢接口(供XXL-Job對賬調用)
     */
    public String queryDeductStatus(String orderId) {
        InventoryDeductLog log = deductLogMapper.selectByOrderId(orderId);
        if (log == null) {
            return "NOT_PROCESSED"; // 未處理
        }
        return log.getDeductStatus(); // SUCCESS/FAIL/PROCESSING
    }
    /
     * 對外提供庫存扣減重試接口(供XXL-Job對賬修復調用)
     */
    public boolean retryDeduct(String orderId) {
        // 邏輯同onMessage,僅針對“PROCESSING/FAIL”狀態的記錄重試,此處省略
        return true;
    }
}

4. 基礎流程說明

4.1 正常流程

1、用戶發起下單請求,訂單服務調用 createOrder 方法,發送事務消息。

2、RocketMQ 收到 “半消息” 后,觸發訂單服務的本地事務(executeLocalTransaction):   - 本地事務成功:保存訂單、記錄本地消息表(msg_status=INITreconcile_status=PENDING),返回 COMMIT_MESSAGE。   - RocketMQ 確認后,將消息投遞至庫存服務、通知服務。

3、庫存服務 / 通知服務消費消息,執行業務邏輯(扣庫存 / 發通知),消費成功后通知訂單服務更新消息狀態為 CONSUMED

4、5 分鐘后,XXL-Job 對賬任務觸發,核查訂單服務與下游服務狀態一致,更新對賬狀態為 SUCCESS,流程閉環。

4.2 基礎異常流程(無對賬時)

  • 本地事務失敗:訂單 / 消息表插入失敗,返回 ROLLBACK_MESSAGE,RocketMQ 不投遞消息,無下游影響。
  • Broker 超時未收狀態:RocketMQ 觸發事務回查(checkLocalTransaction),按本地消息表狀態返回 COMMIT_MESSAGE,重新投遞消息。
  • Consumer 消費失敗:返回 RECONSUME_LATER,RocketMQ 按重試策略重試(默認 16 次),重試耗盡后進入死信隊列。

5. XXL-Job 定時事務對賬機制

5.1 對賬任務核心目標

解決 “基礎流程無法覆蓋的一致性問題”,例如:

  • Consumer 消費成功但未通知訂單服務更新消息狀態;
  • RocketMQ 投遞成功但 Consumer 因網絡問題未接收,重試超時;
  • 本地事務成功、消息投遞成功,但 Consumer 業務執行一半(如庫存扣減成功但日志未記錄)。

5.2 對賬任務配置

  • 執行頻率:每 5 分鐘執行一次(與消息表 next_reconcile_time 匹配,避免高頻占用資源)。
  • 分片策略:按 order_id 尾號分片(如 10 個分片,尾號 0-9),多執行器并行對賬,支撐百萬級訂單對賬效率。
  • 超時控制:單個分片任務超時時間設為 30 秒,超時標記為 “待重試”,下次對賬重新處理。
  • 任務依賴:依賴訂單服務、庫存服務、通知服務的 “狀態查詢接口” 與 “重試執行接口”。

5.3 核心對賬邏輯(XXL-Job 任務代碼)

import com.xxl.job.core.context.XxlJobHelper;
import com.xxl.job.core.handler.annotation.XxlJob;
import org.springframework.stereotype.Component;
import javax.annotation.Resource;
import java.util.Date;
import java.util.List;
import java.util.concurrent.TimeUnit;
@Component
public class OrderReconcileJob {
    @Resource
    private MessageLogMapper messageLogMapper;
    @Resource
    private OrderService orderService;
    @Resource
    private InventoryFeignClient inventoryFeignClient; // 調用庫存服務接口
    @Resource
    private NoticeFeignClient noticeFeignClient; // 調用通知服務接口
    @Resource
    private ReconcileWorkOrderMapper workOrderMapper; // 對賬工單表
    /*
     * XXL-Job 對賬任務(分片執行)
/
    @XxlJob("orderReconcileJob")
    public void execute() throws Exception {
        // 1. 獲取分片參數(當前分片號、總分片數)
        int shardIndex = XxlJobHelper.getShardIndex();
        int shardTotal = XxlJobHelper.getShardTotal();
        // 2. 篩選待對賬數據:
        // - 對賬狀態為PENDING/RETRY
        // - 下次對賬時間 <= 當前時間
        // - 重試次數 < 5次
        // - 按order_id尾號分片查詢(避免重復)
        List<MessageLog> pendingLogs = messageLogMapper.selectPendingReconcile(
                shardIndex, shardTotal, 5, new Date()
        );
        if (pendingLogs.isEmpty()) {
            XxlJobHelper.log("當前分片無待對賬數據,分片號:{}", shardIndex);
            return;
        }
        // 3. 遍歷待對賬記錄,逐一對賬
        for (MessageLog log : pendingLogs) {
            String orderId = log.getOrderId();
            try {
                XxlJobHelper.log("開始對賬訂單:{}", orderId);
                // 步驟1:查詢各服務狀態
                // - 訂單服務狀態:是否已創建(CREATED)
                String orderStatus = orderService.queryOrderStatus(orderId);
                // - 庫存服務狀態:是否已扣減(SUCCESS/FAIL/PROCESSING)
                String inventoryStatus = inventoryFeignClient.queryDeductStatus(orderId);
                // - 通知服務狀態:是否已發送(SUCCESS/FAIL/PROCESSING)
                String noticeStatus = noticeFeignClient.queryNoticeStatus(orderId);
                // 步驟2:狀態一致性判斷與處理
                // 場景1:訂單已創建,庫存/通知均成功 → 對賬一致
                if ("CREATED".equals(orderStatus) 
                        && "SUCCESS".equals(inventoryStatus) 
                        && "SUCCESS".equals(noticeStatus)) {
                    messageLogMapper.updateReconcileStatus(orderId, "SUCCESS");
                    XxlJobHelper.log("訂單{}對賬一致,狀態更新為SUCCESS", orderId);
                    continue;
                }
                // 場景2:訂單已創建,庫存/通知存在PROCESSING → 待重試(下次對賬再查)
                if ("CREATED".equals(orderStatus) 
                        && ("PROCESSING".equals(inventoryStatus) || "PROCESSING".equals(noticeStatus))) {
                    // 更新下次對賬時間(10分鐘后)和重試次數
                    Date nextTime = new Date(System.currentTimeMillis() + TimeUnit.MINUTES.toMillis(10));
                    messageLogMapper.updateRetryInfo(orderId, log.getRetryCount() + 1, nextTime, "RETRY");
                    XxlJobHelper.log("訂單{}存在處理中狀態,下次對賬時間:{}", orderId, nextTime);
                    continue;
                }
                // 場景3:訂單已創建,庫存/通知存在FAIL → 觸發自動重試
                if ("CREATED".equals(orderStatus) 
                        && ("FAIL".equals(inventoryStatus) || "FAIL".equals(noticeStatus))) {
                    // 重試次數未超5次,調用下游重試接口
                    if (log.getRetryCount() < 5) {
                        boolean inventoryRetry = "FAIL".equals(inventoryStatus) 
                                ? inventoryFeignClient.retryDeduct(orderId) : true;
                        boolean noticeRetry = "FAIL".equals(noticeStatus) 
                                ? noticeFeignClient.retrySend(orderId) : true;
                        if (inventoryRetry && noticeRetry) {
                            // 重試成功,更新下次對賬時間(5分鐘后)
                            Date nextTime = new Date(System.currentTimeMillis() + TimeUnit.MINUTES.toMillis(5));
                            messageLogMapper.updateRetryInfo(orderId, log.getRetryCount() + 1, nextTime, "RETRY");
                            XxlJobHelper.log("訂單{}重試下游服務成功,下次對賬時間:{}", orderId, nextTime);
                        } else {
                            // 重試失敗,更新重試次數,下次繼續
                            Date nextTime = new Date(System.currentTimeMillis() + TimeUnit.MINUTES.toMillis(30));
                            messageLogMapper.updateRetryInfo(orderId, log.getRetryCount() + 1, nextTime, "RETRY");
                            XxlJobHelper.log("訂單{}重試下游服務失敗,下次對賬時間:{}", orderId, nextTime);
                        }
                        continue;
                    }
                    // 重試次數超5次,生成人工工單
                    workOrderMapper.insert(ReconcileWorkOrder.builder()
                            .orderId(orderId)
                            .workOrderNo("RECONCILE_" + System.currentTimeMillis())
                            .faultDesc("訂單" + orderId + ":庫存狀態=" + inventoryStatus + ",通知狀態=" + noticeStatus + ",重試5次失敗")
                            .workOrderStatus("PENDING")
                            .createTime(new Date())
                            .build());
                    // 更新對賬狀態為FAIL
                    messageLogMapper.updateReconcileStatus(orderId, "FAIL");
                    XxlJobHelper.log("訂單{}對賬失敗,生成人工工單", orderId);
                    continue;
                }
                // 場景4:訂單狀態異常(如CANCELED)→ 對賬一致(無需下游處理)
                if ("CANCELED".equals(orderStatus)) {
                    messageLogMapper.updateReconcileStatus(orderId, "SUCCESS");
                    XxlJobHelper.log("訂單{}已取消,對賬狀態更新為SUCCESS", orderId);
                    continue;
                }
            } catch (Exception e) {
                // 對賬過程異常(如接口超時),標記為RETRY,下次再查
                Date nextTime = new Date(System.currentTimeMillis() + TimeUnit.MINUTES.toMillis(10));
                messageLogMapper.updateRetryInfo(orderId, log.getRetryCount() + 1, nextTime, "RETRY");
                XxlJobHelper.log("訂單{}對賬異常,原因:{},下次對賬時間:{}", orderId, e.getMessage(), nextTime);
            }
        }
        XxlJobHelper.handleSuccess("當前分片對賬完成,分片號:{},處理記錄數:{}", shardIndex, pendingLogs.size());
    }
}

5.4 對賬關鍵保障

1、冪等性:對賬任務按 order_id 與 reconcile_status 篩選,僅處理 “待對賬 / 待重試” 記錄,避免重復對賬。

2、重試策略:采用 “指數退避” 重試(5 分鐘→10 分鐘→30 分鐘),減少無效重試對服務的壓力。

3、人工兜底:重試 5 次仍失敗后生成工單,由運維 / 業務人員介入(如手動補扣庫存、重發通知),確保無數據遺漏。

4、數據清理:對賬狀態為 SUCCESS 且超過 30 天的記錄,定期歸檔至歷史表(如 message_log_hist),避免主表數據量過大影響查詢效率。

6. 完整異常場景處理

異常場景

現象

處理機制

本地事務失敗

訂單 / 消息表未插入,返回 ROLLBACK

RocketMQ 不投遞消息,無下游影響

Broker 回查

未收到 Commit/Rollback,觸發回查

查本地消息表,存在則返回 Commit,重新投遞

Consumer 消費超時

消息未被消費,RocketMQ 重試

重試 16 次后進入死信隊列,對賬任務發現后重試

消費成功未更狀態

Consumer 成功但未通知訂單服務,消息表仍為 INIT

對賬任務查下游狀態為 SUCCESS,更新消息表狀態為 CONSUMED

下游業務失敗(庫存不足)

庫存扣減失敗,狀態為 FAIL

對賬任務重試 5 次后生成人工工單,手動處理(如補充庫存)

經典ebay本地消息表 事務表數據爆炸 問題

經典ebay本地消息表 事務表數據爆炸, 定時任務掃表會很慢,存在巨大的延遲問題

解決的方案如下:

1、索引優化:在消息表中對狀態字段增加索引,以加速掃表操作。索引可以加速消息的檢索和篩選,從而提高操作效率。

2、分頁查詢:將掃表操作劃分為多次分頁查詢,避免一次性查詢大量數據造成的性能問題。

3、多線程 +  分段查詢:

  • 如果有業務標識,可以通過業務標識進行多線程分段掃表查詢。
  • 如果沒有業務標識可以按區間查詢比如線程1查詢0-1000的數據,線程2查詢1001-2000的數據。

4、表較大時進行分庫分表:如果表較大可以進行分庫分表操作。

10Wqps 本地消息表事務架構方案大總結

最終,通過引入一個中間的Rocketmq承擔本地消息表的職責,除了解決事務的一致性外,同樣可以解決消息的丟失與冪等性問題,一舉多得。

而且從業務的健壯性與數據一致性來看,一般都會增加一個補償機制, 實現數據的 最終一致性。這也是BASE理論所支持的。

如何設計 10Wqps高并發分布式事務? 如果能講 到尼恩答案 的 水平 , 面試官一定口水直流,  大廠 offer 就到手啦。

責任編輯:武曉燕 來源: 技術自由圈
相關推薦

2025-11-05 01:45:00

2023-09-18 08:27:20

RabbitMQRocketMQKafka

2024-06-07 08:06:36

2024-06-13 09:25:14

2024-06-26 11:55:44

2025-06-04 01:00:00

2025-04-29 04:00:00

分布式事務事務消息

2023-01-04 09:23:58

2011-03-28 16:04:44

nagios

2021-12-16 13:04:41

消息隊列緩存

2024-10-29 08:34:27

RocketMQ消息類型事務消息

2022-06-27 08:21:05

Seata分布式事務微服務

2023-07-17 08:34:03

RocketMQ消息初體驗

2019-06-27 10:06:54

Linux 性能工具

2010-02-04 16:22:21

2022-01-27 08:44:58

調度系統開源

2024-01-26 13:17:00

rollbackMQ訂單系統

2023-10-04 00:20:31

grepLinux

2009-02-26 18:22:49

桌面虛擬化Linux

2017-07-25 08:53:14

CorrectLinkCCA-SD算法
點贊
收藏

51CTO技術棧公眾號

免费看的av网站| 国产午夜精品福利| 亚洲精品国产无天堂网2021 | 久久国产亚洲精品| 亚洲精品第1页| 国产专区一区二区| 欧美第一页在线观看| 韩国主播福利视频一区二区三区| 久久九九精品| 亚洲精品按摩视频| 日韩欧美99| 久久人妻无码aⅴ毛片a片app| 很黄的网站在线观看| 五月国产精品| 国产精品网站导航| 国产精品电影网站| 91视频免费观看网站| rebdb初裸写真在线观看| 国产成a人亚洲精品| 久久成人免费视频| 日韩av一二三四区| 日韩一卡二卡在线| 亚洲伦伦在线| 亚洲精品成人av| 亚洲精品综合在线观看| 欧美尤物美女在线| 国产一区在线观看麻豆| 欧美成人精品激情在线观看 | 川上优av一区二区线观看| 91精品人妻一区二区| 18aaaa精品欧美大片h| 成人动漫av在线| 欧美精品videosex牲欧美| 国产性猛交96| 激情aⅴ欧美一区二区欲海潮| 成人爱爱电影网址| 91久久在线观看| 中文字幕永久在线观看| caoporn成人| 久久精品视频一区二区三区| 欧美做受高潮电影o| brazzers精品成人一区| 中文无码日韩欧| 国产精品美女一区二区三区 | 日本在线视频网址| 日韩电影免费在线看| 亚洲成人精品视频在线观看| 日韩欧美国产综合在线| 精品视频一二三| 久久国产三级精品| 久久久久久久久久久免费精品| 中文字幕人妻一区二区三区| 波多视频一区| 国产精品国产三级国产有无不卡 | 欧美日韩国产精品一区二区三区| 国产综合色区在线观看| 国产精品美女视频| 亚洲高清在线观看一区| 国产精品高潮呻吟久久久| 1024精品久久久久久久久| 精品久久免费看| 狠狠热免费视频| 国产女主播在线写真| 99国产精品99久久久久久粉嫩| 欧美一级片免费看| 成人免费aaa| 国产无遮挡裸体视频在线观看| 中文字幕中文字幕一区二区| 亚洲激情一区二区| 天天干天天爱天天操| 日韩电影在线观看一区| 国产精品国内视频| 亚洲一区欧美在线| 日韩在线精品| 久久精品色欧美aⅴ一区二区| 亚洲少妇久久久| 青春草免费在线视频| 久久久久久夜精品精品免费| 欧美日韩高清免费| 秋霞网一区二区| 精品一区二区免费看| 久久久精品电影| 亚洲色婷婷一区二区三区| 国产一区二区精品久| 91久久免费观看| 国产成a人亚洲精v品在线观看| 国产成人毛毛毛片| 日韩国产欧美在线播放| 国产精品视频永久免费播放| 久久婷婷国产麻豆91| av日韩在线播放| 亚洲精品一区二区三区婷婷月| 国产极品美女高潮无套久久久| 国产日本在线观看| 国产精品不卡一区| 国产精品999视频| 成人国产网站| 91福利精品视频| 国产网站免费在线观看| 欧洲av一区二区| 日韩精品一区二区三区三区免费| 一卡二卡三卡视频| 九七久久人人| 香蕉成人啪国产精品视频综合网| 欧美激情专区| bt在线麻豆视频| 中文字幕亚洲欧美在线不卡| 欧美日韩在线观看一区| 免费**毛片在线| 狠狠综合久久av一区二区小说| 天堂av一区二区| 国产丝袜在线视频| 久久国产精品99精品国产| 人人做人人澡人人爽欧美| 国产精品伦理一区| 久久日一线二线三线suv| 国产欧美在线一区二区| 最新97超碰在线| 中文字幕在线播放不卡一区| 好吊妞无缓冲视频观看| 久久一级大片| 欧美大片在线观看一区二区| 成人在线短视频| 欧美三级美国一级| 亚洲欧美一区二区三区情侣bbw| 女人高潮一级片| 欧美爱爱视频| 天天色图综合网| 国产成人无码精品久久久性色| 激情黄产视频在线免费观看| 欧美一区二区三区视频免费播放| 毛葺葺老太做受视频| free欧美| 精品女同一区二区三区在线播放 | av文字幕在线观看| 国产精品久久久久影视| 97在线免费公开视频| 午夜精品久久久久久久久久蜜桃| 欧美一a一片一级一片| 毛葺葺老太做受视频| 日韩黄色三级| 色综合色综合色综合色综合色综合| 一本色道久久综合亚洲精品婷婷 | 精品不卡在线| 中文字幕理论片| 久久亚洲影视婷婷| 亚洲欧美日韩在线综合| 青青在线视频| 日韩免费观看高清完整版 | av国产精品| 欧美成人伊人久久综合网| 一区二区三区免费在线观看视频 | 日本黄色特级片| 99精品视频免费| 久久国产精品免费一区| 午夜精品久久久久久久96蜜桃| 日韩电影在线一区| 欧美一区二区三区四区在线观看地址| 亚洲黄色在线免费观看| 久久综合色之久久综合| 伊人成色综合网| 亚州av一区| 国产精品福利在线| 免费黄网站在线| 日韩一区二区在线免费观看| 99热精品免费| 97精品视频在线观看自产线路二| 俄罗斯精品一区二区三区| 国产免费一区二区三区最新不卡 | 一级黄色性视频| 91成人精品| 99九九电视剧免费观看| yw视频在线观看| 亚洲国产精品嫩草影院| 污视频网站观看| 希岛爱理av免费一区二区| 欧美亚州一区二区三区| a级片在线视频| 亚洲一区二区三区四区在线观看 | 欧美va天堂| 日韩av电影院| 日本激情一区二区| 亚洲乱码一区二区三区在线观看| 国产欧美自拍视频| 久久久久久久| 啊v视频在线一区二区三区| 西西44rtwww国产精品| 久久99国产精品久久99| 免费看成人av| 国产盗摄一区二区| 婷婷久久综合九色综合伊人色| 福利视频999| 亚洲伦理一区| 一级一片免费播放| 岛国精品在线| 久久99精品久久久久久青青91| 国产一级视频在线观看| 亚洲综合国产| 91精品久久久久久久久不口人| 精品久久人妻av中文字幕| 亚洲一区二区三区精品在线| 女人十八毛片嫩草av| 久久久久久穴| 天堂8在线天堂资源bt| 午夜日韩影院| 亚洲天堂成人在线| 天天综合网入口| 亚洲另类春色国产| 人妻一区二区视频| 成人午夜在线免费| 日本福利视频一区| 男人的天堂久久| 777午夜精品福利在线观看| 五月天丁香视频| 激情成人中文字幕| 国内毛片毛片毛片毛片毛片| 91麻豆精品秘密| 日韩一级免费在线观看| 国精品一区二区三区| 国产精品区二区三区日本| 国产乱码在线| 久久中文久久字幕| 91免费在线| 亚洲天堂免费视频| 久久久国产免费| 国产精品全国免费观看高清 | 99在线视频首页| 男女啪啪999亚洲精品| 日本精品一区二区三区在线播放视频| 久草视频在线看| 亚洲国产成人一区| 精品乱子伦一区二区| 欧美日韩国产区一| 开心激情五月网| 国产日韩欧美综合一区| 少妇毛片一区二区三区| 93久久精品日日躁夜夜躁欧美| 乱子伦视频在线看| 中文久久精品| 日韩欧美一区二区三区久久婷婷| 免费视频观看成人| 欧美激情第6页| 头脑特工队2在线播放| 91官网在线观看| 日韩色图在线观看| 国产精品久久久久久久久快鸭| 91亚洲一区二区| 国内久久精品视频| 亚洲黄色av片| 国产一区 二区 三区一级| 日韩av片在线看| 日韩一区二区三区免费播放| 五月婷婷一区| 97精品一区| 久久国产欧美精品| 伊人久久大香线蕉av不卡| 91久久国产精品| 嗯啊主人调教在线播放视频| 国模极品一区二区三区| 国产成人久久精品77777综合 | 在线精品免费视| 成人高清视频在线观看| 天天操天天爱天天爽| 青草av.久久免费一区| 大地资源网在线观看免费官网| 国产95亚洲| 国产91精品久久久久久久| 亚洲成a人片| 国产精品自产拍在线观看中文| 免费一二一二在线视频| 中文字幕在线成人| 天天摸夜夜添狠狠添婷婷| 欧美日韩综合一区| 五月婷婷激情网| 欧美性猛交xxxx乱大交蜜桃| 国精品无码一区二区三区| 一区二区三区中文字幕在线观看| www.久久av| 中文字幕在线免费不卡| 国产激情av在线| 久久综合一区二区| 国产在线观看无码免费视频| 欧美高清在线一区| 欧洲猛交xxxx乱大交3| 中文字幕中文乱码欧美一区二区| 欧美老熟妇乱大交xxxxx| 成人永久aaa| 国产三级av在线播放| 亚洲人成网站色在线观看| 亚洲午夜精品在线观看| 日韩专区一卡二卡| 亚洲黄色片免费| 99免费精品在线| 色哟哟无码精品一区二区三区| 性久久久久久| 亚洲综合av在线播放| 成人免费毛片app| 中文字幕黄色网址| 性久久久久久久久久久久| 亚洲性生活大片| 在线观看亚洲专区| 亚洲国产av一区二区三区| 欧美性色xo影院| 日韩成人一区二区三区| 亚洲综合视频网| 麻豆疯狂做受xxxx高潮视频| 日韩欧美一区二区三区久久| 99视频在线观看免费| 亚洲免费影视第一页| 性欧美猛交videos| 国产精品久久久久久av| 久久久久久久性潮| 九色91视频| 欧美日本精品| 国产免费一区二区视频| 日本强好片久久久久久aaa| 国产原创精品在线| 91麻豆免费看| 日本在线视频免费观看| 欧美性xxxx极品hd满灌| 性生活视频软件| 亚洲精品一二区| jizz日韩| 国产999在线| 国产精品一站二站| 亚洲激情电影在线| 日本中文在线一区| 日本网站在线看| 成人污污视频在线观看| 亚洲男女在线观看| 亚洲一区二区av电影| 国产熟女一区二区丰满| 久久网福利资源网站| 色综合.com| 亚洲最大色综合成人av| 捆绑变态av一区二区三区| 国产精品20p| 在线欧美日韩精品| 国产视频二区在线观看| 久久99精品久久久久久噜噜| 都市激情亚洲综合| 久久综合九色欧美狠狠| 91高清一区| 无人码人妻一区二区三区免费| 2020国产精品| 国产成人精品777777| 日韩欧美美女一区二区三区| 日韩av免费观影| 中文字幕日韩欧美在线| 日韩不卡视频在线观看| aa日韩免费精品视频一| 午夜日韩视频| 最新国产精品自拍| 亚洲国产欧美日韩另类综合| 亚洲精品一区二区三区区别| 在线观看不卡av| 黄页网站在线| 国产一区二中文字幕在线看| 色狮一区二区三区四区视频| 色18美女社区| 一二三区精品视频| 日夜干在线视频| 国产精品高清在线| 香蕉久久精品日日躁夜夜躁| 毛片av免费在线观看| 国产欧美一区二区三区沐欲| 久草视频手机在线观看| 欧美电影精品一区二区| 国产剧情在线| yy111111少妇影院日韩夜片| 中文日韩欧美| 亚洲女人毛茸茸高潮| 欧美性猛交xxxx乱大交极品| 成人高清网站| 亚洲最大福利网| 日韩情爱电影在线观看| 天天干天天曰天天操| 午夜伦理一区二区| 国产三级在线| 国产精品91一区| 丝袜久久网站| 日韩精品你懂的| 一区二区国产盗摄色噜噜| 99热这里只有精| 欧美一级大胆视频| 久久久久久久久久久妇女| 捆绑凌虐一区二区三区| 亚洲国产一区二区三区青草影视| 国产乱淫片视频| 国语自产精品视频在线看抢先版图片 | 激情五月色综合国产精品| 亚洲综合激情视频| 精品久久久久久久大神国产| 欧美高清视频| 久久99国产精品| 美女诱惑一区| 亚洲av鲁丝一区二区三区 | 国产熟女一区二区三区五月婷 | 日韩亚洲在线| 蜜桃视频最新网址|