博客
关于我
笨办法学 Python 英文版(带目录)
阅读量:806 次
发布时间:2019-03-25

本文共 1284 字,大约阅读时间需要 4 分钟。

如何从 COMMITLOG 构建 CONSUMEUQUEUE 核心队列

前文已介绍了消息如何持久化到本地磁盘的 COMMITLOG 文件,现在我们将深入探讨如何从 COMMITLOG文件中构建消息消费的核心队列结构,即 CONSUMEUQUEUE。

文章结构

  • 工作原理概述

    • 组成结构:CONSUMEUQUEUE 是一个逻辑上的队列,涉及Topic与QueueId两个概念。它实际存储的消息文件与 COMMITLOG 相似,文件名代表消息偏移量(offset)。
    • 文件结构:每个 CONSUMEUQUEUE 记录包含 CommitLog Offset(8字节)、消息大小(4字节)和消息标签哈希码(8字节)。
  • 文件布局详解

    • 偏移量与大小:CommitLog Offset 为8字节,用于定位消息在 COMMITLOG 文件中的位置;Size 为4字节,指定消息的大小。
    • 哈希码过滤:Message Tag Hashcode 为8字节,用于快速过滤特定消息。每条消息占据20字节(8+4+8)。
  • 异步构建流程

    • 线程间隔同步:CONSUMEUQUEUE 的构建由异步线程负责,每1毫秒调用一次 doReput 方法进行同步。
    • 具体实现:DefaultMessageStore 中的 ReputMessageService 继承自 ServiceThread,内部通过 DefaultMessageStore#doReput 方法实现异步写入。
  • 核心实现逻辑

    • 读取消息:doReput 方法通过 offset 从 COMMITLOG 读取数据,namecheck 是一个关键的校验步骤。
    • 构建请求对象:读取成功后包装成 DispatchRequest 对象,包含Topic名称、偏移位置和消息大小。
    • 消息存储:调用 CommitLogDispatcher 进行构建。
  • 扩展功能与性能优化

    • 扩展配置:实现延迟写入(lazy writes),在特定条件下进行写入操作。
    • 文件大小管理:通过 MappedFile 类实现文件操作优化,减少 IO 操作影响。
  • 线上调试与验证

    • 调试工具使用:默认提供debug视图,供技术人员查看实时数据。
    • 校验机制:多重校验保证数据完整性,防止意外错误影响系统稳定性。
  • 通过以上步骤,我们可以清晰地看到 CONSUMEUQUEUE 的构建流程以及其在消息系统中的重要作用。

    相关技术背景

    • DefaultMessageStore 中的某些内部实现细节会直接影响系统的性能表现,如 mappedFilesize 和 filePacerSize 设置对系统吞吐量有直接影响。
    • 消息系统需要保证高效可靠,DefaultMessageStore 中的 ServiceThread 是处理大量异步写入的一个关键技术。

    总结

    从 CommitLog 到 ConsumeQueue 的转变是消息系统实现可靠性的关键环节。理解 ConsumeQueue 的构建机制有助于优化消息系统性能,确保其在高负载环境下的稳定性。这一机制展示了分布式系统设计中的高度优雅与复杂性。

    转载地址:http://qotyk.baihongyu.com/

    你可能感兴趣的文章
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
    查看>>
    NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
    查看>>
    nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
    查看>>
    NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
    查看>>
    NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
    查看>>
    Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
    查看>>
    NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
    查看>>
    NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
    查看>>
    NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
    查看>>
    NIFI大数据进阶_NIFI集群知识点_认识NIFI集群以及集群的组成部分---大数据之Nifi工作笔记0014
    查看>>
    NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
    查看>>
    NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
    查看>>
    NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
    查看>>