您的位置:  首页 > 技术杂谈 > 正文

京东物流 × StarRocks : 打造服务分析一体化平台Udata

2022-07-12 17:00 https://my.oschina.net/u/5658056/blog/5553088 StarRocks 次阅读 条评论

作者:张栋,京东物流集团数据专家

 

京东集团 2007 年开始自建物流,2017 年 4 月正式成立京东物流集团,2021 年 5 月,京东物流于香港联交所主板上市。京东物流是中国领先的技术驱动的供应链解决方案及物流服务商,以“技术驱动,引领全球高效流通和可持续发展”为使命,致力于成为全球最值得信赖的供应链基础设施服务商。

基于5G、人工智能、大数据、云计算及物联网等底层技术,京东物流已经构建了一套全面的智能物流系统,实现服务自动化、运营数字化及决策智能化。截至 2021 年 12 月 31 日,京东物流在全国共运营 43 座“亚洲一号”大型智能仓库。到 2021 年,京东物流已经拥有及正在申请的技术专利和计算机软件版权超过 5500 项。

京东物流在运营数字化及决策智能化过程中,实时化运营分析的业务需求越来越多,原有平台架构中的数据孤岛、查询性能低、运维难度大、开发效率低等问题日益凸显。在此背景下,京东物流基于 StarRocks 的联邦查询方案打造了 Udata 统一查询引擎,高效解决了数据服务与数据分析的众多痛点,大大降低了开发运维成本,解决了查询引擎不统一和数据孤岛,让分析和服务不再分割。

 

原有数据应用的痛点

数据服务与数据分析场景是数据应用的两个大方向,数据工作从业者有可能会遇到以下问题:

数据服务

  • 烟囱式开发模式:每来一个需求开发一个数据服务,数据服务无法复用,难以平台化,技术上无法积累。

  • 服务维护难度大:当开发了大量数据服务后,后期维护是大问题。尤其是 618、双 11 大促期间,在没有统一的运维监控、限流降级、业务容灾方案的情况下,一个人维护上百个数据服务是很痛苦的,也造成了很大的安全隐患。

  • 业务需求量大:数据开发的同学常常会被大量重复枯燥的数据服务开发束缚,大量时间投入在业务数据服务开发中。

数据分析

  • 找数据难:用户难以找到自己所想,即便找到名称相近的指标或数据,由于指标定义不明确、不统一,也无法直接使用。

  • 用数据难:由于目前数据分布在各个系统中,用户无法用一个系统满足所有的数据需求。特别是一线运营人员,要通过从各个系统导出大量 Excel 表格的方式做数据分析,费时费力,同时也造成数据安全隐患。

  • 查询慢:用传统的 OLAP 引擎,用户跑 SQL 往往需要几分钟才出结果,大大降低了分析人员的效率。

  • 查询引擎不统一:系统可能有多种查询引擎组成,每一种查询引擎都有自己的 DSL,增大了用户的学习成本,同时需要跨多数据源查询也是一件很不方便的事。异构查询引擎带来的另一个问题是形成了数据孤岛,各系统间的数据之间无法相互关联。

  • 数据实时更新:传统离线T+1方式数据更新已经无法满足当今的实时化运营的业务诉求,这就要求系统需要到达秒级别的延迟。

除了以上问题,数据服务和数据分析系统也无法统一,分析产生的数据结果往往是离线的,需要额外开发数据服务,无法快速转化为线上服务赋能外部系统,使得分析和服务之间难以快速形成闭环。而且在以往数据加工过程中存储往往只考虑了当时的需求,当后续需求场景扩展,最初的存储引擎可能不适用,导致一份数据针对不同的场景要存储到不同的存储引擎,带来数据一致性隐患和成本浪费问题。

 

基于 StarRocks 的数据服务分析一体化实践

基于以上业务痛点,京东物流运营数据产品团队研发了服务分析一体化平台——Udata,Udata 系统是以 StarRocks 引擎为技术基础实现的。Udata 把数据指标生成的过程抽象出来,用配置的方式低代码化生成数据服务,大大降低了开发复杂性和难度,让非研发同学也可以根据自己的需求配置和发布数据服务。指标的开发时间由之前的一两天缩短为 30 分钟,大大解放了研发力。

平台化的指标管理体系和数据地图的功能,让用户更加直观和方便地查找与维护指标,同时也让指标复用变成可能。在数据分析方面,我们用基于 StarRocks 的联邦查询方案打造了 Udata 统一查询引擎,解决了查询引擎不统一和数据孤岛问题。

同时 StarRocks 提供了强悍的数据查询性能,无论是大宽表还是多表关联查询性能都十分出色。StarRocks 提供数据实时摄入的能力和多种实时数据模型,可以很好支持数据实时更新场景。Udata 系统把分析和服务结合在一起,让分析和服务不再是分割的两个过程,用户分析出有价值的数据后可以立即生成对应的数据服务,让服务分析快速闭环。 改造前的数据流程架构:

  • 实时数据由 JDQ (京东日志消息队列,类似 Apache Kafka)和 JMQ 导入 Apache Flink 做实时数据加工,加工后数据写入 ClickHouse 和 ElasticSearch,为数据服务和数据分析提供 OLAP 查询服务。

  • 离线数据由 Apache Spark 做个数仓层级加工,APP 层数据会同步至 MySQL 或 ClickHouse 做OLAP查询。

此架构中,在数据服务和数据分析是两个分隔的部分,分析工具由于要跨多数据源和不同的查询语言做数据分析比较困难的,数据服务也是烟囱式开发。 改造后的数据流程架构:

  • 实时链路方面,我们在原有的 ClickHouse 和 ElasticSearch 基础上引入 StarRocks,实现了极速的单表和多表查询能力。

后面我们又以 StarRocks 为基础打造统一查询引擎。统一查询引擎根据京东的业务特点增加了数据源和聚合下推等功能,Udata 在统一查询引擎的基础上,统一了数据分析和数据服务功能。

打造一款数据服务分析一体化系统对查询引擎有比较高的要求,需要同时满足:极速的查询性能、支持联邦查询、实时与离线存储统一。基于这三点要求,接下来,我们就StarRocks 的极速查询性能、我们对联邦查询的改造、实时场景的实践展开讨论。

StarRocks 的极速查询性能

极速查询的单表查询

StarRocks 在极速查询方面上做了很多,下面着重介绍四点:

1)向量化执行:StarRocks 实现了从存储层到查询层的全面向量化执行,这是 StarRocks 速度优势的基础。向量化执行充分发挥了 CPU 的处理能力。全面向量化引擎按照列式的方式组织和处理数据。StarRocks 的数据存储、内存中数据的组织方式,以及 SQL 算子的计算方式,都是列式实现的。按列的数据组织也会更加充分利用 CPU 的 Cache,按列计算会有更少的虚函数调用以及更少的分支判断,从而获得更加充分的 CPU 指令流水。另一方面,StarRocks 的全面向量化引擎通过向量化算法充分利用了 CPU 提供的 SIMD 指令。这样 StarRocks 可以用更少的指令数目,完成更多的数据操作。经过标准测试集的验证,StarRocks 的全面向量化引擎可以将执行算子的性能,整体提升 3-10 倍。

2)物化视图加速查询:在实际分析场景中,我们经常遇到分析百亿级大表的情况。尽管 StarRocks 性能优异,但数据量过大对查询速度还是有影响,此时在用户经常聚合的维度加上物化视图,在不改变查询语句的情况下查询速度能提升 10 **倍以上。**StarRocks 智能化的物化视图可以让请求自动匹配视图,无需手动查询视图。

3)CBO:CBO 优化器(Cost-based Optimizer ) 采用 Cascades 框架,使用多种统计信息来完善成本估算,同时补充逻辑转换(Transformation Rule)和物理实现(Implementation Rule)规则,能够在数万级别执行计划的搜索空间中,选择成本最低的最优执行计划。

4)自适应低基数优化:StarRocks 可以自适应地根据数据分布,对低基数的字符串类型的列构建一张全局字典,用 Int 类型做存储和查询,使得内存开销更小,有利于SIMD指令执行,加快了查询速度。Clickhouse 也有低基数优化,只是在建表时候需要声明,使用起来会麻烦一些。

极速的多表关联

在实时数据分析场景中只满足单表极速查询是不够的。为了加速查询速度,业内习惯于把多张表打成一张大宽表,大宽表虽速度快,但是带来的问题是极其不灵活,实时数据加工层是用 Flink 将多表 Join 成一张表写入大宽表。当业务方想修改或增加分析维度时,往往数据开发周期过长,数据加工完成后发现已经错过了分析最佳时机。因此就需要更灵活的数据模型,把大宽表模式退归回星型模型或者雪花模型是比较理想的方法。

在此场景下,查询引擎对多表数据关联查询的性能成了关键,以往 ClickHouse 以大宽表为主,多表联查情况下无法保证查询相应时间,甚至有很大几率出现 OOM。StarRocks 很好解决了这个问题,大表 Join 性能提升 3-5 倍以上,成为星型模型分析利器。CBO 是多表关联极致性能关键,同时StarRocks 支持 Broadcost Join、Shuffle Join、Bucket shuffle Join、Colocated Join、Replicated Join 等多种 Join 方式,CBO 可以智能地选择 Join 顺序和 Join 方式。

京东物流团队对 StarRocks 联邦查询的改造

StarRocks 在联邦查询上支持了多种外表如 ElasticSearch、MySQL、HIVE、数据湖等,已经有了很好的联邦查询基础。不过在实际的业务场景中,一些聚合类查询需要从外部数据源拉取数据再聚合,加上这些数据源自身的聚合性能也不错,反而增加了查询时间。

我们的思路是,让这部分擅长聚合的引擎自己做聚合,把聚合操作下推到外部引擎。目前符合这个优化条件的引擎有:MySQL、ElasticSearch、ClickHouse。同时为了兼容更多的数据源,我们还增加了 JSF(京东内部 RPC 服务)/ HTTP 数据源,下面重点介绍下这两部分:

MySQL、ElasticSearch 的聚合下推功能

现在 StarRocks 对于聚合外部数据源的方案是,拉取谓词下推后的全量数据。虽然谓词下推后已经过滤了一部分数据,但是把数据拉取到 StarRocks 再聚合是一个很重的操作,导致聚合时间不理想。我们选择下推聚合操作,让外部表引擎自己做聚合,节省数据拉取时间,同时本地化聚合效率更高。

首先看一个执行计划生成的过程: 1. SQL Parse:将 SQL 文本转换成一个 AST(抽象语法树) 2. SQL Analyze:基于 AST 进行语法和语义分析 3. SQL Logical Plan:将 AST 转换成逻辑计划 4. SQL Optimize:基于关系代数、统计信息、Cost 模型,对逻辑计划进行重写、转换,选择出 Cost “最低” 的物理执行计划 5. 生成 Plan Fragment:将 Optimizer 选择的物理执行计划转换为 BE 可以直接执行的 Plan Fragment

我们在步骤 4 中对生成的物理执行计划再次优化,当遇到 ElasticSearch 或者 MySQL 的聚合操作时,会把 ScanNode+AGGNode 的执行计划优化为 QueryNode。QueryNode 为一种特殊的ScanNode,与普通 ScanNode 的区别在于, QueryNode 会把聚合查询请求直接发送到对应外部引擎,而不是 Scan 数据后在本地执行聚合。

其中,用到 ElasticSearch QueryNode 时,我们会在 FE 端就生成 ElasticSearch 查询的 DSL 语句,直接下推到 BE 端查询 。同时在 BE 端,我们实现了 ElasticSearch QueryNode 和 MySQL QueryNode 这两种 QueryNode。我们也为这个 feature 设置了 agg_push_down 的开关,默认是关闭的。

参考下图查询语句,下方是来自 ElasticSearch 和 MySQL 的两个数据源聚合后 Join 查询的 SQL。原先的执行计划需要从数据源 Scan 大量数据后本地聚合,优化后去掉了这部分 Scan 和聚合的过程,直接拿到聚合后的数据。

上述 SQL 在优化后生成的执行计划变化如下:

 

增加 JSF(京东内部 RPC 服务)/ HTTP 数据源

数据服务中可能会涉及到整合外部数据服务和复用原先已开发指标的场景。我们的思路是,把JSF(京东内部 RPC 服务)/ HTTP 也抽象成 StarRocks 的外部表,用户可以通过 SQL 像查询数据库一样访问数据服务。这样不仅可以复用老的指标,还可以结合其他数据源的数据,生成新的复合指标。我们在 FE 和 BE 端同时增加 JSF 和 HTTP 两种 ScanNode。

实时场景的实践

京东物流实时数据绝大多数属于更新场景,运单类数据会根据业务状态的改变而改变,下面介绍我们在生产中的三种实时更新方案:

基于 ElasticSearch 的实时更新方案

原理: 1)内部先获取 document 2)内存中更新老的 document 3)将老的 document 标记为 deleted 4)创建新的 document

优点: 1) 支持数据实时更新,可以做到 Partial update

缺点: 1)ElasticSearch 聚合性能较差,当出现多个聚合维度时查询时间会很长 2)ElasticSearch 的 DSL语法增加了开发工作,虽然 ElasticSearch 可以支持简单 SQL,但是无法满足复杂的业务场景 3)旧数据清理难,当触发 Compaction 物理删除标记位文档时,会触发大量的 IO 操作,如果此时写入量又很大,严重影响读写性能

基于 ClickHouse 实现准实时的方案

原理: 1)使用 ReplacingMergeTree 的方式实现 2)将 Primary key 相同的数据分发到同一个数据节点的同一个数据分区 3)查询时做 Merge on read ,合并多版本数据读取

优点: 1)ClickHouse 写入基本是 Append 写入,所以写入性能强、

缺点: 1)由于读取时做版本合并,查询和并发性能较差 2)ClickHouse的 Join 性能不佳,会造成数据孤岛问题

基于 StarRocks 主键模型的实时更新方案

原理: StarRocks 收到对某行的更新操作时,会通过主键索引找到该条记录的位置,并对其标记为删除,再插入一条新的记录。这相当于把 Update 改写为 Delete+Insert。StarRocks 收到对某行的删除操作时,会通过主键索引找到该条记录的位置,对其标记为删除。这样在查询时不影响谓词下推和索引的使用,保证了查询的高效执行。查询速度比 Merge on read 方式快 5-10 倍。

优点: 1)只有唯一版本数据,查询性能强,实时更新 2)虽然 Delete+Insert 在写入性能有轻微损失,但总体上还是十分强悍 3)MySQL 协议,使用简单

缺点: 1)目前版本在数据删除上有一些限制,无法使用 Delete 语句进行删除,新版本中会增加此功能 实时更新场景总的来说有以下几种方案:

1)Merge on read :StarRocks 的聚合、Unique 模型和 ClickHouse 的ReplacingMergeTree、AggregatingMergeTree 都是用的此方案。此方案特点是 Append 方式写入性能好,但是查询时需要合并多版本数据,导致查询性能不佳。适合数据查询性能要求不高的实时分析场景。

2)Copy on write :目前一些数据湖系统如 Apache Hudi、Apache Iceberg 都有 Copy on write 的方案。此方案原理是,当有更新数据后,会合并新老数据并重写一份新的文件替换掉老文件,查询时无需做 Merge 操作,所以查询性能很好。带来的问题是,写入和合并数据的操作很重,所以此方案不适合实时性强的写入场景。

3)Delete and insert:此方案是 Upsert 方案,通过内存中的主键索引定位要更新的行,标记删除然后插入。在牺牲了部分写入性能的情况下,带来数倍于 Merge on read 的查询性能提升,同时也提升了并发性能。

实时更新在 OLAP 领域一直是一个技术难点,以往的解决方案很难同时具备写入性能好、读取性能好、使用简单这几个特性。StarRocks Delete and insert 方式目前更接近于理想的方案,在读写方面都有很优秀的性能,在支持 MySQL 协议方面非常简单友好。同时 Udata 的离线分析也是用StarRocks 完成,让京东物流实现了实时离线分析一体化的目标。

 

后续方向

数据湖探索

批流一体已经成为今后发展的大趋势,数据湖作为批流一体的存储载体已经成为标准,我们以后大方向也必然是批流一体。目前批流一体中一个大痛点问题是没有一种查询引擎可以在数据湖上做极速查询,后期我们会借助SR打造在湖上的极速分析能力,让批流一体不只停留在计算阶段。

架构图如下:

实时数据存储统一

目前系统中有多套实时存储方案,运维成本还是相当高,我们会逐步把 ElasticSearch、ClickHouse 替换为 StarRocks,在实时层做到存储统一。我们也很期待 StarRocks 后期关于主键模型支持 Detele 语句方式删除数据的功能,从而可以解决目前的数据清除问题。

支持更多的数据源

今后我们还会支持更多的数据源,如 Redis、Apache HBase 等 KV 类型的 NoSQL 数据库,增强 StarRocks 的点查能力。

StarRocks 集群间的联邦查询

在实际生产中很难做到只用一个大集群,特别是当有大量实时写入的情况,比较安全的做法是拆分不同的小集群,当一个集群出问题时不会影响其他业务。但是带来的问题是,集群间可能又会变为数据孤岛,即便把 StarRocks 伪装成 MySQL 创建外表,但也需要工具去同步各个集群的表结构等信息,管理起来费时费力,后续我们也会和社区讨论如何实现集群间的联邦功能,如果有对此感兴趣的社区小伙伴也可以一起来参与共建。

资源隔离

StarRocks 在 2.2 版本开始推出资源组的功能,可以有效隔离大小查询负荷,后续还会在大查询熔断、导入和查询负荷资源隔离方面推出更多功能。因此,一些体量较小的业务混合在同一集群上通过资源隔离的形式运行,将成为可能。

 

关于 StarRocks 

StarRocks 成立两年多来,一直专注打造世界顶级的新一代极速全场景 MPP 数据库,帮助企业建立“极速统一”的数据分析新范式,助力企业全面数字化经营。

当前已经帮助腾讯、携程、顺丰、Airbnb 、滴滴、京东、众安保险等超过 110 家大型用户构建了全新的数据分析能力,生产环境中稳定运行的 StarRocks 服务器数目达数千台。 

2021 年 9 月,StarRocks 源代码开放,在 Github 上的星数已超过 2900 个。StarRocks 的全球社区飞速成长,至今已有超百位贡献者,社群用户突破 5000 人,吸引几十家国内外行业头部企业参与共建。

 

 

展开阅读全文
  • 0
    感动
  • 0
    路过
  • 0
    高兴
  • 0
    难过
  • 0
    搞笑
  • 0
    无聊
  • 0
    愤怒
  • 0
    同情
热度排行
友情链接