创意电子

标题: 美团图数据库平台建立及业务实践 [打印本页]

作者: 美团技术团队    时间: 2021-4-1 20:10
标题: 美团图数据库平台建立及业务实践
图数据布局,能够更好地表征实际天下。美团业务相对较复杂,存在比较多的图数据存储及多跳查询需求,亟需一种组件来对千亿量级图数据进行管理,海量图数据的高效存储和查询是图数据库研究的核心课题。本文先容了美团在图数据库选型及平台建设方面的一些工作。

                               
登录/注册后可看大图

1 媒介

图数据布局,能够很自然地表征实际天下。比如用户、门店、骑手这些实体可以用图中的点来表示,用户到门店的消费行为、骑手给用户的送餐行为可以用图中的边来表示。使用图的方式对场景建模,便于描述复杂关系。在美团,也有比较多的图数据存储及多跳查询需求,概括起来主要包罗以下 4 个方面:

总体来说,美团需要一种组件来管理千亿级别的图数据,办理图数据存储以及多跳查询问题。海量图数据的高效存储和查询是图数据库研究的核心课题,怎样在大规模分布式场景中进行工程落地是我们面临的痛点问题。传统的关系型数据库、NoSQL 数据库可以用来存储图数据,但是不能很好处理图上多跳查询这一高频的操作。

Neo4j 公司在社交场景(见图1)里做了传统关系型数据库 MySQL 跟图数据库 Neo4j 的查询性能对比 [1],在一个包含 100 万人、每人约有 50 个朋友的社交网络里找最大深度为 5 的朋友的朋友,实验结果表明多跳查询中图数据库优势明显(见图 2)。然而选取大概自主研发一款高吞吐、低查询延时、能存储海量数据且易用的图数据库非常困难。下面将先容美团在图数据库选型及平台建设方面的一些工作。


                               
登录/注册后可看大图

图 1


                               
登录/注册后可看大图

图 2

2 图数据库选型

在图数据库的选型上我们主要思量了以下 5 点:(A) 项目开源,暂不思量需付费的图数据库;(B) 分布式架构设计,具备良好的可扩展性;(C) 毫秒级的多跳查询耽误;(D) 支持千亿量级点边存储;(E) 具备批量从数仓导入数据的能力。

分析 DB-Engines[2] 上排名前 30 的图数据库,剔除不开源的项目,我们将剩余的图数据库分为三类:

DGraph 是由前 Google 员工 Manish Rai Jain 离职创业后,在 2016 年推出的图数据库产物,底层数据模子是 RDF[12],基于 Go 语言编写,存储引擎基于 BadgerDB[13] 改造,使用 RAFT 保证数据读写的强一致性。

NebulaGraph 是由前 Facebook 员工叶小萌离职创业后,在 2019年 推出的图数据库产物,底层数据模子是属性图,基于 C++ 语言编写,存储引擎基于 RocksDB[14] 改造,使用 RAFT 保证数据读写的强一致性。

这两个项目的创始人都在互联网公司图数据库范畴深耕多年,对图数据库的落地痛点有深刻认识,整体的架构设计也有较多相似之处。在图数据库最终的选型上,我们基于 LDBC-SNB 数据集[15]对 NebulaGraph、DGraph、HugeGraph 进行了深度性能测评,测试详情见文章:主流开源分布式图数据库 Benchmark,从测试结果看 NebulaGraph 在数据导入、及时写入及多跳查询方面性能均优于竞品。别的,NebulaGraph 社区活跃,问题响应速度快,所以团队最终选择基于 NebulaGraph 来搭建图数据库平台。

3 NebulaGraph架构


                               
登录/注册后可看大图

图 3

一个完备的 NebulaGraph 集群包含三类服务,即 Query Service、Storage Service 和 Meta Service。每类服务都有其各自的可执行二进制文件,既可以部署在同一节点上,也可以部署在不同的节点上。下面是NebulaGraph 架构设计(见图 3)的几个核心点[16][17]。

NebulaGraph 基于 C++ 实现,架构设计支持存储千亿顶点、万亿边,并提供毫秒级别的查询延时。我们在 3 台 48U192G 物理机搭建的集群上灌入 10 亿美食图谱数据对 NebulaGraph 的功能进行了验证。

4 图数据库平台建设


                               
登录/注册后可看大图

图 4

为了统一管理图数据,淘汰工程同学在图数据库集群上的运维压力,我们基于开源分布式图数据库 NebulaGraph,搭建了一套一站式图数据库自助管理平台(见图 4),该平台包含以下 4 层:

与业界方案相比,团队主导设计的图数据库平台除了支持存储千亿顶点、万亿边,具备毫秒级别查询能力外,还提供了如下四项能力:应用可用性 SLA 达 99.99%;支持每小时百亿量级数据导入;及时写入数据时保证多集群数据最终一致性;易用的图谱可视化能力。下面将先容具体的设计思绪。

4.1 高可用模块设计


                               
登录/注册后可看大图

图 5

首先先容单应用多集群高可用模块的设计(AP 方案)。为什么有 AP 方案的设计呢?因为接入图数据库平台的业务方比较在意的指标是集群可用性。在线服务对集群的可用性要求非常高,最基础的要求是集群可用性能到达 4 个 9,即一年里集群的不可用时间要小于一个小时。对于在线服务来说,服务大概集群的可用性是整个业务的生命线,如果这点保证不了,即使集群提供的能力再多再丰富,那么业务方也不会思量使用,可用性是业务选型的基础。

另外,公司要求中间件要有跨区域容灾能力,即要具备在多个地域部署多集群的能力。我们分析了平台接入方的业务需求,大约 80% 的场景是 T+1 全量导入数据、线上只读。在这种场景下,对图数据的读写强一致性要求并不高,因此我们设计了单应用多集群这种部署方案。

AP 方案部署方式可以参考图 5,一个业务方在图数据库平台上创建了 1 个应用并部署了 4 个集群,此中北京 2 个、上海 2 个,平时这 4 个集群同时对外提供服务。假如现在北京集群 1 挂了,那么北京集群 2 可以提供服务。如果说真那么不巧,北京集群都挂了,大概北京侧对外的网络不可用,那么上海的集群也可以提供服务。在这种部署方式下,平台会尽大概地通过一些方式来保证整个应用的可用性。然后每个集群内部尽量部署同机房的机器,因为图数据库集群内部 RPC 非常多,如果有跨机房大概跨区域的频繁调用,整个集群对外的性能会比较低。


                               
登录/注册后可看大图

图 6

高可用模块主要包含下面 4 个部门,如上图 6 所示:

第一部门是右侧的图数据库 Agent,它是部署在图数据库集群的一个进程,用来网络机器和图数据库三个核心模块的信息,并上报到图数据库平台。Agent 能够吸收图数据库平台的命令并对图数据库进行操作。

第二部门是图数据库平台,它主要是对集群进行管理,并同步图数据库集群的状态到设置中心。

第三部门是图数据库 SDK,主要负责管理连接到图数据库集群的连接。如果业务方发送了某个查询请求,SDK 会进行集群的路由和负载平衡,选择出一条高质量的连接来发送请求。别的,SDK 还会处理图数据库集群中问题机器的自动降级以及恢复,而且支持平滑切换集群的数据版本。

第四部门是设置中心,类似 ZooKeeper,存储集群的当前状态。

4.2 每小时百亿量级数据导入模块设计


                               
登录/注册后可看大图

图 7

第二个模块是每小时百亿量级数据导入模块,平台在 2019 年底- 2020 年初全量导入数据的方式是调用 NebulaGraph 对外提供的批量数据导入接口,这种方式的数据写入速率大概是每小时 10 亿级别,导入百亿数据大概要泯灭 10 个小时,耗时较长。别的,在以几十万每秒的速度导数据的过程中,会长期占用机器的 CPU、IO 资源,一方面会对机器造成损耗,另一方面数据导入过程中集群对外提供的读性能会变弱。

为了办理上面两个问题,平台进行了如下优化:在 Spark 集群中直接生成图数据库底层文件 SST File,再借助 RocksDB 的 Bulkload 功能直接 ingest 文件到图数据库。

数据导入的核心流程可以参考图 7,当用户执行导数据操作后,图数据库平台会向公司的 Spark 集群提交一个 Spark 任务,在 Spark 任务中会生成图数据库里相关的点、边以及点索引、边索引相关的 SST 文件,并上传到美团的 S3 云存储上。文件生成后,图数据库平台会通知应用中多个集群去下载这些存储文件,之后完成 ingest 跟 compact 操作,最后完成数据版本的切换。

为分身各个业务方的不同需求,平台统一了应用导入、集群导入、离线导入、在线导入,以及全量导入、增量导入这些场景,然后细分成下面九个阶段,从流程上保证在导数据过程中应用整体的可用性:SST File 生成 、SST File 下载 、ingest、compact、数据校验、增量回溯、数据版本切换、集群重启、数据预热。

4.3 及时写入多集群数据同步模块设计


                               
登录/注册后可看大图

图 8

第三个模块是及时写入多集群数据同步模块,平台约有 15% 的需求场景是在及时读取数据时,还要把新产生的业务数据及时写入集群,而且对数据的读写强一致性要求不高。就是说,业务方写到图数据库里的数据,不需要立马能读到。针对上述场景,业务方在使用单应用多集群这种部署方案时,多集群里的数据需要保证最终一致性。针对这一需求,我们做了以下设计。

第一部门是引入 Kafka 组件,业务方在服务中通过 SDK 对图数据库进行写操作时,SDK 并不直接写图数据库,而是把写操作写到 Kafka 队列里,之后由该应用下的多个集群异步消费这个 Kafka 队列。

第二部门是集群在应用级别可设置消费并发度,来控制数据写入集群的速度。具体流程如下:


                               
登录/注册后可看大图

图 9

第三部门是在及时写入数据过程中,平台可以同步生成一个全量数据版本,并做平滑切换(见图 9),确保数据的不重、不漏、不耽误。

4.4 图可视化模块设计


                               
登录/注册后可看大图

图 10

第四个模块是图可视化模块(见图10),主要是用于办理子图探索问题。当用户在图数据库平台通过可视化组件检察图数据时,能尽量通过恰当的交互设计来制止因为节点过多而引发爆屏。主要包罗以下几个功能:

5 业务实践

5.1 智能助理


                               
登录/注册后可看大图

该项目数据是基于美团商户数据、用户评论构建的餐饮娱乐知识图谱,覆盖美食、酒店、旅游等范畴,包含 13 类实体和 22 类关系。现在,点边数量大概在百亿级别,数据 T+1 全量更新,主要用于办理搜索大概智能助理里 KBQA(全称:Knowledge Based Question Answer)类问题。核心处理流程是通过 NLP 算法识别关系和实体后构造出 NebulaGraph SQL 语句,再到图数据库获取数据。

典型的应用场景包罗商场找店,比如,某个用户想知道望京新荟城这个商场有没有海底捞,系统可以快速查出结果告诉用户;另一个场景是标签找店,用户想知道望京 SOHO 附近有没有适合情侣约会的餐厅,大概可以多加几个场景标签,系统都可以帮忙查找出来。

5.2 搜索召回


                               
登录/注册后可看大图

该项目数据是基于医美商家信息构建的医美知识图谱,包含 9 类实体和 13 类关系,点边数量在百万级别,同样也是 T+1 全量更新,主要用于大搜底层及时召回,返回与 Query 相关的商户、产物或医生信息,办理医美类搜索词少结果、无结果问题。比如,某个用户搜“啤酒肚”这种症状、大概“润百颜”这类品牌,系统可以召回相关的医美门店。

5.3 图谱保举理由


                               
登录/注册后可看大图

该项目数据来自用户的画像信息、商户的特性信息、用户半年内收藏/购买行为,数据量级是 10 亿级别,T+1 全量更新。现在美团 App 和点评 App 上默认的商户保举列表是由深度学习模子生成的,但模子并不会给出生成这个列表的理由,缺少可解释性。

而在图谱里用户跟商户之间天然存在多条连通路径,项目思量选出一条合适路径来生成保举理由,在 App 界面上展示给用户保举某家店的原因。该项目基于用户的协同过滤算法来生成保举理由,在故乡、消费水平、偏好类目、偏佳肴系等多个组合维度中找出多条路径,然后给这些路径打分,选出一条分值较高的路径,之后按照特定 Pattern 产出保举理由。通过上述方式,就可以获得“在北京喜欢北京菜的山东老乡都说这家店很赞”,大概“广州老乡都中意他家的正宗北京炸酱面”这类理由。

5.4 代码依赖分析


                               
登录/注册后可看大图

该项目把代码库中代码依赖关系写入到图数据库。代码库中存在很多服务代码,这些服务会包罗对外提供的接口,这些接口的实现依赖于该服务中某些类的成员函数,这些类的成员函数又依赖了本类的成员变量、成员函数大概其它类的成员函数,那么它们之间的依赖关系就形成了一张图,可以把这个图写到图数据库里做代码依赖分析。

典型应用场景是精准测试:当开发同学完成需求并向公司的代码堆栈提交了 PR 后,可以把更改及时地写到图数据库中。这样的话,开发同学就能查到他所写的代码影响了哪些外部接口,而且借助图可视化组件检察调用路径。如果开发同学本来是要改接口 A 的行为,改了很多代码,但是他大概并不知道他改的代码也会影响到对外接口 B、C、D,这时候就可以用代码依赖分析来做个 Check,增加测试的完备性。

6 总结与展望

现在,图数据库平台基本具备了对图数据的一站式自助管理功能。如果某个业务方要使用这种图数据库能力,那么业务方可以在平台上自助地创建图数据库集群、创建图的 Schema、导入图数据、设置导入数据的执行计划、引入平台提供的 SDK 对数据进行操作等等。平台侧主要负责各业务方图数据库集群的稳定性。现在,美团有三四十个业务已经在平台上落地,基本满足了各个业务方的需求。

将来规划主要有两个方向,第一,根据业务场景优化图数据库内核,提拔平台稳定性,开发的通用 Feature 连续反哺 NebulaGraph 社区。第二,发掘更多的图数据价值。现在平台仅支持图数据存储及多跳查询这种基本能力,后续将基于 NebulaGraph 去探索图学习、图计算的能力,为平台用户提供更多发掘图数据价值的功能。

7 作者信息

登昌、梁帅、高辰、杨鑫、尊远、王超等,均为美团搜索与NLP部工程师。

8 雇用信息

如果你对“图存储”、“图学习”、“图计算”感兴趣,接待给我们投递简历,投递邮箱:[email protected]

9 参考资料

| 本文系美团技术团队出品,著作权归属美团。接待出于分享和交换等非商业目的转载或使用本文内容,敬请注明“内容转载自美团技术团队”。本文未经允许,不得进行商业性转载大概使用。任何商用行为,请发送邮件至[email protected]申请授权。

作者: YELLY2008    时间: 2021-4-1 21:11
转发了
作者: 35岁程序员    时间: 2021-4-1 22:35
为啥arango不支持分布式?
作者: 大白老鼠    时间: 2021-4-2 12:32
转发了
作者: 数字征途    时间: 2021-4-2 13:17
转发了
作者: SmallCarp    时间: 2021-4-2 15:12
转发了
作者: 字节小范    时间: 2021-4-2 18:04
转发了
作者: 极智臻选    时间: 2021-4-2 19:23
转发了
作者: 挨踢在深圳    时间: 2021-4-2 21:54
转发了
作者: oniubi    时间: 2021-4-2 23:52
转发了
作者: 闻数起舞    时间: 2021-4-4 14:58
转发了
作者: 奥特曼起飞    时间: 2021-4-9 12:24
转发了
作者: 草驴肚子    时间: 2021-4-11 18:17
转发了
作者: 成长138466827    时间: 2021-4-16 07:50
星云数据库
作者: AndyLi3959    时间: 2021-4-27 01:30
转发了
作者: BEN    时间: 2021-4-29 08:59
转发了
作者: bjchen    时间: 2021-5-11 09:02
转发了
作者: westbricktoutia    时间: 2021-5-11 09:08
转发了
作者: 疯狂的坤叔    时间: 2021-5-11 09:20
转发了
作者: LamBowang    时间: 2021-5-11 09:27
转发了
作者: 某人的苏猿猿    时间: 2021-5-12 09:17
总结的很好




欢迎光临 创意电子 (https://wxcydz.cc/) Powered by Discuz! X3.4