LinkedIn采用协议缓冲区进行微服务集成,将延迟降低了60%

新闻资讯   2023-07-30 10:17   82   0  

作者 | Rafal Gancarz
译者 | 马可薇
策划 | Tina

领英采用协议缓冲区(Protocol Buffers),以实现其各类平台中更为高效的微服务间数据传递,并将其与开源框架 Rest.li 相集成。在全公司范围的推广完成后,领英将延迟降低了 60% 的同时,也提高了资源的利用率。

领英平台所采用的是微服务架构,而多年以来,JSON 一直都是领英在微服务暴露的五万余 API 节点中所使用的序列化格式。为帮助团队在服务间构建一致性交互,领英创建并开源了一款名为 Rest.li 的 Java 框架。

该框架可用于创建使用 REST 通信风格的服务器和客户端,并抽象网络、序列化、服务发现等数据交换的诸多方面。Rest.li 框架主要支持 Java 和 Python,但也可与 Scala、Kotlin、JavaScript、Go 等语言协同运作。

Rest.li 服务器和客户端之间的数据流和控制流(来源:Rest.li 文档)

Rest.li 的默认序列化格式为 JSON,这种格式支持多款语言且易于人类阅读,后者虽然好处甚多,但却给性能(尤其是延迟)方面带来了许多问题。

领英工程师 Karthik Ramgopal 和 Aman Gupta 分享了在使用 JSON 进行服务间通信所要面临的挑战:

第一个挑战在于,JSON 作为一款文本格式往往过于冗长,从而导致网络带宽的使用和延迟增加,效果并不理想。(……)我们所面临的第二个挑战则在于,JSON 的文本性质会导致序列化和反序列化的延迟和吞吐量均不甚理想。

领英团队一直在寻求 JSON 的替代方案,一款负载大小紧凑、系列化效率高,可减少延迟并提升吞吐量的方案。他们同时也希望这款方案不会限制所支持的语言栈数量,并能通过将这个新的序列化机制集成至 Rest.li 从而实现逐步迁移。最后,经过全面的思考,领英决定采用在各项考量中综合得分最高的协议缓冲区(Protobuf)。

将协议缓冲区集成到 Rest.li 中的主要困难在于 PDL,一个基于框架的自定义模式定义系统的动态模式生成。这套解决方案中需生成一个用于动态生成 Protobuf 模式定义的符号表,但根据客户端类型的不同,符号表的交付方式也会有所不同。后端客户端按需获取并缓存符号表,而网页或移动端应用的符号表则在构建时生成,且其中包含版本号依赖关系。

在对框架进行修改之后,领英团队通过 HTTP 头逐步对客户端进行重新配置,以 Protobuf 替代 JSON。采用协议缓冲区后,响应的吞吐量平均提高了 6.25%,请求的吞吐量平均提高了 1.77%。领英团队同样发现对大型负载而言,延迟降低了 60%。

JSON 和 Protobuf 的延迟比较(来源:领英将协议缓冲与 Rest.li 集成以提高微服务性能)

根据对协议缓冲区的采用所得来的经验,领英团队计划后续将 Rest.li 迁移至 gRPC。gRPC 同样使用协议缓冲区,并额外支持流式传输,其背后还有一个庞大社区的支持。

具体请见 InfoQ 博客:API 间的对决:REST vs. GraphQL vs. gRPC:该用哪一种?(https://www.infoq.com/podcasts/api-showdown-rest-graphql-grpc/

英文原文:

LinkedIn Adopts Protocol Buffers for Microservices Integration and Reduces Latency by up to 60%(https://www.infoq.com/news/2023/07/linkedin-protocol-buffers-restli/)

声明:本文为 InfoQ 翻译,未经许可禁止转载。

今日好文推荐

C# 和 TypeScript 之父亲自带队开源 TypeChat,又一 AI 技术瓶颈被攻破?

终于找到 ChatGPT “智商”下降的原因了!OpenAI 侧面回应,GPT 可能真被你们玩坏了?

微信取消秋招;谷歌软件工程师基本年薪超 500 万;通报批评员工到点下班?比亚迪回应 | Q资讯

十年磨砺,持续闯入“无人区”,这家公司如何做好金融科技?

文章引用微信公众号"InfoQ",如有侵权,请联系管理员删除!

博客评论
还没有人评论,赶紧抢个沙发~
发表评论
说明:请文明发言,共建和谐网络,您的个人信息不会被公开显示。