游凯超
vLLM核心维护者
游凯超博士毕业于清华大学,自 2024 年访问加州大学伯克利分校以来,持续参与 vLLM 项目的开发工作。他是 vLLM 项目的核心维护者,负责 vLLM 的分布式推理架构、与 torch.compile 的集成、开源协作等多个方面的工作。
演讲主题
vLLM:人人可用、快速且低成本的大模型推理服务
vLLM 是一个高效且易用的大语言模型(LLM)推理和部署库。本次演讲将简要介绍 vLLM 项目的发展历程、背后的开源社区,并重点分享一些受用户关注的功能特性。