免费领取大会全套演讲PPT    

点击领取

我要参会

游凯超

vLLM核心维护者

游凯超博士毕业于清华大学,自 2024 年访问加州大学伯克利分校以来,持续参与 vLLM 项目的开发工作。他是 vLLM 项目的核心维护者,负责 vLLM 的分布式推理架构、与 torch.compile 的集成、开源协作等多个方面的工作。

演讲主题

vLLM:人人可用、快速且低成本的大模型推理服务

vLLM 是一个高效且易用的大语言模型(LLM)推理和部署库。本次演讲将简要介绍 vLLM 项目的发展历程、背后的开源社区,并重点分享一些受用户关注的功能特性。

© boolan.com 博览 版权所有

沪ICP备15014563号-6

沪公网安备31011502003949号