GitHub 中文社区
回车: Github搜索    Shift+回车: Google搜索
论坛
排行榜
趋势
登录

©2025 GitHub中文社区论坛GitHub官网网站地图GitHub官方翻译

  • X iconGitHub on X
  • Facebook iconGitHub on Facebook
  • Linkedin iconGitHub on LinkedIn
  • YouTube iconGitHub on YouTube
  • Twitch iconGitHub on Twitch
  • TikTok iconGitHub on TikTok
  • GitHub markGitHub’s organization on GitHub
vllm-project

vllm-project / vllm

星标53.76 k
复刻9.08 k

vLLM 是一个高效的开源库,用于加速大语言模型推理,通过优化内存管理和分布式处理实现高吞吐量和低延迟。


问题 官网
 
Loading

关于

A high-throughput and memory-efficient inference and serving engine for LLMs

docs.vllm.ai
gpt大语言模型PyTorchllmopsmlopsmodel-servingtransformerllm-servinginferencellamaamdrocmCUDAinferentiatrainiumtpuxpuhpudeepseekqwen
创建时间

2023-02-09

是否国产

否

  修改时间

2025-08-02T03:05:04Z


语言

  • Python84.8%
  • Cuda8.8%
  • C++4.8%
  • Shell0.7%
  • C0.5%
  • CMake0.3%
  • Dockerfile0.1%
  • 其他0.01%


该仓库已收录但尚未编辑。项目介绍及使用教程请前往 GitHub 阅读 README


0 条讨论

登录后发表评论

vllm-project 的其他开源项目

aibrix
@vllm-project

Cost-efficient and pluggable Infrastructure components for GenAI inference

Go3.95 k
7 天前
llm-compressor
@vllm-project

Transformers-compatible library for applying various compression algorithms to LLMs for optimized deployment with vLLM

compressionquantizationsparsity
Python1.71 k
2 天前
vllm-ascend
@vllm-project

#大语言模型#Community maintained hardware plugin for vLLM on Ascend

ascendinference大语言模型llm-servingllmops
Python946
21 小时前