FlashInfer: Kernel Library for LLM Serving
#大语言模型#Simple, scalable AI model deployment on GPU clusters
prima.cpp: Speeding up 70B-scale LLM inference on low-resource everyday home clusters
#大语言模型#一個基於 llama.cpp 的分佈式 LLM 推理程式,讓您能夠利用區域網路內的多台電腦協同進行大型語言模型的分佈式推理,使用 Electron 的製作跨平台桌面應用程式操作 UI。
#计算机科学#Source code of the paper "Private Collaborative Edge Inference via Over-the-Air Computation".
Official impl. of ACM MM paper "Identity-Aware Attribute Recognition via Real-Time Distributed Inference in Mobile Edge Clouds". A distributed inference model for pedestrian attribute recognition with...