明希BentoML 软件工程师 Python 开发。包管理器 PDM 作者。
提纲
- 大模型应用部署的挑战
- 使用 OpenLLM 快速启动一个大模型的应用
- 通过 OpenLLM 调用大语言模型
- 通过 OpenLLM 启动一个 HTTP server
- 使用命令行进行模型推理
- 使用 Python Client 与应用交互
- OpenLLM 与 langchain 的集成
- 模型推理性能的优化
- 使用 BentoML 工具构建并部署大模型应用
- BentoML 简介
- 构建一个 bento
- 将 Bento 部署到 bentocloud
听众收益
- 如何使用常见的 LLM 快速启动一个应用
- LLM 应用性能优化的方法
- BentoML 框架的安装与使用方法