✅ 已完成功能
📅 未来计划
- ✅多供应商模型排行榜
- ✅暗黑模式无缝适配
- ✅移动端优先的响应式设计
- ✅动态数据可视化图表
- ✅供应商分类标签系统
- ✅供应商+创建者LOGO
- ✅模型名称搜索功能
- ✅侧边栏收起/展开功能
- ✅模型大小范围筛选(拖动条)
- ✅适配未知模型大小(XXX)
- 📅多语言国际化支持
- 📅预设主题切换(星空/极简/科技风)
- 📅用户自定义排序偏好
- 📅模型详情页面
- 📅性能测试历史记录
Free-LLMSpeed 是一个用于比较不同免费大语言模型响应速度的Web应用。通过可视化展示各模型的平均速度、最大/最小速度以及首token时间,帮助用户选择最适合自己需求的模型。
- 展示多个大语言模型的性能数据
- 可视化比较模型响应速度
- 提供详细的速度指标(平均速度、最大/最小速度)
- 显示首token响应时间
- 支持按提供商(硅基流动、BigModel等)、创建者(智谱AI、Deepseek等)筛选模型
- 支持按模型大小范围筛选
- 支持模型名称搜索
- 侧边栏可收起/展开,优化界面空间利用
- 确保已安装Node.js (v16+) 和 pnpm
- 克隆仓库
git clone https://github.com/mc506lw/free-llmspeed.git- 安装依赖
cd free-llmspeed
pnpm install- 启动开发服务器
pnpm dev- 打开浏览器访问 http://localhost:5173
- 在界面中查看和比较不同模型的性能数据
欢迎提交Pull Request来改进项目。请确保:
- 代码符合现有风格
- 提交前运行测试
- 更新相关文档
- 添加模型大小范围筛选功能(拖动条实现)
- 优化侧边栏,支持跟随滚动和收起/展开
- 添加模型名称搜索功能
- 适配未知模型大小(XXX)的显示和筛选
- 优化移动端和桌面端的用户体验
- 项目初始化
- 完成基础框架搭建
- 实现模型速度可视化功能
- 供应商+创建者LOGO