微信扫码
添加专属顾问
我要投稿
1:让人惊讶的是所有的供应商都提供对该模型的支持,开源让软件和模型共同开发变得非常容易。
2:目前Llama 3.1 405B是一个很难盈利的模型,要半台或一台机器才能运行,成本很高速度也不快,大部分供应商只有做到30 token/s才能保本,而70B的模型能做到150 token/s。
3:对于供应商来说还是能够收支平衡的,首先要做好量化同时控制好负载,但利润率肯定做不到80%(传统SaaS能做到)
4:量化是优化的标准解决方案,忘记FP16. Int8/FP8是大势所趋。
5:量化要非常小心,单一的scale量化将不复存在,未来需要channel wise / group量化方案。
6:他预测405B的采用会受到速度和价格的限制。但在未来一年左右的时间里,效率至少会提高4倍。
7:他很期待测试 Mistral Large 123B,不过该模型主要用于学术研究。
8:small model FTW,在垂直应用中,70B的模型足够了,甚至8B模型做好微调也很好。
9:llama 3.1鼓励进行模型微调。
10:vLLM是非常优秀的推理引擎。
11:Lepton AI是一个API大模型平台,速度、价格、并发性和成本需要综合考虑。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-27
Dify工具插件开发和智能体开发全流程实战
2025-05-27
一个让工作效率翻倍的AI神器,Cherry Studio你值得拥有!
2025-05-27
Docext:无需 OCR,本地部署的文档提取神器,企业数据处理新选择
2025-05-26
太猛了,字节把GPT-4o级图像模型开源了!
2025-05-26
Qwen3硬核解析:从36万亿Token到“思考预算”
2025-05-26
蚂蚁集团开源antv的MCP服务:AI智能体与数据可视化的桥梁如何搭建?
2025-05-26
MinerU:高精度纸媒文档解析与数据提取一站式解决方案
2025-05-26
顶级开发者默默换掉了基础大模型
2024-07-25
2025-01-01
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-07-11
2024-06-12
2024-12-26
2024-08-13
2025-05-26
2025-05-25
2025-05-23
2025-05-17
2025-05-17
2025-05-17
2025-05-16
2025-05-14