Yi大模型是由李开复博士领导的AI公司“零一万物”发布的一款开源的中英双语预训练大模型。这个模型在多个性能指标上取得了国际最佳性能认可,被称为“全球最强开源模型”。Yi-34B模型特别之处在于它拥有全球最长的200K上下文窗口,能够处理40万汉字的超长文本输入,这在语言模型中是非常重要的,因为它对于理解和生成与特定上下文相关的文本至关重要。
Yi大模型的命名来自“一”的拼音“Yi”,其中的“Y”上下颠倒,形同汉字的“人”结合AI里的“i”,代表Human + AI,强调以人为本的精神,为人类创造价值。这个模型可以用于学术研究和免费商业使用,但正式的商业使用需要通过申请获得许可。它的开源属性为开发者提供了在更长上下文窗口进行微调的可能性,适合多元场景的应用。零一万物公司还计划推出更多的模型,包括更大尺寸的模型、对话模型、加强的数学和代码模型、多模态模型等。总的来说,Yi大模型是一个强大的工具,旨在推动AI技术的发展和应用。
Yi大模型的功能特点:
- 超长上下文窗口:Yi-34B模型支持200K超长上下文窗口,能够处理约40万汉字的超长文本输入,理解超过1000页的PDF文档。
- 高性能:在Hugging Face的评估中,Yi-34B在预训练基础大语言模型中排名第一,显示出其卓越的性能。
- 中文优势:Yi-34B在中文指标上具有优势,满足国内市场需求,并在多个中文评测中表现出色。
- AI基础架构技术:采用了AI Infra技术,实现了训练成本的显著下降和故障预测的高准确率。
- 开源与兼容性:模型开源,提供了微调代码,与主流语言模型微调框架兼容,方便开发者进行适配。
- 多模态能力:Yi系列模型计划包括对话模型、数学模型、代码模型和多模态模型等,适用于多元场景。
Yi大模型的使用指南
步骤一:环境配置
首先,确保你的系统满足以下条件:
- Python版本为3.8或以上。
- 已安装PyTorch 1.12或更高版本,推荐使用2.0及以上版本。
- CUDA版本为11.4或以上,以充分利用GPU加速。
步骤二:安装Yi大模型
安装依赖: 使用pip安装所需的库和依赖项
- pip install -r requirements.txt
下载模型: 从ModelScope社区下载Yi大模型的预训练权重。
- wget modelscope.yi/weights/yi-34b.pth
步骤三:模型推理
1、加载模型: 使用PyTorch加载下载的预训练权重。
- import torch
model = torch.load(‘yi-34b.pth’)
2、准备数据: 准备你的输入数据,确保它们符合模型的输入格式。
3、执行推理: 将数据输入模型并获取预测结果。
- predictions = model(input_data)
步骤四:模型微调
1、准备微调数据: 收集并准备你的微调数据集,确保数据质量。
2、微调模型: 使用提供的微调脚本对模型进行微调。
- python finetune.py –data_path your_dataset_path
3、评估微调模型: 在验证集上评估微调后的模型性能。