
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
轩辕大模型是国内首个开源的千亿级中文对话大模型,专门针对中文通用领域和金融领域进行了深度的预训练和微调。
轩辕大模型的发布,标志着中文对话系统技术的一个重要进步。它不仅为学术界和技术开发者提供了一个强大的研究和开发平台,也为中文金融对话系统的发展做出了重要贡献。使用轩辕大模型时,用户应遵守其非商业用途的限制,并在使用过程中保持谨慎,确保信息的准确性和适用性。