(笔记+作业)书生大模型实战营春节卷王班---L1G1000 书生大模型全链路开源体系-书生浦语模型开源模型谱系

时间:2025-02-03 07:00:24

从2023年7月开源的internLM到2024年7月开源的internLM2.5,书生浦语大模型的性能越来越强大,主要体现在推理能力领先,支持100万字上下文,自主规划和搜索完成复杂任务,这主要得益于高质量数据驱动的模型迭代。大量使用了高质量的合成数据,高质量合成数据来源基于规则的数据构造、基于模型的数据扩充、基于反馈的数据生成。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

高质量合成数据:基于规则的数据构造、基于模型的数据扩充、基于反馈的数据生成
在这里插入图片描述
在这里插入图片描述

基于规划和搜索解决复杂问题:
在这里插入图片描述
书生浦语模型开源模型谱系

在这里插入图片描述