从2023年7月开源的internLM到2024年7月开源的internLM2.5,书生浦语大模型的性能越来越强大,主要体现在推理能力领先,支持100万字上下文,自主规划和搜索完成复杂任务,这主要得益于高质量数据驱动的模型迭代。大量使用了高质量的合成数据,高质量合成数据来源基于规则的数据构造、基于模型的数据扩充、基于反馈的数据生成。
高质量合成数据:基于规则的数据构造、基于模型的数据扩充、基于反馈的数据生成
基于规划和搜索解决复杂问题:
书生浦语模型开源模型谱系
从2023年7月开源的internLM到2024年7月开源的internLM2.5,书生浦语大模型的性能越来越强大,主要体现在推理能力领先,支持100万字上下文,自主规划和搜索完成复杂任务,这主要得益于高质量数据驱动的模型迭代。大量使用了高质量的合成数据,高质量合成数据来源基于规则的数据构造、基于模型的数据扩充、基于反馈的数据生成。
高质量合成数据:基于规则的数据构造、基于模型的数据扩充、基于反馈的数据生成
基于规划和搜索解决复杂问题:
书生浦语模型开源模型谱系