KoGPT:在韩国数据集上进行了预训练的GPT-2

时间:2024-05-26 17:42:45
【文件属性】:

文件名称:KoGPT:在韩国数据集上进行了预训练的GPT-2

文件大小:5KB

文件格式:ZIP

更新时间:2024-05-26 17:42:45

ai gpt-2 model-card

语 标签 执照 资料集 指标 KO kogpt2 gpt2 文字生成 麻省理工学院 数据集标识符数组 指标标识符数组 型号名称 KoGPT2 演示可在以下获得: 型号说明 GPT2和GPT3在约40GB的韩国数据集上进行了训练。 有关超参数的详细信息,请参见随附的json文件。 可用型号(培训ATM): KoGPT2-base(117M) KoGPT2-中(345M) KoGPT2-large(774M) KoGPT2-xlarge(1.5B) KoGPT2-2.7B TBA 模型可作为TF检查点文件提供或与兼容的模型 n_ctx可用:1024 2048 384 预期用途和限制 适用于韩国文本生成的AI-文字冒险( )与PPLM。 资料下载 从“发行”选项卡上的链接下载文件。 另外,它也可以从 如何使用 尝试 或转到并使用scripts / demo.py 局限性


【文件预览】:
KoGPT-master
----xl.json(304B)
----2.7B.json(329B)
----base.json(289B)
----large.json(290B)
----README.md(5KB)
----medium.json(312B)
----6.7B.json(329B)

网友评论