对话数据集:用于对话AI的大型数据集

时间:2024-02-25 07:49:36
【文件属性】:

文件名称:对话数据集:用于对话AI的大型数据集

文件大小:86KB

文件格式:ZIP

更新时间:2024-02-25 07:49:36

machine-learning datasets conversational-ai MachinelearningPython

会话数据集 用于对话响应选择的大型数据集的集合。 该存储库提供了用于创建可重现的数据集的工具,用于训练和评估会话响应模型。 这包括: -37亿条基于话题对话的评论 电影和电视字幕超过4亿行(提供英语和其他语言) -亚马逊产品中超过360万个问题-答案对 机器学习方法最适合诸如此类的大型数据集。 在PolyAI,我们在庞大的对话数据集上训练对话响应模型,然后将这些模型适应对话AI中特定领域的任务。 在庞大的数据集上对大型模型进行预训练的一般方法在图像社区中早已流行,现在在NLP社区中正在兴起。 除了提供原始处理的数据外,我们还提供脚本和说明来自行生成数据。 这使您可以查看并可能操纵预处


【文件预览】:
conversational-datasets-master
----BENCHMARKS.md(4KB)
----tools()
--------__init__.py(0B)
--------tfrutil.py(5KB)
----reddit()
--------testdata()
--------create_data_test.py(13KB)
--------create_data.py(11KB)
--------__init__.py(0B)
--------README.md(5KB)
----LICENSE(11KB)
----.isort.cfg(228B)
----amazon_qa()
--------create_data_test.py(7KB)
--------create_data.py(8KB)
--------__init__.py(0B)
--------README.md(4KB)
----baselines()
--------run_baselines.ipynb(19KB)
--------keyword_based_test.py(2KB)
--------__init__.py(0B)
--------run_baseline.py(10KB)
--------vector_based.py(21KB)
--------run_baselines.sh(1KB)
--------method.py(1KB)
--------README.md(6KB)
--------keyword_based.py(4KB)
--------vector_based_test.py(9KB)
----opensubtitles()
--------create_data_test.py(6KB)
--------create_data.py(9KB)
--------__init__.py(0B)
--------README.md(4KB)
----requirements.txt(2KB)
----.gitignore(821B)
----.circleci()
--------config.yml(1KB)
----README.md(15KB)
----polyai-logo.png(23KB)
----.flake8(259B)

网友评论