Convert Figma logo to code with AI

CLUEbenchmark logoCLUEDatasetSearch

搜索所有中文NLP数据集,附常用英文NLP数据集

4,075
605
4,075
9

Top Related Projects

TFDS is a collection of datasets ready to use with TensorFlow, Jax, ...

11,728

An open-source NLP research library, built on PyTorch.

3,495

Models, data loaders and abstractions for language processing, powered by PyTorch

29,635

💫 Industrial-strength Natural Language Processing (NLP) in Python

25,835

Library for fast text representation and classification.

Quick Overview

CLUEDatasetSearch is a GitHub repository that provides a comprehensive collection of Chinese language datasets for various natural language processing (NLP) tasks. It aims to facilitate research and development in Chinese NLP by offering a centralized resource for accessing and exploring diverse datasets.

Pros

  • Extensive collection of Chinese NLP datasets covering multiple tasks
  • Well-organized structure with clear categorization of datasets
  • Includes detailed information about each dataset, such as task type, size, and source
  • Regularly updated with new datasets and improvements

Cons

  • Limited to Chinese language datasets, which may not be useful for researchers working on other languages
  • Some datasets may require additional processing or formatting for specific use cases
  • Dependency on external sources for some datasets, which may lead to broken links or unavailable data
  • Lack of standardized evaluation metrics across all datasets

Code Examples

This repository is primarily a collection of datasets and does not include code libraries. Therefore, code examples are not applicable in this case.

Getting Started

As this is not a code library, there are no specific code-based getting started instructions. However, to begin using the datasets:

  1. Visit the repository: https://github.com/CLUEbenchmark/CLUEDatasetSearch
  2. Browse the available datasets in the README file
  3. Click on the dataset of interest to access more detailed information
  4. Follow the provided links or instructions to download or access the specific dataset
  5. Refer to the dataset's documentation for usage guidelines and formatting information

Competitor Comparisons

TFDS is a collection of datasets ready to use with TensorFlow, Jax, ...

Pros of datasets

  • Extensive collection of datasets across various domains
  • Well-integrated with TensorFlow ecosystem
  • Robust documentation and community support

Cons of datasets

  • Primarily focused on machine learning datasets
  • May have a steeper learning curve for beginners

Code comparison

CLUEDatasetSearch:

from CLUEDatasetSearch import CLUEDatasetSearch

searcher = CLUEDatasetSearch()
results = searcher.search("sentiment analysis")

datasets:

import tensorflow_datasets as tfds

dataset = tfds.load('imdb_reviews')
train_dataset = dataset['train']

Key differences

  • CLUEDatasetSearch focuses on Chinese language datasets, while datasets covers a broader range of languages and domains
  • CLUEDatasetSearch provides a search interface for finding relevant datasets, whereas datasets offers direct access to pre-processed datasets
  • datasets is more tightly integrated with TensorFlow, making it easier to use in TensorFlow-based projects

Use cases

CLUEDatasetSearch is ideal for:

  • Researchers working on Chinese NLP tasks
  • Those seeking a curated list of Chinese language datasets

datasets is better suited for:

  • Machine learning practitioners using TensorFlow
  • Projects requiring a wide variety of datasets across multiple domains
11,728

An open-source NLP research library, built on PyTorch.

Pros of AllenNLP

  • Comprehensive NLP toolkit with a wide range of pre-built models and components
  • Extensive documentation and tutorials for easy adoption
  • Active community and regular updates

Cons of AllenNLP

  • Steeper learning curve for beginners
  • Primarily focused on English language tasks
  • Larger codebase and dependencies

Code Comparison

AllenNLP:

from allennlp.predictors import Predictor

predictor = Predictor.from_path("https://storage.googleapis.com/allennlp-public-models/bert-base-srl-2020.03.24.tar.gz")
result = predictor.predict(sentence="Did Uriah honestly think he could beat the game in under three hours?")

CLUEDatasetSearch:

from CLUEDatasetSearch import CLUEDatasetSearch

searcher = CLUEDatasetSearch()
results = searcher.search("text classification dataset")

AllenNLP offers a more comprehensive toolkit for various NLP tasks, while CLUEDatasetSearch focuses specifically on Chinese language datasets. AllenNLP provides pre-built models and predictors, whereas CLUEDatasetSearch is primarily a search tool for datasets. The code examples demonstrate the different use cases: AllenNLP for model prediction and CLUEDatasetSearch for dataset discovery.

3,495

Models, data loaders and abstractions for language processing, powered by PyTorch

Pros of text

  • Broader scope, covering various NLP tasks and datasets
  • More extensive documentation and community support
  • Integrated with PyTorch ecosystem for seamless deep learning workflows

Cons of text

  • Less focused on Chinese language tasks and datasets
  • May require more setup and configuration for specific use cases
  • Potentially steeper learning curve for beginners

Code Comparison

CLUEDatasetSearch:

from CLUEDatasetSearch import CLUEDatasetSearch

searcher = CLUEDatasetSearch()
results = searcher.search("情感分析")
print(results)

text:

from torchtext.datasets import IMDB

train_dataset, test_dataset = IMDB(split=('train', 'test'))
for label, text in train_dataset:
    print(f"Label: {label}, Text: {text[:50]}...")

The CLUEDatasetSearch code demonstrates a simple search for Chinese NLP datasets, while the text example shows how to load and iterate through an English sentiment analysis dataset. text offers more flexibility for various NLP tasks, but CLUEDatasetSearch is more specialized for Chinese language datasets.

29,635

💫 Industrial-strength Natural Language Processing (NLP) in Python

Pros of spaCy

  • Comprehensive NLP library with a wide range of functionalities
  • Efficient and fast processing, suitable for large-scale applications
  • Extensive documentation and active community support

Cons of spaCy

  • Steeper learning curve for beginners
  • Primarily focused on English, with limited support for other languages
  • Requires more system resources compared to lightweight alternatives

Code Comparison

spaCy:

import spacy

nlp = spacy.load("en_core_web_sm")
doc = nlp("Apple is looking at buying U.K. startup for $1 billion")

for ent in doc.ents:
    print(ent.text, ent.label_)

CLUEDatasetSearch:

from CLUEDatasetSearch import CLUEDatasetSearch

searcher = CLUEDatasetSearch()
results = searcher.search("sentiment analysis dataset")

for result in results:
    print(result.name, result.description)

Summary

spaCy is a powerful NLP library with extensive features and performance optimizations, while CLUEDatasetSearch focuses on dataset discovery for Chinese language tasks. spaCy offers more comprehensive NLP capabilities but may be more complex for beginners, whereas CLUEDatasetSearch provides a simpler interface for finding relevant datasets in the CLUE benchmark collection.

25,835

Library for fast text representation and classification.

Pros of fastText

  • Efficient and fast text classification and word representation learning
  • Supports multiple languages and can handle large datasets
  • Provides pre-trained models and embeddings for various languages

Cons of fastText

  • Limited to shallow neural network architectures
  • May not capture complex semantic relationships as well as more advanced models
  • Requires careful preprocessing and hyperparameter tuning for optimal performance

Code Comparison

fastText:

import fasttext

model = fasttext.train_supervised("train.txt")
result = model.predict("example text")

CLUEDatasetSearch:

from CLUEDatasetSearch import CLUEDatasetSearch

searcher = CLUEDatasetSearch()
results = searcher.search("query", top_k=5)

While fastText focuses on text classification and word embeddings, CLUEDatasetSearch is primarily designed for searching and retrieving Chinese language datasets. fastText offers more general-purpose text processing capabilities, while CLUEDatasetSearch is specialized for dataset discovery within the CLUE (Chinese Language Understanding Evaluation) benchmark ecosystem.

Convert Figma logo designs to code with AI

Visual Copilot

Introducing Visual Copilot: A new AI model to turn Figma designs to high quality code using your components.

Try Visual Copilot

README

CLUEDatasetSearch

中英文NLP数据集。可以点击搜索。

您可以通过上传数据集信息贡献你的力量。上传五个或以上数据集信息并审核通过后,该同学可以作为项目贡献者,并显示出来。

clueai工具包: 三分钟三行代码搞定NLP开发(零样本学习)

gif

如果数据集有问题,欢迎提出issue。

所有数据集均来源于网络,只做整理供大家提取方便,如果有侵权等问题,请及时联系我们删除。

NER

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1CCKS2017中文电子病例命名实体识别2017年5月北京极目云健康科技有限公司数据来源于其云医院平台的真实电子病历数据,共计800条(单个病人单次就诊记录),经脱敏处理 电子病历命名实体识别\中文
2CCKS2018中文电子病例命名实体识别2018年医渡云(北京)技术有限公司 CCKS2018的电子病历命名实体识别的评测任务提供了600份标注好的电子病历文本,共需识别含解剖部位、独立症状、症状描述、手术和药物五类实体 电子病历命名实体识别\中文
3微软亚研院MSRA命名实体识别识别数据集\MSRA 数据来源于MSRA,标注形式为BIO,共有46365条语料 Msra命名实体识别\中文
41998人民日报语料集实体识别标注集1998年1月人民日报 数据来源为98年人民日报,标注形式为BIO,共有23061条语料 98人民日报命名实体识别\中文
5Boson\玻森数据 数据来源为Boson,标注形式为BMEO,共有2000条语料 Boson命名实体识别\中文
6CLUE Fine-Grain NER2020年CLUE CLUENER2020数据集,是在清华大学开源的文本分类数据集THUCTC基础上,选出部分数据进行细粒度命名实体标注,原数据来源于Sina News RSS。数据包含10个标签类别,训练集共有10748条语料,验证集共有1343条语料 细粒度;CULE命名实体识别\中文
7CoNLL-20032003CNTS - Language Technology Group 数据来源于CoNLL-2003的任务,该数据标注了包括PER, LOC, ORG和MISC的四个类别 CoNLL-2003命名实体识别论文英文
8微博实体识别2015年https://github.com/hltcoe/golden-horse EMNLP-2015命名实体识别
9SIGHAN Bakeoff 20052005年MSR/PKU bakeoff-2005命名实体识别

QA

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1NewsQA2019/9/13微软研究院 Maluuba NewsQA数据集的目的是帮助研究社区构建能够回答需要人类水平的理解和推理技能的问题的算法。包含超过12000篇新闻文章和120,000答案,每篇文章平均616个单词,每个问题有2~3个答案。 英文QA论文
2SQuAD斯坦福 斯坦福问答数据集(SQuAD)是一个阅读理解数据集,由维基百科的一组文章上提出的问题组成,其中每个问题的答案都是一段文本,可能来自相应的阅读段落,或者问题可能是未解答的。 英文QA论文
3SimpleQuestionsFacebook 基于存储网络的大规模简单问答系统, 数据集提供了一个多任务问答数据集,数据集有100K简单问题的回答。 英文QA论文
4WikiQA2016/7/14微软研究院 为了反映一般用户的真实信息需求,WikiQA使用Bing查询日志作为问题源。每个问题都链接到一个可能有答案的维基百科页面。因为维基百科页面的摘要部分提供了关于这个主题的基本且通常最重要的信息,所以使用本节中的句子作为候选答案。在众包的帮助下,数据集中包括3047个问题和29258个句子,其中1473个句子被标记为对应问题的回答句子。 英文QA论文
5cMedQA2019/2/25Zhang Sheng 医学在线论坛的数据,包含5.4万个问题,及对应的约10万个回答。 中文QA论文
6cMedQA22019/1/9Zhang Sheng cMedQA的扩展版,包含约10万个医学相关问题,及对应的约20万个回答。 中文QA论文
7webMedQA2019/3/10He Junqing 一个医学在线问答数据集,包含6万个问题和31万个回答,而且包含问题的类别。 中文QA论文
8XQA2019/7/29清华大学 该篇文章主要是针对开放式问答构建了一个跨语言的开放式问答数据集,该数据集(训练集、测试集)主要包括九种语言,9万多个问答。 多语言QA论文
9AmazonQA2019/9/29亚马逊 卡耐基梅隆大学针对亚马逊平台上问题重复回答的痛点,提出了基于评论的QA模型任务,即利用先前对某一产品的问答,QA系统自动总结出一个答案给客户 英文QA论文
9AmazonQA2019/9/29亚马逊 卡耐基梅隆大学针对亚马逊平台上问题重复回答的痛点,提出了基于评论的QA模型任务,即利用先前对某一产品的问答,QA系统自动总结出一个答案给客户 英文QA论文

情感分析

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1NLPCC20132013CCF\ 微博语料,标注了7 emotions: like, disgust, happiness, sadness, anger, surprise, fear。大小:14 000 条微博, 45 431句子 NLPCC2013, Emotion情感分析论文
2NLPCC2014 Task12014CCF\ 微博语料,标注了7 emotions: like, disgust, happiness, sadness, anger, surprise, fear。 大小:20000条微博 NLPCC2014, Emotion情感分析\
3NLPCC2014 Task22014CCF\ 微博语料,标注了正面和负面 NLPCC2014, Sentiment情感分析\
4Weibo Emotion Corpus2016The Hong Kong Polytechnic University\ 微博语料,标注了7 emotions: like, disgust, happiness, sadness, anger, surprise, fear。 大小:四万多条微博 weibo emotion corpus情感分析Emotion Corpus Construction Based on Selection from Noisy Natural Labels
5[RenCECPs](Fuji Ren can be contacted (ren@is.tokushima-u.ac.jp) for a license agreement.)2009Fuji Ren\ 标注的博客语料库,在文档级、段落级和句子级标注了emotion和sentiment。包含了1500个博客,11000段落和35000句子。 RenCECPs, emotion, sentiment情感分析Construction of a blog emotion corpus for Chinese emotional expression analysis
6weibo_senti_100k不详不详\ 带情感标注 新浪微博,正负向评论约各 5 万条 weibo senti, sentiment情感分析\
7BDCI2018-汽车行业用户观点主题及情感识别2018CCF 汽车论坛中对汽车的评论,标注了汽车的诗歌主题:动力、价格、内饰、配置、安全性、外观、操控、油耗、空间、舒适性。每个主题标注了情感标签,情感分为3类,分别用数字0、1、-1表示中立、正向、负向。 属性情感分析 主题情感分析情感分析\
8AI Challenger 细粒度用户评论情感分析2o18美团\ 餐饮评论,6个一级属性,20个二级属性,每个属性标注正面、负面、中性、未提及。 属性情感分析情感分析\
9BDCI2019金融信息负面及主体判定2019中原银行\ 金融领域新闻,每个样本标记了实体列表以及负面实体列表。任务是判断一个样本是否是负面以及对应的负面的实体。 实体情感分析情感分析\
10之江杯电商评论观点挖掘大赛2019之江实验室\ 本次品牌评论观点挖掘的任务是在商品评论中抽取商品属性特征和消费者观点,并确认其情感极性和属性种类。对于商品的某一个属性特征,存在着一系列描述它的观点词,它们代表了消费者对该属性特征的观点。每一组{商品属性特征,消费者观点}具有相应的情感极性(负面、中性、正面),代表了消费者对该属性的满意程度。此外,多个属性特征可以归入某一个属性种类,例如外观、盒子等属性特征均可归入包装这个属性种类。参赛队伍最终需提交对测试数据的抽取预测信息,包括属性特征词、观点词、观点极性和属性种类4个字段。 属性情感分析情感分析\
112019搜狐校园算法大赛2019搜狐\ 给定若干文章,目标是判断文章的核心实体以及对核心实体的情感态度。每篇文章识别最多三个核心实体,并分别判断文章对上述核心实体的情感倾向(积极、中立、消极三种)。实体:人、物、地区、机构、团体、企业、行业、某一特定事件等固定存在,且可以作为文章主体的实体词。核心实体:文章主要描述、或担任文章主要角色的实体词。 实体情感分析情感分析\

文本分类

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1[2018“达观杯”文本智能处理挑战赛](https://www.pkbigdata.com/common/cmpt/ “达观杯”文本智能处理挑战赛_赛体与数据.html)2018年7月达观数据 数据集来源于达观数据,为长文本分类任务,其主要包括了id,article,word_seg和class四个字段,数据包含19个类别,共102275条样本 长文本;脱敏文本分类\中文
2今日头条中文新闻(文本)分类2018年5月今日头条 数据集来源于今日头条,为短文本分类任务,数据包含15个类别,共382688条样本 短文本;新闻文本分类\中文
3THUCNews中文文本分类2016年清华大学THUCNews是根据新浪新闻RSS订阅频道2005~2011年间的历史数据筛选过滤生成,均为UTF-8纯文本格式。我们在原始新浪新闻分类体系的基础上,重新整合划分出14个候选分类类别:财经、彩票、房产、股票、家居、教育、科技、社会、时尚、时政、体育、星座、游戏、娱乐,共74万篇新闻文档(2.19 GB)文档;新闻文本分类\中文
4复旦大学中文文本分类\复旦大学计算机信息与技术系国际数据库中心自然语言处理小组 数据集来源于复旦大学,为短文本分类任务,数据包含20个类别,共9804篇文档 文档;新闻文本分类\中文
5新闻标题短文本分类2019年12月chenfengshfCC0 公共领域共享 数据集来源于Kesci平台,为新闻标题领域短文本分类任务。内容大多为短文本标题(length<50),数据包含15个类别,共38w条样本 短文本;新闻标题文本分类\中文
62017 知乎看山杯机器学习挑战赛2017年6月中国人工智能学会;知乎 数据集来源于知乎,为问题及话题标签的绑定关系的标注数据,每个问题有 1 个或多个标签,累计1999 个标签,共包含 300 万个问题 问题;短文本文本分类\中文
72019之江杯-电商评论观点挖掘大赛2019年8月之江实验室 本次品牌评论观点挖掘的任务是在商品评论中抽取商品属性特征和消费者观点,并确认其情感极性和属性种类。对于商品的某一个属性特征,存在着一系列描述它的观点词,它们代表了消费者对该属性特征的观点。每一组{商品属性特征,消费者观点}具有相应的情感极性(负面、中性、正面),代表了消费者对该属性的满意程度 评论;短文本文本分类\中文
8IFLYTEK' 长文本分类\科大讯飞 该数据集共有1.7万多条关于app应用描述的长文本标注数据,包含和日常生活相关的各类应用主题,共119个类别 长文本文本分类\中文
9全网新闻分类数据(SogouCA)2012年8月16号搜狗 该数据来自若干新闻站点2012年6月—7月期间国内,国际,体育,社会,娱乐等18个频道的新闻数据 新闻文本分类\中文
10搜狐新闻数据(SogouCS)2012年8月搜狗 数据来源为搜狐新闻2012年6月—7月期间国内,国际,体育,社会,娱乐等18个频道的新闻数据 新闻文本分类\中文
11中科大新闻分类语料库2017年11月刘禹 中国科学院自动化研究所综合信息中心 暂时不能下载,已经联系作者,等待反馈 新闻
12ChnSentiCorp_htl_all2018年3月https://github.com/SophonPlus/ChineseNlpCorpus 7000 多条酒店评论数据,5000 多条正向评论,2000 多条负向评论
13waimai_10k2018年3月https://github.com/SophonPlus/ChineseNlpCorpus 某外卖平台收集的用户评价,正向 4000 条,负向 约 8000 条
14online_shopping_10_cats2018年3月https://github.com/SophonPlus/ChineseNlpCorpus 10 个类别,共 6 万多条评论数据,正、负向评论各约 3 万条, 包括书籍、平板、手机、水果、洗发水、热水器、蒙牛、衣服、计算机、酒店
15weibo_senti_100k2018年3月https://github.com/SophonPlus/ChineseNlpCorpus 10 万多条,带情感标注 新浪微博,正负向评论约各 5 万条
16simplifyweibo_4_moods2018年3月https://github.com/SophonPlus/ChineseNlpCorpus 36 万多条,带情感标注 新浪微博,包含 4 种情感, 其中喜悦约 20 万条,愤怒、厌恶、低落各约 5 万条
17dmsc_v22018年3月https://github.com/SophonPlus/ChineseNlpCorpus 28 部电影,超 70 万 用户,超 200 万条 评分/评论 数据
18yf_dianping2018年3月https://github.com/SophonPlus/ChineseNlpCorpus 24 万家餐馆,54 万用户,440 万条评论/评分数据
19yf_amazon2018年3月https://github.com/SophonPlus/ChineseNlpCorpus 52 万件商品,1100 多个类目,142 万用户,720 万条评论/评分数据

文本匹配

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1LCQMC2018/6/6哈工大(深圳)智能计算研究中心Creative Commons Attribution 4.0 International License 该数据集共包含来自多个领域的260068个中文问句对,相同询问意图的句子对标记为1,否则为0;并预先将其切分为了训练集:238766对,验证集:8802对,测试集:12500对 大规模问句匹配;意图匹配短文本匹配;问句匹配论文
2The BQ Corpus2018/9/4哈工大(深圳)智能计算研究中心;微众银行 该数据集共有120000个句子对,来自银行一年中的咨询服务日志;句子对包含不同的意图,标记正负样本比例为1:1 银行服务问句;意图匹配短文本匹配;问句一致性检测论文
3AFQMC 蚂蚁金融语义相似度2018/4/25蚂蚁金服提供10万对的标注数据(分批次更新,已更新完毕),作为训练数据,包括同义对和不同义对金融问句短文本匹配;问句匹配
4第三届拍拍贷“魔镜杯”大赛2018/6/10拍拍贷智慧金融研究院 train.csv文件包含3列,分别是标签(label,表示问题1和问题2是否表示相同的意思,1表示相同,0表示不同),问题1的编号(q1)和问题2的编号(q2)。本文件中出现的所有问题编号均在question.csv中出现过 金融产品短文本匹配;问句匹配
5CAIL2019相似案例匹配大赛2019/6清华大学;中国裁判文书网 对于每份数据,用三元组(A,B,C)来代表该组数据,其中A,B,C均对应某一篇文书。文书数据A与B的相似度总是大于A与B的相似度的,即sim(A,B)>sim(A,C) 法律文书;相似案例长文本匹配
6CCKS 2018 微众银行智能客服问句匹配大赛2018/4/5哈工大(深圳)智能计算研究中心;微众银行 银行服务问句;意图匹配短文本匹配;问句匹配
7ChineseTextualInference2018/12/15刘焕勇,中国科学院软件研究所 中文文本推断项目,包括88万文本蕴含中文文本蕴含数据集的翻译与构建,基于深度学习的文本蕴含判定模型构建 中文NLI中文文本推断;文本蕴含
8NLPCC-DBQA2016/2017/2018NLPCC 给定问题-答案,以及该答案是否是该问题的答案之一的标记,1表示是,0表示不是 DBQA问答匹配
9“技术需求”与“技术成果”项目之间关联度计算模型201/8/32CCF 给定文本形式的技术需求和技术成果,以及需求与成果的关联度标签;其中技术需求与技术成果之间的关联度分为四个层级: 强相关、较强相关、弱相关、无相关 长文本;需求与成果匹配长文本匹配
10CNSD / CLUE-CMNLI2019/12ZengJunjun 中文自然语言推理数据集,本数据及通过翻译加部分人工修正的方法,从英文原数据集生成,可以一定程度缓解中文自然语言推理和语义相似度计算数据集不够的问题 中文NLI中文自然语言推断论文
11cMedQA v1.02017/4/5寻药寻医网 和国防科技大学 信息系统及管理 学院 该数据集来源为寻医寻药网站中的提问和回答, 数据集做过匿名处理,提供的是包含 训练集中有50,000个问题,94,134个答案,平均每个问题、答案字符数分别为为120、212个; 验证集有2,000个问题,有3774个答案,问题和答案的平均字符数分别为117和212个; 测试集有2,000个问题,有3835个答案,问题和答案的平均字符数分别为119和211个; 数据集总量有54,000个问题,101,743个答案,平均每个问题和答案的字符数分别为119、212个; 医疗问答匹配问答匹配论文
12cMedQA22018/11/8寻药寻医网 和国防科技大学 信息系统及管理 学院 该数据集来源为寻医寻药网站中的提问和回答, 数据集做过匿名处理,提供的是包含 训练集中有100,000个问题,188,490个答案,平均每个问题、答案字符数分别为为48、101个; 验证集有4,000个问题,有7527个答案,问题和答案的平均字符数分别为49和101个; 测试集有4,000个问题,有7552个答案,问题和答案的平均字符数分别为49和100个; 数据集总量有108,000个问题,203,569个答案,平均每个问题和答案的字符数分别为49、101个; 医疗问答匹配问答匹配论文
13ChineseSTS2017/9/21唐善成, 白云悦, 马付玉. 西安科技大学 该数据集提供了12747对中文相似数据集,在数据集后 作者给出了他们相似度的打分,语料由短句构成。 短句相似度 匹配相似度匹配
14中国健康信息处理会议 举办的医疗问题相似度 衡量竞赛数据集2018CHIP 2018-第四届中国健康信息处理会议(CHIP) 本次评测任务的主要目标是针对中文的真实患者健康咨询语料,进行问句意图匹配。 给定两个语句,要求判定两者意图是否相同或者相近。 所有语料来自互联网上患者真实的问题,并经过了筛选和人工的意图匹配标注。 数据集经过脱敏处理,问题由数字标示 训练集包含20000条左右标注好的数据(经过脱敏处理,包含标点符号), 测试集包含10000条左右无label的数据(经过脱敏处理,包含标点> 符号)。 医疗问题相似度 匹配相似度匹配
15COS960: A Chinese Word Similarity Dataset of 960 Word Pairs2019/6/6清华大学 该数据集中包含了960对单词, 并且每对单词都被15个母语者用相似度分数来衡量 这960个词对根据标签被分成三组, 包含480对名词,240对动词和240对形容词。 单词之间的相似度同义词论文
16OPPO手机搜索排序query-title语义匹配数据集。(https://pan.baidu.com/s/1Hg2Hubsn3GEuu4gubbHCzw 密码7p3n)2018/11/6OPPO 该数据集来自于OPPO手机搜索排序优化实时搜索场景, 该场景就是在用户不断输入过程中,实时返回查询结果。 该数据集在此基础上做了相应的简化, 提供了一个query-title语义匹配,即ctr预测的问题。 问题标题匹配, ctr预测相似度匹配
17网页搜索结果评价(SogouE)2012年搜狗搜狗实验室数据使用许可协议 该数据集包含了查询词,相关URL以及查询类别的搜索数据,格式如下 数据格式说明:查询词]\t相关的URL\t查询类别 其中URL保证存在于对应的互联网语料库; 查询类别中“1”表示导航类查询;“2”表示信息类查询 Automatic Search Engine Performance Evaluation with Click-through Data Analysis查询类型匹配预测

文本摘要

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1LCSTS2015/8/6Qingcai Chen 数据集来源于新浪微博,包含两百万左右真实中文短文本,每条数据包括由作者标注的摘要和正文两个字段。另外有10,666条数据由人工标注出短文本与摘要的相关性,从1-5相关性依次增加。 单文本摘要;短文本;文本相关性文本摘要论文
2中文短文本摘要数据集2018/6/20He Zhengfang 数据来源于新浪微博主流媒体发布的微博,共679898条数据。 单文本摘要;短文本文本摘要\
3教育培训行业抽象式自动摘要中文语料库2018/6/5匿名 语料库收集了教育培训行业主流垂直媒体的历史文章,约24500条数据,每条数据包括由作者标注的摘要和正文两个字段。 单文本摘要;教育培训文本摘要\
4NLPCC2017 Task32017/11/8NLPCC2017主办方 数据集来源于新闻领域,是NLPCC2017举办提供的任务数据,可用于单文本摘要。 单文本摘要;新闻文本摘要\
5神策杯20182018/10/11DC竞赛主办方 数据来源于新闻文本,由DC竞赛主办方提供,模拟业务场景,以新闻文本的核心词提取为目的,最终结果达到提升推荐和用户画像的效果。 文本关键字;新闻文本摘要\
6Byte Cup 2018国际机器学习竞赛2018/12/4字节跳动 数据来自字节跳动旗下产品TopBuzz和开放版权的文章,训练集包括了约 130 万篇文本的信息,验证集 1000 篇文章, 测试集 800 篇文章。 每条测试集和验证集的数据经由人工编辑手工标注多个可能的标题,作为答案备选。 单文本摘要;视频;新闻文本摘要\英文
7NEWSROOM2018/6/1Grusky 数据是从1998年到2017年的搜索和社交元数据中获得,并使用了多种提取和抽象相结合的摘要策略,包含作者和编辑在38个主要出版物编辑部撰写的130万篇文章和摘要。 单文本摘要;社交元数据;搜索文本摘要论文英文
8[DUC/TAC](https://duc.nist.gov/ https://tac.nist.gov//)2014/9/9NIST 全称Document Understanding Conferences/Text Analysis Conference,数据集来源于每年的TAC KBP(TAC Knowledge Base Population)比赛使用的语料库中的新闻专线和网络文本。 单文本/多文本摘要;新闻文本摘要\英文
9CNN/Daily Mail2017/7/31StandfordGNU v3 数据集是从美国有线新闻网(CNN)和每日邮报(DailyMail)中手机大约一百万条新闻数据作为机器阅读理解语料库。 多文本摘要;长文本;新闻文本摘要论文英文
10Amazon SNAP Review2013/3/1Standford 数据来源于Amazon网站购物评论,可以获取每个大类别(如美食、电影等)下的数据,也可以一次性获取所有数据。 多文本摘要;购物评论文本摘要\英文
11Gigaword2003/1/28David Graff, Christopher Cieri 数据集包括约950w 篇新闻文章,用文章标题做摘要,属于单句摘要数据集。 单文本摘要;新闻文本摘要英文
12RA-MDS2017/9/11Piji Li 全称Reader-Aware Multi-Document Summarization,数据集来源于新闻文章,由专家收集、标注和审查。涵盖了45个主题,每个主题包含10个新闻文档和4个模型摘要,每个新闻文档平均包含27个句子,每个句子平均包含25个单词。 多文本摘要;新闻;人工标注文本摘要论文英文
13TIPSTER SUMMAC2003/5/21The MITRE Corporation and the University of Edinburgh 数据由183篇Computation and Language (cmp-lg) collection标记的文档组成,文档取自ACL会议发表论文。 多文本摘要;长文本文本摘要\英文
14WikiHow2018/10/18Mahnaz Koupaee 每条数据为一篇文章,每篇文章由多个段落组成,每个段落以一个总结它的句子开头。通过合并段落形成文章和段落大纲形成摘要,数据集的最终版本包含了超过200,000个长序列对。 多文本摘要;长文本文本摘要论文英文
15Multi-News2019/12/4Alex Fabbri 数据来自1500多个不同网站的输入文章以及从网站newser.com获得的56,216篇这些文章的专业摘要。 多文本摘要文本摘要论文英文
16MED Summaries2018/8/17D.Potapov 数据集用于动态视频摘要评估,包含160个视频的注释,其中验证集60、测试集100,测试集中有10个事件类别。 单文本摘要;视频注释文本摘要论文英文
17BIGPATENT2019/7/27Sharma 数据集包括130万份美国专利文献记录以及人类书面抽象摘要,摘要包含更丰富的话语结构和更多的常用实体。 单文本摘要;专利;书面语文本摘要论文英文
18[NYT]( https://catalog.ldc.upenn.edu/LDC2008T19)2008/10/17Evan Sandhaus 全称The New York Times,数据集包含150篇来自纽约时报的商业文章,抓取了从2009年11月到2010年1月纽约时报网站上的所有文章。 单文本摘要;商业文章文本摘要\英文
19The AQUAINT Corpus of English News Text2002/9/26David Graff 数据集由新华社(中华人民共和国)、纽约时报新闻服务和美联社世界新闻服务的英文新闻文本数据组成,包含大约3.75亿字。数据集收费。 单文本摘要;新闻文本摘要\中文和英文
20Legal Case Reports Data Set2012/10/19Filippo Galgani 数据集来自2006-2009年澳大利亚联邦法院(FCA)的澳大利亚法律案例,包含约4000个法律案件及其摘要。 单文本摘要;法律案件文本摘要\英文
2117 Timelines2015/5/29G. B. Tran 数据是从新闻文章网页中提取的内容,包含埃及、利比亚、也门、叙利亚四个国家的新闻。 单文本摘要;新闻文本摘要论文多语言
22PTS Corpus2018/10/9Fei Sun 全称Product Title Summarization Corpus,数据为移动设备显示电子商务应用中的产品名称摘要 单文本摘要;短文本文本摘要论文
23Scientific Summarization DataSets2019/10/26Santosh Gupta 数据集取自Semantic Scholar Corpus和ArXiv。来自Semantic Scholar语料库的标题/摘要对,过滤掉生物医学领域的所有论文,包含580万条数据。来自ArXiv的数据,包含了从1991年开始到2019年7月5日的每篇论文的标题/摘要对。数据集包含金融类数据10k,生物学类26k,数学类417k,物理类157万,CS类221k。 单文本摘要;论文文本摘要\英文
24Scientific Document Summarization Corpus and Annotations from the WING NUS group2019/3/19Jaidka 数据集包括ACL计算语言学和自然语言处理研究论文,以及各自的引用论文和三个输出摘要:传统作者的论文摘要(摘要)、社区摘要(引用语句“引文”的收集)和由训练有素的注释员撰写的人类摘要,训练集包含40篇文章和引用论文。 单文本摘要;论文文本摘要论文英文

机器翻译

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1WMT20172017/2/1EMNLP 2017 Workshop on Machine Translation 数据主要来源于 Europarl corpus和UN corpus两个机构, 附带2017年从News Commentary corpus 任务中重新抽取的文章。 这是由EMNLP会议提供的翻译语料, 作为很多论文效果 的benchmark来检测 Benchmark, WMT2017中英翻译 语料论文
2WMT20182018/11/1EMNLP 2018 Workshop on Machine Translation数据主要来源于 Europarl corpus和UN corpus两个机构, 附带2018年从News Commentary corpus 任务中重新抽取的文章。 这是由EMNLP会议提供的翻译语料, 作为很多论文效果 的benchmark来检测Benchmark, WMT2018中英翻译 语料论文
3WMT20192019/1/31EMNLP 2019 Workshop on Machine Translation 数据主要来源于 Europarl corpus和UN corpus两个机构, 以及附加了 news-commentary corpus and the ParaCrawl corpus中来得数据 Benchmark, WMT2019中英翻译 语料论文
4UM-Corpus:A Large English-Chinese Parallel Corpus2014/5/26Department of Computer and Information Science, University of Macau, Macau 由澳门大学发布的 中英文对照的 高质量翻译语料 UM-Corpus;English; Chinese;large中英翻译 语料论文
5[Ai challenger translation 2017](https://pan.baidu.com/s/1E5gD5QnZvNxT3ZLtxe_boA 提取码: stjf)2017/8/14创新工场、搜狗和 今日头条联合发起的 AI科技竞赛 规模最大的口语领域英中双语对照数据集。 提供了超过1000万的英中对照的句子对作为数据集合。 所有双语句对经过人工检查, 数据集从规模、相关度、质量上都有保障。 训练集:10,000,000 句 验证集(同声传译):934 句 验证集(文本翻译):8000 句 AI challenger 2017中英翻译 语料
6MultiUN2010Department of Linguistics and Philology Uppsala University, Uppsala/Sweden 该数据集由德国人工智能研究中心提供, 除此数据集外,该网站还提供了很多的别 的语言之间的翻译对照语料供下载 MultiUN中英翻译 语料MultiUN: A Multilingual corpus from United Nation Documents, Andreas Eisele and Yu Chen, LREC 2010
7NIST 2002 Open Machine Translation (OpenMT) Evaluation2010/5/14NIST Multimodal Information GroupLDC User Agreement for Non-Members 数据来源于Xinhua 新闻服务包含70个新闻故事, 以及来自于Zaobao新闻服务的30个新闻故事,共100个 从两个新闻集中选择出来的故事的长度都再212到707个 中文字符之间,Xinhua部分共有有25247个字符, Zaobao有39256个字符 NIST中英翻译 语料论文该系列有多年的数据, 该数据使用需要付费
8The Multitarget TED Talks Task (MTTT)2018Kevin Duh, JUH 该数据集包含基于TED演讲的多种语言的平行语料,包含中英文等共计20种语言 TED中英翻译 语料The Multitarget TED Talks Task
9ASPEC Chinese-Japanese2019Workshop on Asian Translation 该数据集主要研究亚洲区域的语言,如中文和日语之间, 日语和英文之间的翻译任务 翻译语料主要来自语科技论文(论文摘要;发明描述;专利等等) Asian scientific patent Japanese中日翻译语料http://lotus.kuee.kyoto-u.ac.jp/WAT/
10casia20152015research group in Institute of Automation , Chinese Academy of Sciences 语料库包含从网络自动收集的大约一百万个句子对 casia CWMT 2015中英翻译语料
11casict20112011research group in Institute of Computing Technology , Chinese Academy of Sciences 语料库包含2个部分,每个部分包含从网络自动收集 的大约1百万(总计2百万)个句子对。 句子级别的对齐精度约为90%。 casict CWMT 2011中英翻译语料
12casict20152015research group in Institute of Computing Technology , Chinese Academy of Sciences 语料库包含大约200万个句子对,包括从网络(60%), 电影字幕(20%)和英语/汉语词库(20%)收集的句子。 句子水平对齐精度高于99%。 casict CWMT 2015中英翻译语料
13datum20152015Datum Data Co., Ltd. 语料库包含一百万对句子,涵盖不同类型, 例如用于语言教育的教科书,双语书籍, 技术文档,双语新闻,政府白皮书, 政府文档,网络上的双语资源等。 请注意,数据中文部分的某些部分是按词段划分的。 datum CWMT 2015中英翻译语料
14datum20172017Datum Data Co., Ltd. 语料库包含20个文件,涵盖不同类型,例如新闻,对话,法律文件,小说等。 每个文件有50,000个句子。 整个语料库包含一百万个句子。 前10个文件(Book1-Book10)的中文词均已分段。 datum CWMT 2017中英翻译语料
15neu20172017NLP lab of Northeastern University, China 语料库包含从网络自动收集的200万个句子对,包括新闻,技术文档等。 句子级别的对齐精度约为90%。 neu CWMT 2017中英翻译语料
16翻译语料(translation2019zh)2019徐亮 可以用于训练中英文翻译系统,从中文翻译到英文,或从英文翻译到中文; 由于有上百万的中文句子,可以只抽取中文的句子,做为通用中文语料,训练词向量或做为预训练的语料。英文任务也可以类似操作;

知识图谱

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1NLPIR微博关注关系语料库100万条2017/12/2北京理工大学网络搜索挖掘与安全实验室张华平博士 NLPIR微博关注关系语料库说明 1.NLPIR微博关注关系语料库由北京理工大学网络搜索挖掘与安全实验室张华平博士,通过公开采集与抽取从新浪微博、腾讯微博中获得。为了推进微博计算的研究,现通过自然语言处理与信息检索共享平台(127.0.0.1/wordpress)予以公开共享其中的1000万条数据(目前已有数据接近10亿,已经剔除了大量的冗余数据); 2.本语料库在公开过程中,已经最大限度地采用技术手段屏蔽了用户真实姓名和url,如果涉及到的用户需要全面保护个人隐私的,可以Email给张华平博士kevinzhang@bit.edu.cn予以删除,对给您造成的困扰表示抱歉,并希望谅解; 3.只适用于科研教学用途,不得作为商用;引用本语料库,恭请在软件或者论文等成果特定位置表明出处为:NLPIR微博语料库,出处为自然语言处理与信息检索共享平台(http://www.nlpir.org/)。 4.字段说明: person_id 人物的id guanzhu_id 所关注人的id

语料库

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1NLPIR微博内容语料库-23万条2017年12月北京理工大学网络搜索挖掘与安全实验室张华平博士 NLPIR微博内容语料库说明 1.NLPIR微博内容语料库由北京理工大学网络搜索挖掘与安全实验室张华平博士,通过公开采集与抽取从新浪微博、腾讯微博中获得。为了推进微博计算的研究,现通过自然语言处理与信息检索共享平台(127.0.0.1/wordpress)予以公开共享其中的23万条数据(目前已有数据接近1000万,已经剔除了大量的冗余数据)。 2.本语料库在公开过程中,已经最大限度地采用技术手段屏蔽了用户真实姓名和url,如果涉及到的用户需要全面保护个人隐私的,可以Email给张华平博士kevinzhang@bit.edu.cn予以删除,对给您造成的困扰表示抱歉,并希望谅解; 3.只适用于科研教学用途,不得作为商用;引用本语料库,恭请在软件或者论文等成果特定位置表明出处为:NLPIR微博语料库,出处为自然语言处理与信息检索共享平台(http://www.nlpir.org/)。 4.字段说明: id 文章编号 article 正文 discuss 评论数目 insertTime 正文插入时间 origin 来源 person_id 所属人物的id time 正文发布时间 transmit 转发
2500万微博语料2018年1月北京理工大学网络搜索挖掘与安全实验室张华平博士 【500万微博语料】北理工搜索挖掘实验室主任@ICTCLAS张华平博士 提供500万微博语料供大家使用,文件为sql文件,只能导入mysql数据库,内含建表语句,共500万数据。语料只适用于科研教学用途,不得作为商用;引用本语料库,请在软件或者论文等成果特定位置表明出处 。 【看起来这份数据比上面那一份要杂糅一些,没有做过处理】
3NLPIR新闻语料库-2400万字2017年7月www.NLPIR.org NLPIR新闻语料库说明 1.解压缩后数据量为48MB,大约2400万字的新闻; 2.采集的新闻时间跨度为2009年10月12日至2009年12月14日。 3.文件名为新闻的时间;每个文件包括多个新闻正文内容(已经去除了新闻的垃圾信息); 4.新闻本身内容的版权属于原作者或者新闻机构; 5.整理后的语料库版权属于www.NLPIR.org; 6.可供新闻分析、自然语言处理、搜索等应用提供测试数据场景; 如需更大规模的语料库,可以联系NLPIR.org管理员。
4NLPIR微博关注关系语料库100万条2017年12月北京理工大学网络搜索挖掘与安全实验室张华平博士 NLPIR微博关注关系语料库说明 1.NLPIR微博关注关系语料库由北京理工大学网络搜索挖掘与安全实验室张华平博士,通过公开采集与抽取从新浪微博、腾讯微博中获得。为了推进微博计算的研究,现通过自然语言处理与信息检索共享平台(127.0.0.1/wordpress)予以公开共享其中的1000万条数据(目前已有数据接近10亿,已经剔除了大量的冗余数据); 2.本语料库在公开过程中,已经最大限度地采用技术手段屏蔽了用户真实姓名和url,如果涉及到的用户需要全面保护个人隐私的,可以Email给张华平博士kevinzhang@bit.edu.cn予以删除,对给您造成的困扰表示抱歉,并希望谅解; 3.只适用于科研教学用途,不得作为商用;引用本语料库,恭请在软件或者论文等成果特定位置表明出处为:NLPIR微博语料库,出处为自然语言处理与信息检索共享平台(http://www.nlpir.org/)。 4.字段说明: person_id 人物的id guanzhu_id 所关注人的id
5NLPIR微博博主语料库100万条2017年9月北京理工大学网络搜索挖掘与安全实验室张华平博士 NLPIR微博博主语料库说明 1.NLPIR微博博主语料库由北京理工大学网络搜索挖掘与安全实验室张华平博士,通过公开采集与抽取从新浪微博、腾讯微博中获得。为了推进微博计算的研究,现通过自然语言处理与信息检索共享平台(127.0.0.1/wordpress)予以公开共享其中的100万条数据(目前已有数据接近1亿,已经剔除了大量的冗余与机器粉丝) 2.本语料库在公开过程中,已经最大限度地采用技术手段屏蔽了用户真实姓名和url,如果涉及到的用户需要全面保护个人隐私的,可以Email给张华平博士kevinzhang@bit.edu.cn予以删除,对给您造成的困扰表示抱歉,并希望谅解; 3.只适用于科研教学用途,不得作为商用;引用本语料库,恭请在软件或者论文等成果特定位置表明出处为:NLPIR微博语料库,出处为自然语言处理与信息检索共享平台(http://www.nlpir.org/)。 4.字段说明: id 内部id sex 性别 address 家庭住址 fansNum 粉丝数目 summary 个人摘要 wbNum 微博数量 gzNum 关注数量 blog 博客地址 edu 教育情况 work 工作情况 renZh 是否认证 brithday 生日;
6NLPIR短文本语料库-40万字2017年8月北京理工大学网络搜索挖掘与安全实验室 (SMS@BIT) NLPIR短文本语料库说明 1.解压缩后数据量为48万字,大约8704篇短文本内容; 2.整理后的语料库版权属于www.NLPIR.org; 3.可供短文本自然语言处理、搜索、舆情分析等应用提供测试数据场景;
7维基百科语料库\维基百科 维基百科会定期打包发布语料库
8古诗词数据库2020年github主爬虫,http://shici.store
9保险行业语料库2017年 该语料库包含从网站Insurance Library 收集的问题和答案。 据我们所知,这是保险领域首个开放的QA语料库: 该语料库的内容由现实世界的用户提出,高质量的答案由具有深度领域知识的专业人士提供。 所以这是一个具有真正价值的语料,而不是玩具。 在上述论文中,语料库用于答复选择任务。 另一方面,这种语料库的其他用法也是可能的。 例如,通过阅读理解答案,观察学习等自主学习,使系统能够最终拿出自己的看不见的问题的答案。 数据集分为两个部分“问答语料”和“问答对语料”。问答语料是从原始英文数据翻译过来,未经其他处理的。问答对语料是基于问答语料,又做了分词和去标去停,添加label。所以,"问答对语料"可以直接对接机器学习任务。如果对于数据格式不满意或者对分词效果不满意,可以直接对"问答语料"使用其他方法进行处理,获得可以用于训练模型的数据。
10汉语拆字字典1905年7月 本倉庫含開放詞典網用以提供字旁和部件查詢的拆字字典數據庫,有便利使用者查難打漢字等用途。目前數據庫收錄17,803不同漢字的拆法,分為繁體字(chaizi-ft.txt)和簡體字(chaizi-jt.txt)兩個版本。 拆字法有別於固有的筆順字庫。拆字著重於儘量把每個字拆成兩個以上的組成部件,而不是拆成手寫字時所使用的筆畫。
11新闻预料2016年徐亮 可以做为【通用中文语料】,训练【词向量】或做为【预训练】的语料; 也可以用于训练【标题生成】模型,或训练【关键词生成】模型(选关键词内容不同于标题的数据); 亦可以通过新闻渠道区分出新闻的类型。
12百科类问答json版(baike2018qa)2018年徐亮 可以做为通用中文语料,训练词向量或做为预训练的语料;也可以用于构建百科类问答;其中类别信息比较有用,可以用于做监督训练,从而构建 更好句子表示的模型、句子相似性任务等。
13社区问答json版(webtext2019zh) :大规模高质量数据集2019年徐亮 1)构建百科类问答:输入一个问题,构建检索系统得到一个回复或生产一个回复;或根据相关关键词从,社区问答库中筛选出你相关的领域数据 2)训练话题预测模型:输入一个问题(和或描述),预测属于话题。 3)训练社区问答(cQA)系统:针对一问多答的场景,输入一个问题,找到最相关的问题,在这个基础上基于不同答案回复的质量、 问题与答案的相关性,找到最好的答案。 4)做为通用中文语料,做大模型预训练的语料或训练词向量。其中类别信息也比较有用,可以用于做监督训练,从而构建更好句子表示的模型、句子相似性任务等。 5)结合点赞数量这一额外信息,预测回复的受欢迎程度或训练答案评分系统。
14.维基百科json版(wiki2019zh)2019年徐亮 可以做为通用中文语料,做预训练的语料或构建词向量,也可以用于构建知识问答。【不同于wiki原始释放的数据集,这个处理过了】

阅读理解

ID标题更新日期数据集提供者许可说明关键字类别论文地址备注
1百度WebQA2016百度\ 来自于百度知道;格式为一个问题多篇意思基本一致的文章,分为人为标注以及浏览器检索阅读理解、百度知道真实问题中文阅读理解论文
2DuReader 1.02018/3/1百度Apache2.0 本次竞赛数据集来自搜索引擎真实应用场景,其中的问题为百度搜索用户的真实问题,每个问题对应5个候选文档文本及人工整理的优质答案。 阅读理解、百度搜索真实问题中文阅读理解论文
3SogouQA2018搜狗\CIPS-SOGOU问答比赛数据;来自于搜狗搜索引擎真实用户提交的查询请求;含有事实类与非事实类数据阅读理解、搜狗搜索引擎真实问题中文阅读理解\
4中文法律阅读理解数据集CJRC2019/8/17哈工大讯飞联合实验室(HFL)\ 数据集包含约10,000篇文档,主要涉及民事一审判决书和刑事一审判决书。通过抽取裁判文书的事实描述内容,针对事实描述内容标注问题,最终形成约50,000个问答对 阅读理解、中文法律领域中文阅读理解论文
52019“讯飞杯”中文机器阅读理解数据集(CMRC )2019年10月哈工大讯飞联合实验室(HFL)CC-BY-SA-4.0 本次阅读理解的任务是句子级填空型阅读理解。 根据给定的一个叙事篇章以及若干个从篇章中抽取出的句子,参赛者需要建立模型将候选句子精准的填回原篇章中,使之成为完整的一篇文章。 句子级填空型阅读理解中文阅读理解\赛事官网:https://hfl-rc.github.io/cmrc2019/
62018“讯飞杯”中文机器阅读理解数据集(CMRC )2018/10/19哈工大讯飞联合实验室(HFL)CC-BY-SA-4.0 CMRC 2018数据集包含了约20,000个在维基百科文本上人工标注的问题。同时,我们还标注了一个挑战集,其中包含了需要多句推理才能够正确解答的问题,更富有挑战性 阅读理解、基于篇章片段抽取中文阅读理解论文赛事官网:https://hfl-rc.github.io/cmrc2018/
72017“讯飞杯”中文机器阅读理解数据集(CMRC )2017/10/14哈工大讯飞联合实验室(HFL)CC-BY-SA-4.0 首个中文填空型阅读理解数据集PD&CFT 填空型阅读理解中文阅读理解论文赛事官网
8莱斯杯:全国第二届“军事智能机器阅读”挑战赛2019/9/3中电莱斯信息系统有限公司\ 面向军事应用场景的大规模中文阅读理解数据集,围绕多文档机器阅读理解进行竞赛,涉及理解、推理等复杂技术。 多文档机器阅读理解中文阅读理解\赛事官网
9ReCO2020搜狗\ 来源于搜狗的浏览器用户输入;有多选和直接答案 阅读理解、搜狗搜索中文阅读理解论文\
10DuReader-checklist2021/3百度Apache-2.0 建立了细粒度的、多维度的评测数据集,从词汇理解、短语理解、语义角色理解、逻辑推理等多个维度检测模型的不足之处,从而推动阅读理解评测进入“精细化“时代 细粒度阅读理解中文阅读理解\赛事官网
11DuReader-Robust2020/8百度Apache-2.0 从过敏感性,过稳定性以及泛化性多个维度构建了测试阅读理解鲁棒性的数据 百度搜索、鲁棒性阅读理解中文阅读理解论文赛事官网
12DuReader-YesNo2020/8百度Apache-2.0 DuReader yesno是一个以观点极性判断为目标任务的数据集,可以弥补抽取类数据集评测指标的缺陷,从而更好地评价模型对观点极性的理解能力。 观点型阅读理解中文阅读理解\赛事官网
13DuReader2.02021百度Apache-2.0 DuReader2.0是全新的大规模中文阅读理解数据,来源于用户真实输入,真实场景阅读理解中文阅读理解论文赛事官网
14CAIL20202020哈工大讯飞联合实验室(HFL)\ 中文司法阅读理解任务,今年我们将提出升级版,不仅文书种类由民事、刑事扩展为民事、刑事、行政,问题类型也由单步预测扩展为多步推理,难度有所升级。法律阅读理解中文阅读理解\赛事官网
15CAIL20212021哈工大讯飞联合实验室(HFL)\ 中文法律阅读理解比赛引入多片段回答的问题类型,即部分问题需要抽取文章中的多个片段组合成最终答案。希望多片段问题类型的引入,能够扩大中文机器阅读理解的场景适用性。本次比赛依旧保留单片段、是否类和拒答类的问题类型。法律阅读理解中文阅读理解\赛事官网
16CoQA2018/9斯坦福大学CC BY-SA 4.0、Apache等 CoQA是面向建立对话式问答系统的大型数据集,挑战的目标是衡量机器对文本的理解能力,以及机器面向对话中出现的彼此相关的问题的回答能力的高低 对话问答英文阅读理解论文官方网站
17SQuAD2.02018/1/11斯坦福大学\ 行业内公认的机器阅读理解领域的顶级水平测试;它构建了一个包含十万个问题的大规模机器阅读理解数据集,选取超过 500 篇的维基百科文章。数据集中每一个阅读理解问题的答案是来自给定的阅读文章的一小段文本 —— 以及,现在在 SQuAD 2.0 中还要判断这个问题是否能够根据当前的阅读文本作答 问答、包含未知答案英文阅读理解论文
18SQuAD1.02016斯坦福大学\ 斯坦福大学于2016年推出的阅读理解数据集,给定一篇文章和相应问题,需要算法给出问题的答案。此数据集所有文章选自维基百科,一共有107,785问题,以及配套的 536 篇文章 问答、基于篇章片段抽取英文阅读理解论文
19MCTest2013微软\ 100,000个必应Bing问题和人工生成的答案。从那时起,相继发布了1,000,000个问题数据集,自然语言生成数据集,段落排名数据集,关键词提取数据集,爬网数据集和会话搜索。 问答、搜索英文阅读理解论文
20CNN/Dailymail2015DeepMindApache-2.0 填空型大规模英文机器理解数据集,答案是原文中的某一个词。 CNN数据集包含美国有线电视新闻网的新闻文章和相关问题。大约有90k文章和380k问题。 Dailymail数据集包含每日新闻的文章和相关问题。大约有197k文章和879k问题。 问答对、填空型阅读理解英文阅读理解论文
21RACE2017卡耐基梅隆大学/ 数据集为中国中学生英语阅读理解题目,给定一篇文章和 5 道 4 选 1 的题目,包括了 28000+ passages 和 100,000 问题。 选择题形式英文阅读理解论文下载需邮件申请
22HEAD-QA2019aghieMIT 一个面向复杂推理的医疗保健、多选问答数据集。提供英语、西班牙语两种形式的数据 医疗领域、选择题形式英文阅读理解 西班牙语阅读理解论文
23Consensus Attention-based Neural Networks for Chinese Reading Comprehension2018哈工大讯飞联合实验室/ 中文完形填空型阅读理解 填空型阅读理解中文阅读理解论文
24WikiQA2015微软/ WikiQA语料库是一个新的公开的问题和句子对集,收集并注释用于开放域问答研究 片段抽取阅读理解英文阅读理解论文
25Children’s Book Test (CBT)2016Facebook/ 测试语言模型如何在儿童书籍中捕捉意义。与标准语言建模基准不同,它将预测句法功能词的任务与预测语义内容更丰富的低频词的任务区分开来 填空型阅读理解英文阅读理解论文
26NewsQA2017Maluuba Research/ 一个具有挑战性的机器理解数据集,包含超过100000个人工生成的问答对,根据CNN的10000多篇新闻文章提供问题和答案,答案由相应文章的文本跨度组成。 片段抽取阅读理解英文阅读理解论文
27Frames dataset2017微软/介绍了一个由1369个人类对话组成的框架数据集,平均每个对话15轮。开发这个数据集是为了研究记忆在目标导向对话系统中的作用。阅读理解、对话英文阅读理解论文
28Quasar2017卡内基梅隆大学BSD-2-Clause 提出了两个大规模数据集。Quasar-S数据集由37000个完形填空式查询组成,这些查询是根据流行网站 Stack overflow 上的软件实体标记的定义构造的。网站上的帖子和评论是回答完形填空问题的背景语料库。Quasar-T数据集包含43000个开放域琐事问题及其从各种互联网来源获得的答案。 片段抽取阅读理解英文阅读理解论文
29MS MARCO2018微软/ 微软基于搜索引擎 BING 构建的大规模英文阅读理解数据集,包含10万个问题和20万篇不重复的文档。MARCO 数据集中的问题全部来自于 BING 的搜索日志,根据用户在 BING 中输入的真实问题模拟搜索引擎中的真实应用场景,是该领域最有应用价值的数据集之一。 多文档英文阅读理解论文
30中文完形填空2016年崔一鸣 首个中文填空型阅读理解数据集PD&CFT, 全称People Daily and Children's Fairy Tale, 数据来源于人民日报和儿童故事。 填空型阅读理解中文完形填空论文
31NLPCC ICCPOL20162016.12.2NLPCC主办方 基于文档中的句子人工合成14659个问题,包括14K中文篇章。 问答对阅读理解中文阅读理解\

贡献与参与

感谢以下同学的贡献(排名不分先后)

郑少棉、李明磊、李露、叶琛、薛司悦、章锦川、李小昌、李俊毅

您可以通过上传数据集信息贡献你的力量。上传五个或以上数据集信息并审核通过后,该同学可以作为项目贡献者,并显示出来。

Share your data set with community or make a contribution today! Just send email to chineseGLUE#163.com,

or join QQ group: 836811304