mirror of
https://gitee.com/fastnlp/fastNLP.git
synced 2024-12-04 21:28:01 +08:00
.. | ||
data_load | ||
model | ||
test | ||
__init__.py | ||
README.md | ||
train.py | ||
valid.py |
共指消解复现
介绍
Coreference resolution是查找文本中指向同一现实实体的所有表达式的任务。 对于涉及自然语言理解的许多更高级别的NLP任务来说, 这是一个重要的步骤,例如文档摘要,问题回答和信息提取。 代码的实现主要基于 End-to-End Coreference Resolution (Lee et al, 2017).
数据获取与预处理
论文在OntoNote5.0数据集上取得了当时的sota结果。 由于版权问题,本文无法提供数据集的下载,请自行下载。 原始数据集的格式为conll格式,详细介绍参考数据集给出的官方介绍页面。
代码实现采用了论文作者Lee的预处理方法,具体细节参见链接。 处理之后的数据集为json格式,例子:
{
"clusters": [],
"doc_key": "nw",
"sentences": [["This", "is", "the", "first", "sentence", "."], ["This", "is", "the", "second", "."]],
"speakers": [["spk1", "spk1", "spk1", "spk1", "spk1", "spk1"], ["spk2", "spk2", "spk2", "spk2", "spk2"]]
}
embedding 数据集下载
运行
# 训练代码
CUDA_VISIBLE_DEVICES=0 python train.py
# 测试代码
CUDA_VISIBLE_DEVICES=0 python valid.py
结果
原论文作者在测试集上取得了67.2%的结果,AllenNLP复现的结果为 63.0%。 其中AllenNLP训练时没有加入speaker信息,没有variational dropout以及只使用了100的antecedents而不是250。
在与AllenNLP使用同样的超参和配置时,本代码复现取得了63.6%的F1值。
问题
如果您有什么问题或者反馈,请提issue或者邮件联系我: yexu_i@qq.com