基于 GlobalPointer 的改进,Keras 版本 的 torch 复现,核心还是 token-pair 。
绝大部分代码源自本人之前关于 GlobalPointer 的 repository。
笔者已经将 GlobalPointer 落地部署,垂直领域特别是嵌套情况下的信息抽取,GP真的做的很好,现在 Efficient GP 参数更少,效果更优,所以我认为只要上了 BERT,就抛弃 BIO-CRF 那一套吧!
CMeEE 存放在: train_cme_path = ./datasets/CME/train.json
eval_cme_path = ./datasets/CME/dev.json
1、笔者比较喜欢用RoBerta系列 RoBERTa-zh-Large-PyTorch
2、点这里直接goole drive下载
注意把train/predict文件中的 bert_model_path 路径改为你自己的
python train_CME.py
python predict_CME.py
想打榜的,可以加模型融合+对抗训练+远程监督等等 trick! 这个 67.942% 是纯模型的结果