复旦大学计算机科学技术学院邱锡鹏老师、黄萱菁老师指导的论文《How to Fine-Tune BERT for Text Classification?》荣获CCL 2019最佳英文论文奖。(论文链接:https://arxiv.org/abs/1905.05583)
该论文以文本分类任务为例,探索了如何充分利用预训练模型BERT的能力,通过设计了3种训练范式和大量的实验探索,总结出一些精调BERT的方法。最终,提出的方法在8个常见的文本分类数据集上取得了当时最好的结果(注:本文工作完成于2018年年底,由于时效性,目前在部分数据集上可能会有更好的结果)。
此外,黄萱菁教授在本次大会的开幕式上致辞,邱锡鹏副教授做了生成对抗网络的前沿技术讲习,魏忠钰副教授做了多模态文本生成国际前沿动态综述,开源工具“fastNLP:模块化的开源NLP框架”进行了系统展示,复旦大学计算机学院NLP实验室团队多位同学参加了口头报告、张贴报告和系统展示。
![](http://news.fudan.edu.cn/_upload/article/images/10/99/4b1f375f4b009033f86a540507a3/c6b58ab9-f50c-48ff-87f0-83fe363c614f.jpg)
![](http://news.fudan.edu.cn/_upload/article/images/10/99/4b1f375f4b009033f86a540507a3/44ff22d6-6a62-437c-9d9e-ab5ecbfee906.jpg)
![](http://news.fudan.edu.cn/_upload/article/images/10/99/4b1f375f4b009033f86a540507a3/4fed62a0-5448-4cb9-b216-629ea0b8154f.jpg)