复旦大学计算机科学技术学院邱锡鹏老师、黄萱菁老师指导的论文《How to Fine-Tune BERT for Text Classification?》荣获CCL 2019最佳英文论文奖。(论文链接:https://arxiv.org/abs/1905.05583)
该论文以文本分类任务为例,探索了如何充分利用预训练模型BERT的能力,通过设计了3种训练范式和大量的实验探索,总结出一些精调BERT的方法。最终,提出的方法在8个常见的文本分类数据集上取得了当时最好的结果(注:本文工作完成于2018年年底,由于时效性,目前在部分数据集上可能会有更好的结果)。
此外,黄萱菁教授在本次大会的开幕式上致辞,邱锡鹏副教授做了生成对抗网络的前沿技术讲习,魏忠钰副教授做了多模态文本生成国际前沿动态综述,开源工具“fastNLP:模块化的开源NLP框架”进行了系统展示,复旦大学计算机学院NLP实验室团队多位同学参加了口头报告、张贴报告和系统展示。


