2019年10月18至20日,“第十八届中国计算语言学大会”(CCL2019)在昆明成功举行。本次大会由中国中文信息学会主办,昆明理工大学承办,组织单位为清华大学人工智能研究院。CCL2019作为全国计算语言学和自然语言处理旗舰会议,吸引了来自中国大陆、香港及海外的800余名与会代表就计算语言学相关领域的前沿问题展开了深入的交流和探讨。与会者普遍反映此次活动具有很高学术水准、很强的前沿性和多学科交叉性,学术讨论广泛、深入,学术氛围浓厚,共享了一场饕餮学术盛宴。本次会议共收到稿件371篇,录用136篇,其中口头报告论文20篇,张贴报告论文126篇。
复旦大学计算机科学技术学院邱锡鹏老师、黄萱菁老师指导的论文《How to Fine-Tune BERT for Text Classification?》荣获CCL 2019最佳英文论文奖。(论文链接:https://arxiv.org/abs/1905.05583)
该论文以文本分类任务为例,探索了如何充分利用预训练模型BERT的能力,通过设计了3种训练范式和大量的实验探索,总结出一些精调BERT的方法。最终,提出的方法在8个常见的文本分类数据集上取得了当时最好的结果(注:本文工作完成于2018年年底,由于时效性,目前在部分数据集上可能会有更好的结果)。
此外,黄萱菁教授在本次大会的开幕式上致辞,邱锡鹏副教授做了生成对抗网络的前沿技术讲习,魏忠钰副教授做了多模态文本生成国际前沿动态综述,开源工具“fastNLP:模块化的开源NLP框架”进行了系统展示,复旦大学计算机学院NLP实验室团队多位同学参加了口头报告、张贴报告和系统展示。