您当前位置: 首页  >  新闻中心  >  必威西汉姆体育官网新闻  >  正文

必威西汉姆体育官网新闻

公司2篇论文入选人工智能领域顶级会议ACL 2023

发布日期:2023-05-04 发布人: 点击量:

(一)

王英教授团队的论文“Prompt Tuning Pushes Farther, Contrastive Learning Pulls Closer: A Two-Stage Approach to Mitigate Social Biases”CCF A类会议ACL 2023主会录用。论文的第一作者为王英教授指导的2021级博士生李莹姬,通讯作者为王英教授和人工智能学院王鑫副教授,其他作者还包括新泽西理工学院(NJIT)数据科学系杜梦楠助理教授。

随着预训练语言模型(PLM)的表示能力的提高,人们越来越担心它们会从未处理的语料库中继承社会偏见。以往的去偏技术大多使用反事实数据增强(CDA)来平衡训练语料。然而,CDA稍微修改了原始语料库,将不同人口统计学群体之间的表示距离限制在较窄的范围内。因此,去偏模型容易拟合反事实对之间的差异,从而影响了其在有限文本资源下的去偏性能。本文提出一种对抗性训练启发的两阶段去偏模型(CCPA),使用对比学习和连续提示增强来减轻PLM编码中的社会偏见。大量实验表明,CCPA在去偏性能方面优于基线。同时,在GLUE基准上的实验结果表明,CCPA保留了PLM的语言建模能力。


(二)

  李熙铭副教授研究小组的论文“Just Like a Human Would, Direct Access to Sarcasm Augmented with Potential Result and Reaction”被人工智能领域、自然语言处理领域国际顶级会议国际计算语言学年会(ACL)(CCF-A)接收。论文的第一作者为大连理工大学2019级博士生闵昶榮,通讯作者为李熙铭副教授,作者还包括大连理工大学林鸿飞教授、杨亮副教授、徐博副教授,以及本院2021级本科生王志霖。

  受启发于人类对于讽刺的认知过程,本文提出一种潜在结果与心理反应增强的讽刺检测方法(SD-APRR)。受认知语言学中The Direct Access 理论的启发,本文将每个讽刺样本视为一个不完整的版本,缺少与隐式负面情景相关的信息,这些信息包括讽刺样本可能引起的可能结果以及听众的心理反应。为此,本文利用预训练外部常识推理工具COMET,在[xEffect]和 [xReact]关系的引导下,进一步推断每个反讽样本的可能结果以及心理反应。并在原始反讽样本的基础上,进一步构建增强样本。最后,利用降噪图编码器进一步学习增强样本的语义表示并得到样本预测结果。本文在四个不同规模的公开反讽识别数据集上进行实验,结果表明SD-APRR相比于最新基线模型有明显提升。本工作同时说明在深度学习时代,传统语言学、心理学相关理论仍具有重要作用。


ACL会议(Annual Meeting of the Association for Computational Linguistics)是自然语言处理与计算语言学领域最高级别的学术会议,与NeurIPS、CVPR、ICML等是中国计算机学会(CCF)推荐的人工智能领域的7个A类会议之一。