no code implementations • CCL 2020 • Dazhan Mao, Huayong Li, Yanqiu Shao
近年来, 尽管深度学习给语义依存分析带来了长足的进步, 但由于语义依存分析数据标注代价非常高昂, 并且在单领域上性能较好的依存分析器迁移到其他领域时, 其性能会大幅度下降。因此为了使其走向实用, 就必须解决领域适应问题。本文提出一个新的基于对抗学习的领域适应依存分析模型, 我们提出了基于对抗学习的共享双编码器结构, 并引入领域私有辅助任务和正交约束, 同时也探究了多种预训练模型在跨领域依存分析任务上的效果和性能。
no code implementations • CCL 2021 • Dazhan Mao, Kuai Yu, Yanqiu Shao
“语义依存分析要走向实用, 模型从单领域迁移到其他领域的领域适应能力至关重要。近年来, 对抗学习针对领域适应这个任务取得了较好的效果, 但对目标领域的无标注数据利用效率并不高。本文采用Self-training这种半监督学习方法, 充分发挥无标注数据的潜能, 弥补对抗学习方法的不足。但传统的Self-training效率和性能并不好, 为此本文针对跨领域语义依存分析这个任务, 尝试了强化学习数据选择器, 提出了局部伪标注的标注策略, 实验结果证明我们提出的模型优于基线模型。”