面向中文插入删除类语法纠错的预训练模型(Pretraining Chinese BERT for Detecting Word Insertion and Deletion Errors)
时间: 2022-06-02 发布者: 文章来源: bat365在线官网登录入口 审核人: 浏览次数: 1485

报告题目:面向中文插入删除类语法纠错的预训练模型(Pretraining Chinese BERT for Detecting Word Insertion and Deletion Errors)

时间:202267日(周二下午)1400-1530

地点:腾讯会议 238-243-902

报告摘要:

文本纠错(Grammatical Error Correction, GEC)是自然语言处理领域的基础问题,也是现代写作助手的核心功能。中文语法错误的主要类型包括替换、插入、删除,目前预训练模型在替换类错误中取得了不错的进展,但已有的方法难以解决插入和删除类型的语法纠错。本次报告将介绍腾讯AI Lab 在中文纠错上的最新进展,具体介绍面向中文插入和删除类错误的预训练模型。

报告人介绍:

唐都钰博士是腾讯AI Lab自然语言处理组专家研究员,入职腾讯前任职微软亚洲研究院主管研究员。研究方向涉及自然语言处理、代码智能、多模态等方向,发表会议及期刊论文50余篇,根据谷歌学术统计,论文引用超过 9,000次。多次担任自然语言处理顶级会议 EMNLP  ACL 领域主席,并在 EMNLP-2020 上作关于机器推理的大会报告。

     周聪,中南大学bat365在线官网登录入口硕士,研究方向包括自然语言处理、代码摘要等,发表CCF B类期刊和C类会议论文各一篇,目前在腾讯AI Lab工作,主要研究方向为文本纠错。