通信技术的进步对各种行业都产生了重大影响,但也许没有比教育大。现在,来自世界各地的任何人都可以现场收听诺贝尔奖获奖者的演讲,或通过互联网接入从最知名的大学获得学分。但是,如果观众无法理解讲师的语言,那么从在线观看和收听中获得的可能信息就会丢失。为了解决这个问题,日本奈良科学技术研究所(NAIST)的科学家们在日本信息处理协会自然语言处理特别兴趣小组第240次会议上提出了一种新的机器学习解决方案(IPSJ SIG- NL)。
机器翻译系统使得在国外询问方向变得非常简单。有时,系统可以产生有趣和无辜的错误,但总的来说,它们实现了连贯的沟通,至少对于短暂的交换只有一两句话。如果演示文稿可以延续一个小时,例如学术讲座,那么它们就不那么健壮了。
“NAIST有20%的外国学生,虽然英语课程的数量正在扩大,但这些学生的选择受到日语能力的限制,”NAIST教授Satoshi Nakamura解释说。
Nakamura的研究小组从NAIST手中收集了46.5小时的档案演讲视频及其转录和英文翻译,并开发了一个基于学习的深度系统来转录日语讲座演讲并随后将其翻译成英文。在观看视频时,用户会看到与讲师讲话相符的日语和英语字幕。
人们可能期望理想的输出是同步翻译,可以通过现场演示完成。但是,实时翻译会限制处理时间,从而限制准确性。“因为我们在档案中放置带字幕的视频,我们通过创建具有更长处理时间的字幕来找到更好的翻译,”他说。
用于评估的存档镜头包括来自机器人,语音处理和软件工程的讲座。有趣的是,语音识别中的单词错误率与讲师讲话中的不流畅相关。不同错误率的另一个因素是没有停顿的时间长度。用于培训的语料库仍然不足,应该进一步开发以进一步改进。
“日本希望增加其国际学生,NAIST有很好的机会成为这项努力的领导者。我们的项目不仅将改善机器翻译,还将为国家带来光明的思想,”他继续说道。