年3月22-23日,“翻译自动化用户协会(TAUS)亚洲峰会”在北京语言大学举行,国内外行业大咖悉数到场......现场提供两种同声传译服务:人工同传和机器同传。这是全球首次在真实交际环境下测试机器同声传译!多名与会者见证了这一事件。一个星期后,我们拿到了为本次大会提供技术支持的MarkSeligman博士撰写的的微软机器翻译应用报告初稿,鉴于技术保密等原因,我们这里只从人工翻译和机器翻译对比的角度对此次人机比拼作出以下观察思考。
年3月15日camelAI科技评论消息称,“机器翻译新突破,微软中英新闻翻译达人类水平”。微软亚洲研究院与雷德蒙研究院的研究人员宣布,其研发的机器翻译系统在通用新闻报道测试集newstest的中-英测试集上达到了可与人工翻译媲美的水平。这是首个在新闻报道领域的翻译质量和准确率上可以比肩人工翻译的翻译系统。Newstest测试集由来自产业界和学术界的团队共同开发完成,并于年在WMT17大会上发布。而新闻(news)测试集则是三类翻译测试集中的一个,其他两类为生物医学(biomedical)和多模式(multimodal)。
我是学外语的,多年从事口译笔译实践和教学工作,对技术一窍不通,但出于职业习惯,我对新鲜事物总保持着某种“嗅觉”。当AlphaGoZero和AlphaGoMaster战胜围棋高手的时候,我心里似乎没那么紧张,理由很简单,记忆力要求高的、程序化的、重复性的东西机器肯定比人强,这与翻译职业的消失还有一定距离。但我总是被第一批“忽悠”的人:第一时间花钱购买刚刚上市的翻译机或刚刚问世的翻译软件。源于好奇,当Translator发布后,我立刻做了测试,后来还专门撰文发表看法(见《中国翻译》年第4期,PP.77-83)。我手里有某中国公司的第一代产品,其广告号称能翻译六个语种,结果买到后发现只有英中翻译;还有另一款某中国公司的产品,也说能翻译多种语言。但试用后发现,无论是哪一种机器,连续翻译几乎不可能,说一句,翻译一句还勉强可以(也有不少问题),这与口译职场上的真实情况相去甚远,对去外国旅游或就医的用户来说应该是个小帮手。我们学校的中外语言服务人才培养基地也为某公司做过韩中旅游自动翻译项目,实际上是将预设的问答录入软件,不懂的人或使用者会认为这是就是机器自动翻译。这里我们讨论的不是机器性能和功能,而是谈机器是不是可以代替人工做交替传译和同声传译,或者说机器将在哪些方面代替译员/译者。
最近有幸与清华大学机器自动翻译专家刘洋博士长聊,因为我们有一个姊妹项目:“北京冬奥会术语平台开发建设”和“面向冬奥的机器翻译”。此次见面我期待能从这位专家嘴里得到答案,翻译是否真的很快就会被机器替代;他则希望听我详细讲述人工翻译的过程。长期以来,搞技术的与搞翻译的可谓“鸡犬之声相闻,老死不相往来”,搞翻译的人埋怨机器不好使,索性放弃,搞技术的又苦于不了解翻译这个职业。
应该说,跟很多人一样,面对AI的迅速发展和铺天盖地的厂家广告,我还是有些焦虑的,毕竟全国有所(年3月的统计)高校设立了翻译本科专业,所高校(据说将很快还要将加几十所)设立了翻译硕士专业,其中有四所开设了本地化或本地化管理方向,涉及近10种语言。每年有千千万万个青年学子选择这个专业,因为中国要走出去,因为“一带一路”战略实施需要大批跨文化交流人才,当然也因为不少人觉得口译很赚钱……刘洋博士提出了这样的问题:“机器翻译发展很快,但很多问题还没有解决。我们最关心的是译员翻译的过程,换句话说,译员到底是怎样工作的。这对我们突破瓶颈非常重要”。
翻译过程有三个阶段:译前、译中和译后。译前准备对译员言是非常重要的阶段,从心理学、神经学和思维角度讲,“突触”受到刺激后会打开各种“回路”,将大脑中储存的与“翻译主题”相关的知识汇总到一个地方,如“气候变暖”,听到或看到这四个字,大脑活动开始,译员会发现自己知道多少,还需要准备补充哪些知识。于是,译员开始“查找”,但查找的绝对不是简单的双语词汇,而是与会议或翻译主题相关的信息和知识,采取“恶补”方法应对要完成的翻译任务。译员/译者首先要回答的是五个“W”:who,what,when,why,where;随后则是逻辑性知识补漏,气候变暖的成因、危害、治理条件、手段和途径,各国及与会者的态度与立场、他们曾公开过的相关信息、会议预期结果等等;接下来需要做双语术语库(这里讲的不是字典意义的双语词汇),而是百科全书类的信息资源整合后的双语概念和表达方法等。这是译员自主学习和逻辑思维的过程。会议或翻译前,还要深入了解客户需求、主题、交际目的、听众/读者期待等。根据释意理论,语言知识、主题知识和百科知识是完成翻译的基础,缺一不可。在翻译过程中,译员的学习和调整并未间断,他会根据演讲内容不断“修正”或“调整”思路,边翻译边学习、边适应边积累主题知识。译后的还要及时填补译前所做的“术语”或知识空白,做大脑的“碎片整理”,总结、归纳和提升,即对翻译中出现的各类知识、表达方法等进行补充性总结和整理,以备后用,让所学知识更系统化和专业化,从而使自己在相关领域的知识日趋完善,甚至能做半个“专家”。自主学习成功的例子很多,例如,一位语言专业的毕业生到国家船舶工业公司工作,经过多年的学习和积累,最终代表国家常驻联合国的某机构;另一位译员在金融领域工作,后来成为金融领域专家,美国次贷危机发生后,是她给来华培训的外国部长讲中国的金融政策和对策。
全球第一场真实国际会议同声传译人机比拼让我们看到这样的事实:
1.机器跟译员一样,开始做译前准备
如上所述,此次人工与机器同台,微软采用PresentationTranslator作为辅助翻译工具,另有四名研究生准译员同时在场做同声传译。同其他国际会议一样,组织者提前跟与会发言人索要了讲话演示文稿/注释。
人工:四个人平均准备时间花费3-4天,他们认为译前准备对口译内容的预测率大概是62.5%(四个人的均值);在接受任务之前四位学生接受同声传译训练的时间为平均小时左右,可定义为同传初学者;
机器:用两台笔记本电脑对软件完成了对25个演讲幻灯片的训练(含幻灯片的正文和备注)。每次训练平均持续7分钟,软件提前训练时间超过6小时((7x25)x2)/60=5.83小时)。
2.语音识别和同声传译结果喜忧参半
人工:两天下来,与会者给予好评,对翻译质量的打分在80分以上。四位准译员对自己的评价是:信息量传递平均达到76.25%,准译员相互打分为76.7。语速快、技术含量高对准译员而言是主要困难。然而,虽然有的讲话人口音和语速超快,听起来有些困难,但译员能理解,困难在与表达有时跟不上,信息会丢失。讲话专业型太强,准译员还是有些吃不消。
机器:在18-19个演示文稿转录和翻译上都发挥了不错的作用,其余讲话和演示文稿没能实现语音识别和翻译,软件在第二天下午结束前约一个小时“瘫痪”且一蹶不振,未能修复。整个文稿转录和翻译中出现了诸如演讲者所用PPT版本与计算机不兼容、提前对计算机软硬件和专用耳机进行复杂配置、耳机待机时长过短须打断演讲者并充电、麦克风随时摘取并重新配置影响演讲人发言、麦克风突然出现无法修复的故障、演讲者初次使用此类系统不太适应、会议现场软件须提前训练演讲者所用新版幻灯片等不同问题,故会议当天部分演讲者无法使用该工具。准译员给机器语音识别打57分,给机器翻译质量打50分。他们认为主要问题是机器卡顿和对口音识别有困难,还有就是语法错误多,遇到讲话人口音重、语速快则“精神错乱”,出现词序混乱,跟不上或乱翻等问题,但英文转录绝对优于汉语(这一点现场口译员和现场技术支持人员的分析是相同的)。
应该说,此次测试意义重大。机器的译前训练在发展,机器自主学习的能力不断提升,一旦有更强大的语料库做支撑,机器学习起来速度会超人。这里转引MarkSeligman博士的意思:如果机器软件想获得“好评”,得到认可并日益广泛应用,其可靠性是基础。但无论如何,这是机器自主学习和语音识别迈出的重要的一步,毕竟这是机器第一次处于真实的国际会议交际场景。当然,很多人类活动的“突发”因素还需要机器不断学习,例如“断电了怎么办?”、“断网了怎么办?”、“演讲人说错了怎么办?”、“演讲人口音太重怎么办?”、“演讲人说话速度太快、一气呵成怎么办?”、“演讲人吐字不清楚、口头禅过多怎么办?”、“单词在不同场景的不同意思机器如何学习?”等等。事实是,机器朝真实的跨语言交际迈出了第一步,开始朝译员口译过程靠近。如果说自动翻译对笔译帮助更大,那么,它对口译的帮助可以窥见。
我认为,首当其冲的是尽快“干掉”愚蠢的错误,或尽最大可能避免尴尬的译文出现(如报告中提及:“wedidseeafewcatastrophicerrorsintranslationfromMandarinintoEnglish.Adonkeysomehowshowedupinoneofthem!”)。换句话说,在翻译过程中,译员会根据主题和演讲人的话题及时修正“方向”,根据认知知识选择恰当的语义或意思,而机器还不具备这种“认知调整”能力。另外,机器语音识别后的全文一行行不断刷屏会对译员的工作产生消极影响,因为人的阅读速度远远不如听的速度,故语音识别后的全文转写翻译对译员干扰大于对帮助,如果边听边看不断刷屏的电脑屏幕,译员则无法全神贯注地听演讲人讲话,还会影响其分析加工。搞口译研究的人更
转载请注明地址:http://www.1xbbk.net/jwbys/5505.html