剑桥雅思16Test4Passage3阅读原文翻译AttitudestowardsArtificial[…]
剑桥雅思16Test4Passage3阅读原文翻译AttitudestowardsArtificialIntelligence对待人工智能的态度
老烤鸭原创翻译,请勿抄袭转载
A部分
Artificialintelligence(AI)canalreadypredictthefuture.Policeforcesareusingittomapwhenandwherecrimeislikelytooccur.Doctorscanuseittopredictwhenapatientismostlikelytohaveaheartattackorstroke.ResearchersareeventryingtogiveAIimaginationsoitcanplanforunexpectedconsequences.
人工智能已经可以预测未来。警察用它来标记犯罪可能在什么时候在哪里发生。医生用它来预测病人什么时候最有可能患上心脏病或者中风。研究者甚至尝试赋予人工智能想象力,以便它能够对未曾预料到的事情进行规划。
我们生活中的许多决策都需要优秀的预测,而人工智能几乎总是要比我们更擅长预测一些。然而,就像对所有技术进步一样,我们似乎对人工智能的预测相当缺乏信心。最近的案例表明,人们不喜欢依赖人工智能,而更倾向于相信人类专家,即使这些专家是错的。
IfwewantAItoreallybenefitpeople,weneedtofindawaytogetpeopletotrustit.Todothat,weneedtounderstandwhypeoplearesoreluctanttotrustAIinthefirstplace.
如果我们想让人工智能真正惠及人类,我们需要找到让人类信任它的方法。要做到这一点,我们需要理解为什么人们一开始就不愿意相信人工智能。
B部分
另一方面,如果Watson给出的建议与专家意见相反,医生往往会得出Watson并不合格的结论。机器无法解释为什么它的治疗方案很有道理,因为机器学习的算法太过复杂,人类无法彻底理解。这就引发更多的怀疑和不信任,让许多医生忽略显得十分古怪的人工智能的建议,并坚持他们自己的专业知识。
C部分
许多人也不熟悉人工智能实际发挥作用的大量案例,因为这往往发生在背景中。相反,他们强烈意识到人工智能出错的例子。人工智能尴尬的失败吸引着不成比例的媒体注意,强调我们不能依赖科技。机器学习并非万无一失,这部分是由于设计它的人类也是如此。
D部分
针对人工智能的情绪拥有极深的根源。在最近的一项实验中,来自不同背景的人们观看了各种各样有关人工智能的电影,然后被问一些有关日常生活中自动化的问题。研究人员发现,无论他们所看的电影中人工智能是正面角色还是反面角色,仅仅观看有关我们技术未来的电影画面就会让参与者的态度极化。乐观主义者对人工智能的热情变得更加极端,而怀疑论者则变得更加谨慎。
ThissuggestspeopleuserelevantevidenceaboutAIinabiasedmannertosupporttheirexistingattitudes,adeep-rootedhumantendencyknownas“confirmationbias”.AsAIisrepresentedmoreandmoreinmediaandentertainment,itcouldleadtoasocietysplitbetweenthosewhobenefitfromAIandthosewhorejectit.Morepertinently,refusingtoaccepttheadvantagesofferedbyAIcouldplacealargegroupofpeopleataseriousdisadvantage.
这表明人们会用一种充满偏见的方式看待有关人工智能的证据,以支持他们现有的态度。这一根植于人类本性中的倾向被称为“确认偏误”。随着人工智能在媒体和娱乐方式中出现的越来越多,它会在从中受益的人和拒绝它的人之间造成分裂。更确切的说,拒绝接受人工智能所提供的好处会将一大批人置于严重不利的地位。
E部分
幸运的是,对于如何提升对人工智能的信任,我们已经有了一些想法。正如上述所提到的研究所发现的那样,仅仅有过使用人工智能的经验就可以显著提升人们有关技术的看法。证据也表明,你使用的其他技术越多,如互联网,你也会越信任它们。
AnothersolutionmaybetorevealmoreaboutthealgorithmswhichAIusesandthepurposestheyserve.Severalhigh-profilesocialmediacompaniesandonlinemarketplacesalreadyreleasetransparencyreportsaboutgovernmentrequestsandsurveillancedisclosures.AsimilarpracticeforAIcouldhelppeoplehaveabetterunderstandingofthewayalgorithmicdecisionsaremade.
另一项解决方案可能是更多的披露人工智能所使用的算法,以及它们服务的目的。几家高调的社交媒体公司和线上交易平台已经发布了有关政府要求和监管的透明性报告。人工智能类似的操作也可以帮助人们更好的理解算法决策的方式。
F部分
ResearchsuggeststhatallowingpeoplesomecontroloverAIdecision-makingcouldalsoimprovetrustandenableAItolearnfromhumanexperience.Forexample,onestudyshowedthatwhenpeoplewereallowedthefreedomtoslightlymodifyanalgorithm,theyfeltmoresatisfiedwithitsdecisions,morelikelytobelieveitwassuperiorandmorelikelytouseitinthefuture.
研究表明,让人们对人工智能的决策制定拥有一定的控制也能够提升信任,并让人工智能可以学习人类的经验。例如,一项研究显示,当人们拥有稍微修改算法的自由时,他们会对人工智能的决策更加满意,更可能相信其更胜一筹,并更可能在未来使用它。
我们不需要理解人工智能系统复杂的内部工作机制,但如果人们拥有一定的权责决定它们如何生效,他们会更加愿意在生活中接受人工智能。