优化算法的计算模型是当下推行算法新闻的首要任务,它关系着信息内容的推荐、新闻价值的选择、传媒伦理的履行等。
利与弊:算法是敌是友
数据整理与清洗。在操作层面,本研究使用R语言,基于结巴中文分词对搜集的文本进行分词,由于获取文本中含有一些新闻专业词汇,首次分词将新闻类专有词组拆散,此外还出现许多虚词等。因此,本研究对分词进行过滤和重组,加入“用户指定统计词汇(如人工智能、一点资讯、今日头条等)”和“用户禁止统计词汇(如一些、许多、我们等)”,最终获得4076个分词,分词的描述性统计表如表2所示,平均词频为3.67次,最大值为432,最小值为1,超过20频次以上有90个词。
批评与纠正:主流媒体对算法新闻的评价倾向
内容偏见——多元、真实、客观、公正的原则削弱。算法新闻产生的回音壁效应,能够强化受众对某类信息的“固有偏见”。EliPariser在《别让算法控制你》一书中指出,互联网服务会根据用户的个体特征、行为和社会关系,创造出一种近乎于虚构的量身定制的现实。换言之,智能推荐或智能排序系统会从一开始就跟踪和记录用户的足迹,根据用户键盘输入的内容、网页检索的关键词以及点击浏览的信息进行精心的调整和过滤,达到信息定制的目的,最终,把用户束缚在一个与其他信息世界隔离的气泡中,让用户沉浸在自己偏好的信息“密室”里。在这个由算法创建的密闭回音室中,相似的意见和信息会不断充斥在用户偏好的信息世界里,让用户的信息接触变得狭隘、单一和固化。
央媒在强调算法实用性价值的同时,也批判了算法对价值理性的忽视,它掩盖不了技术带来的伦理和道德问题。2016年企鹅智酷发布的《智媒来临,2016中国新媒体趋势报告》指出,32.2%的用户担忧个性化推荐会让视野变狭隘,32.6%的用户认为个性化推荐的内容太少,30.7%的用户认为个性化推荐的内容不准,还有29.4%的受众认为推荐的内容太低俗。当我们认真审视算法时,就像对转基因技术和克隆技术的态度一样,一开始保持着对技术的怀疑和批评,但最后会对遵循人类道德伦理的技术以及其创造的一切美好拍手称赞,最重要的问题在于我们如何通过调整算法,实现工具理性和价值理性的最大合力。当然,我们也要深思,算法的控制者是谁?当价值理性缺失时,是媒体还是技术来认领算法新闻引发的伦理过失和承担社会责任?这些问题的解决,需要出台相应的监管机制来把控。
算法伦理——让算法遵循“善法”。EliPariser在TED演讲中重新审视了算法的伦理道德问题,他指出,“我们将选择权传递给了计算机算法,但问题是,它们并没有人类所具备的道德精神。”算法是没有人性的,它是冰冷的机器。因此,算法伦理和道德的践行主体由新闻工作者变为算法机器,是行不通的。算法机器与专业的新闻从业人员工作职能的互斥点在于,编辑人员具有主观性、能动性和责任感,相反,算法机器是自动化的、冷漠的和无责任感的。
2017年12月9日,深圳,在未来报亭,腾讯的写稿机器人Dreamwriter在写新闻,并送给用户一份“未来报纸”。供图/CFP
观点与讨论:发挥算法与人的最大合力
算法新闻是“人+算法+新闻”的融合物,在遵守新闻价值规律的前提下,技术也未必是完全的善或恶,“善”与“恶”是技术乐观主义与技术悲观主义两种对立的思想,那么,我们需要用何种视角去看待技术的善与恶呢?在央媒对算法的观点性评价中,无论是将算法对用户的“控制”形容为“信息茧房”“技术牢笼”“技术陷阱”“信息孤岛”“个性化圈套”,还是“算法奴隶”等,我们对技术的反思向度都要追溯到技术与人的关系、技术与社会的关系,从自然辨证法的角度看,技术决定论、社会建构论、技术社会互动论、社会技术整体论等观点的提出,无疑坚定了技术对社会的推动作用,但从媒介发展的角度看,这些技术理论存在一定的缺陷,在此基础上,有些学者提出了“社会技术整体互动论”,核心观点为“技术和社会是一个整体,两者不分立”“技术与社会是互动的”。技术与社会或者人之间的关系就像埃舍尔的作品《互绘的双手》一样,相互“复制”又相互“塑造”,通过“互绘”达到“互惠”,换言之,机器算法的“智慧”是由人赐予的,到头来人类也会享受着技术的“福祉”。