本文通过对政府和互联网平台的网络内容规范进行话语分析,发现“道德主义话语”和“网络社群话语”是中国互联网治理中两种典型的规范话语。互联网主管部门的话语中隐含互联网是独立于真实世界的“场所/空间”的隐喻,主张自上而下“清理污染”的治理行动。网络平台的社群话语设定了推崇社区氛围和原真性的规范框架,确认了社区自治和用户内化社区成员身份对于维护网络秩序的作用。本文认为,两种话语在不同程度上界定了网络用户的主体性,但都强调某种理想的网络空间秩序,可能遮蔽网络世界与现实生活的关联。
01
引言
与罔顾规则的失范行为相抗衡的力量也同样存在。党的十九大报告强调“要加强互联网内容建设,建立网络综合治理体系,营造清朗的网络空间”,体现了政府对此类问题的关切。近年来,主管部门对于网络内容和网络言论的管理逐步加强,并出台了一系列文件和行动对互联网进行整顿,如《网络信息内容生态治理规定》(2020)、《关于进一步压实网站平台信息内容管理主体责任的意见》(2021),以及由国家网信办牵头、多部门共同参与的“清朗”、“护苗”等系列专项行动。互联网企业也多有积极回应,越来越多地承担起对平台内容和言论的审查和管理责任。
那么,网络用户的行为如确有限定,其遵循的伦理规范是什么?政府和互联网企业如何制定网络规范,又何以确定网络用户的行为准则?本文认为,对以上问题的回答有赖于对政府和互联网平台治理逻辑和行动策略的梳理;通过识别话语中的隐喻和框架,可以发掘二者构建互联网规范的过程和内在逻辑。
02
文献综述
(一)网络规范与治理逻辑
上述研究确认的网络治理模式的形成并不是一蹴而就的。针对互联网这一新兴事物,制定相应的政策本质上是政府的一种政策学习过程(李永刚,2013:115-116)。因此,研究者往往将中国互联网内容治理的发展分为若干阶段。例如,杨国斌(2013)认为中国互联网治理可分为政策制定阶段、控制扩张阶段、规管和治理阶段;王梦瑶和胡泳(2016)则将其划分为科教兴国与现代化发展、产业开放与社会管理、意识形态与国家安全几个阶段。尽管划分的依据不同,政府监管由弱至强,由粗放迟缓发展为严密精细,应能在研究者中达成共识。
如上,多维性和演进性可视作理解中国网络治理的两个关键角度。而政府关于网络治理的话语框架,有助于理解如上治理行动的底层逻辑。首先,对中国媒体的治理存在一种道德秩序诉求。有学者指出,中国媒介治理有明显的泛道德主义特征,其特点是“以伦理审判和道德训诫取代法律和政策的规制”(龙耘,赵春光,2013)。这种家长式和道德主义的管理在实践中往往表现为对互联网的言论管理和对良好道德风气的倡导。杨国斌(2013)认为,中国政府将互联网视作大众媒体的延伸,注重对互联网的管理和舆论引导,因此国家对互联网秩序的管理诉求,可以部分通过政府对大众媒体的管理来说明。李永刚(2013)指出,互联网主管部门对互联网的治理是父爱主义(paternalism)的,即主张出于善意、维护当事人利益而对其行为进行限制。
(二)互联网、话语与隐喻
话语是理解复杂问题的工具,为议题讨论提供了语言资源,同样也影响人们谈论和思考某件事物的方式(莱考夫,2015;Branch,2020)。在互联网的传播学研究中,对隐喻的分析并不鲜见。在早期研究中,Stefik(1996)将互联网的隐喻分为四种:图书馆、邮件、市场和数字世界。图书馆和档案馆等隐喻的使用反映了互联网作为储存数据和知识的“仓库”的概念。在今天的大数据和云计算时代,将互联网类比于石油和金矿,则反映了信息作为待开发资源的重大意义(Wyatt,2021)。
Markham(2003)认为作为“工具”的互联网也包含了三个子隐喻:“人体的延伸”(prosthesis)、“管道”(conduit)和“容器”(container)。“人体的延伸”表明互联网可被视为身体功能的延展,“管道”暗示互联网是一种信息传输的通道,“容器”则强调了互联网容纳和存储数据和信息等特性。总之,作为“工具”的互联网可以被理解为用来完成一项任务的技术,为不同人掌握可能发挥不同的功能。在这种意义上,如果作为一种“工具”的互联网被用于正面用途,则能创造巨大的价值和福祉;落入坏人或不法之徒之手,互联网就会被滥用、造成巨大的危害。
认知心理学和语言学的研究指出,对某个事物的隐喻不仅反映了人们对该事物的认识,还影响到对该事物的思考方式和行动方式(Thibodeau等,2019)。关于互联网的隐喻实际上也有意识形态的内涵,它们会为某种特定价值观和行为方式提供潜在的支撑,或隐含对互联网采取干预方式的差异。例如,Wyatt(2021)指出,1990年代中期的美国存在两种对立的互联网隐喻:“边疆”(frontier)和“高速公路”(highway)。自由主义者们用“边疆”一词强调互联网的边缘和独立;相反,政府使用“高速公路”一词则暗示互联网是如公路一样的公共基础设施,由国家进行管理是维护公共利益的最优方式。因此,把互联网比作“高速公路”实际上强调了国家监管互联网的必要性(Dekavalla,2021)。不同群体使用的隐喻和话语框架也是相异的。Droog等(2020)指出,不同群体表述大数据基础设施的话语框架存在很大差异;相较于专家的表达,记者使用的隐喻框架更加模糊,倾向于描述其危险性,从而可能导致公众对技术产生负面态度。因此话语限定了互联网“是什么”和“不是什么”,以及对它“应该有和不应该有什么期望”(Gillespie,2010)。
(三)研究问题
如果某种语言表述可能反映或限定了人们对某个事物的理解方式和行动方式(莱考夫,2015),那么关于互联网内容治理的文本中也可能隐含了行动者对于网络问题的理解,限定了网络治理的方式和手段。基于认知语言学和批判性话语分析的视角,本文试图解决如下研究问题:
研究问题1:大众媒体中关于网络内容规范的话语有哪些?这些话语有何相同之处,又存在什么区别、矛盾或悖论?
研究问题2:互联网内容治理是如何被表述和问题化的?这些话语如何试图确立互联网用户的行动规范?
研究问题3:为减少网络内容的危害,如何进行话语更新?换言之,如何创造对网络空间规范和治理的新颖表述,才能更有效地认识这一现象和处理该问题?
03
研究方法
(一)语料库的构建
为探究以上问题,本研究建立了一个小型的语料库。区别于构建一个体量巨大的文本库进行量化文本分析(如“语料库语言学”的方法),本文基于研究者的经验和主观判断选择关键文本,再进行细致的定性分析。采用这种研究方法的考量是,涉及互联网内容治理的话语的数量相对较少,且具备相当的同质性;同时量化文本分析可能有失精细,“需要辅之以更为深入和详尽的质性文本分析”(费尔克劳,2021:8)。
网络主管部门的话语。通过在网信办的官方网站中检索,本研究搜集了网络主管部门关于互联网治理的关键文本,如《网络信息内容生态治理规定》、《关于加强网络文明建设的意见》等。这些文本设定或反映了政府主管部门对于互联网治理模式的理解。
网络平台话语。本文重点搜集了哔哩哔哩(以下简称“B站”)、小红书和抖音三个网络社交平台的关于内容治理的官方公告、规范文档和宣传视频,如B站的《社区规则》、《小黑屋处罚条例V1.7》,抖音的“安全中心”和“创作者中心”发布的视频等。选择如上三个互联网平台的原因,在于它们的社交属性、巨大的用户数量和受欢迎程度。
(二)话语分析
另外,本研究旨在发掘互联网内容规范如何在话语中“再现”。费尔克劳(2021:159)指出,话语是现实的一种再现;一个事件嵌入的物理世界中的属性,在语言中可以被表述为“过程-参与者-环境”,即发生了什么事情、事件中有谁参与、在哪里发生。同样,作为一种过程的互联网治理和规范设置可以被转述为“问题-行动者-行动”的叙事模式。故本研究试图发掘下述过程的呈现方式:(a)互联网中存在怎样的问题(如何界定问题);(b)谁应该为这些问题负责(网络规范的破坏者是谁);(c)谁来解决问题(行动者是谁);(d)用什么方法解决问题(采用何种行动策略和行动方式)。对此,本文将分析如上文本的句法结构或叙事结构中的主语(识别主要行动者)、动词(识别具体行动)和宾语(识别施加行动或影响的对象)。
04
研究发现
(一)官方话语
1.道德话语与污染隐喻
本文发现,官方话语中的互联网往往被表述为明显具备空间特征的“网络空间”或“网络生态”,而一些关于道德和价值规范的词语(“健康”、“风清气正”、“风气”、“正能量”、“积极”、“价值导向”)常常被用来修饰理想状态下的互联网。例如:“发展积极健康的网络文化”(《发展积极健康的网络文化》,2021-01-18)、“营造风清气正的网络空间”(《十项“清朗”专项行动!2022年国家网信办深入整治各类网络乱象》,2022-03-17)。
如上话语可被理解为一种“道德语言”(moralisticlanguage);换言之,中国互联网内容治理并非欧美式的保护市场竞争、保护个人权利的自由主义伦理框架,而是一种“道德主义”的伦理框架。网络主管部门倾向于对互联网“应该是怎样的”进行说明,认定互联网应该是积极向上的、不违反主流价值观、具备良好道德风尚的场所。与之相对的,“风清气正”的反面是一个道德秩序混乱的网络空间:
涤荡网上的歪风邪气,为广大网民特别是青少年营造一个风清气正的网络空间(《人民网评:让网络空间正能量更加充沛》,2021-11-21)
网络空间出现“泛娱乐化”倾向,消费主义、物质主义、拜金主义等思潮泛滥,造成网络空间道德秩序混乱(《特别策划|“清朗”专项行动:网络治理的“五治”协同》,2022-04-08)
表述网络空间的秩序混乱时,官方话语中出现了两个值得注意的隐喻:“污染”和“疾病”。这两个隐喻暗示,如果理想中的互联网应该是具备良好道德风尚的场所,那么现实中的互联网也有可能会被“污染”,变得“肮脏”或者“生病”。例如:
直播行业诸多痼疾顽症并未彻底消除。(《国家网信办等8部门推进网络直播行业专项整治》,2020-08-04)
力求有效遏制网络乱象滋生蔓延。(《全网开展“大扫除”,力求有效遏制网络乱象滋生蔓延》,2021-05-11)
相信随着监管体系的日益成熟,那些“牛皮癣”一般的顽疾将得以铲除。(《让网络空间更加清朗(云中漫笔)》,2021-12-03)
破坏网络秩序的行为如“疾病”和“垃圾”一样,是完全不应出现的、反常的、多余的事物。理想的网络空间不可能处于清洁和肮脏之间的中间状态;一个空间只要存在垃圾或者污染,那么它就是被污染的、肮脏的。网络主管部门定义失范行为的话语和为其背书的主流媒体话语,实际上用“道德规范”和“污染隐喻”重构了网络秩序问题,唤起了“互联网正在遭遇威胁”的紧迫感。因此,两种隐喻也在为外部干预的必要性提供支持,没有外部力量干预(去“清洁”或者“医治”),“污染”或“疾病”是不会自动消除或自我治愈的。
2.清除污染的治理行动
如果互联网被定义为一个物理空间(类似于广场、街道的“公共场所”),它正在被一些污染物变得肮脏,那么采取强力手段将污染物“清除”,使之恢复到一种“清洁”或“清新明朗”的状态,就是题中应有之义。官方话语常常将恢复网络空间“洁净”状态的行动表述为“净化”,且这种“净化”往往是强力、有效和绝对的(“零容忍”、“说不”、“以铁的决心”、“铲除”、“扫除”、“根除”)。如:
要在全网开展“大扫除”(《国务院新闻办公室举行2021年“清朗”系列专项行动发布会》,2021-05-08)
以铁的决心、铁的手段、铁的作风整治网络乱象(《整治网络乱象,重锤要敲在“点”上》,2022-03-19)
(二)平台话语
1.社区隐喻
作为互联网治理的统摄话语,官方话语为社交媒体的规范话语提供了大量话语资源,因此网络平台的秩序话语与官方话语存在清晰的互文性。例如,小红书和抖音等平台的社区规范中,就出现了类似官方话语的表述:
小红书倡导用户发布符合当代社会主流价值观的内容。(《小红书社区规范》,2021-12-24)
为了营造直播平台合法健康的娱乐环境,让大家在健康有序的环境下获得良好的用户体验,抖音短视频平台制订此直播行为规范,让我们一起建设绿色、健康、文明、积极向上的直播环境”。(《抖音短视频直播公约》,2022-05-19)
尽管如此,“社区”隐喻,以及类似的“班级”隐喻(“风纪委员会”、“节操”)和“家庭”隐喻(“小管家”)在平台话语中仍然十分突出。和官方话语对互联网的表述一样,“社区”也是一个关乎“空间”的隐喻,该隐喻强调线上空间是脱离真实世界的一个独立的场所,从而淡化了网络空间与现实世界的关联。相较于官方话语中对于空间“物理性”的强调(类似于“广场”或“街道”的公共空间),“社区”更侧重空间的“社会性”,隐含小型共同体内部的和谐氛围和融洽关系。
对于社群主义、原真性和融洽对话氛围的推崇,并不意味着互联网平台没有意识到违反规则的行为存在。但是互联网平台并没有对违反社区规则的用户使用强烈的措辞,而是采用一种相对温和积极的方式界定问题。在平台规范话语中,违反行为规范的人只是没有遵守社区规则,而不是道德败坏、破坏社会稳定的人。网络问题也不外在于互联网;麻烦的制造者本身就是一个社区的内部成员,而不是外来的某种威胁或组织化的幕后黑手。因此,平台话语很可能弱化了网络问题的危险性和对受害者的严重影响。
2.社区自治话语
对于社区的管理和社区成员的约束,互联网公司使用了一种自我管理的话语。首先,社区成员通过对“公约”(由社区成员共同确定、共同遵守的软性规定)的学习,内化社区的要求,从而实现成员之间的相互监督和软约束的内化。例如,《小红书社区公约》(2021-12-24)、《bilibili创作公约2.0》(2021-04-06)等,暗示平台用户需要遵循社区的某种内部规范,这种规范与社会的公序良俗并不绝对一致,更多是社区内部的文化规则。通过社区对用户行为进行约束行之有效的关键在于,用户必须认可自己社区成员的身份。社区成员越可能意识到自己的身份、认可社区的价值,他们破坏社区规范的可能性就越低。
类似地,互联网平台推崇社区自治,积极鼓励社区成员承担维护社区氛围的责任:
申请成为风纪委员,意味着你将肩负起更多社区主人翁的使命,不断净化不良内容,帮助推荐优质内容,以营造友好和谐的社区氛围。(《哔哩哔哩风纪委规范》,2022-02-24)
社区氛围的维护离不开社区和所有用户的共同努力。……小红书社区之所以广受欢迎且长期繁荣,核心原因是社区活跃着一群乐于为他人提供真诚建议和帮助的成员。(《小红书社区公约》,2022-05-05)
社区自治话语的产生原因还在于,对于社区内发言适宜与否,往往取决于沟通者对于亚文化语言和符号的理解。首先,网络语言和符号是快速产生和变化的流动体,其含义往往因语境不同而异。其次,互联网的对话往往发生在亚文化圈子中,圈子中的成员有相似的背景,对于用语含义的理解取决于成员的理解。例如,在一位B站用户自发整理的审查规范中,对一些可能引发攻击行为的名词进行了说明。“不能接受的行为是进行恶意辱骂、人身攻击、带节奏、钓鱼和引战”,但是在某个圈子之外的人很难识别出这是否是人身攻击,因此“圈内的事物最好还是交由当事圈处理,过度介入会造成不必要的争端”(《收集给风纪委员的部分名词与解释3.1》,2020-04-09)。因此,对网络语言或“梗”的大量使用,要求社区成员能够对其含义进行确认。
05
结论与讨论
表述事物的语言至关重要。本文发现,官方话语中网络问题被建构为一个道德问题。政府确立的秩序话语,主张互联网是受法律和道德约束的空间;网络主管部门致力于建设一个纯净的、无污染的网络环境,保护民众免受不良信息和不法行为的侵害。政府主管机构将网络问题的产生归咎于一些有组织、有目的、蓄意破坏社会稳定的人群,部分网民受到他们的蛊惑、充当其帮凶。只要清除掉这些不应该出现在网络中的“破坏分子”,互联网就会变得“清朗”。网络空间的清朗是通过消灭网络中的危险成分或“麻烦制造者”来完成的——或发动强烈的舆论道德抨击,或将其绳之以法。总之,官方话语会导向一种事后的、惩罚式的治理方式。
政府认为“扫除”可以净化网络空间,而网络平台则寄希望于社群的约束。两种话语本质上都是一种空间隐喻,割裂了网络与现实世界之间的联系,而不认为它本身就是真实世界的一部分。事实上,互联网并不外在于世界,也不是脱离真实的纯净之地——如同在现实中我们永远无法消除犯罪一样。正如Markham(2003)指出的,作为“一种存在方式”(awayofbeing)的互联网并不与现实世界脱离,它是人们真实生活的一部分;在这里,自我、信息技术和日常生活充分融合、紧密相连。此外,由于法律维权的滞后和失范行为绕过平台技术监管的可能性,即使是强力的法律约束和先进的平台管控技术,也不能保护互联网用户完全免受威胁。如果互联网的使用者必须长期与失范行为共存,那么既可以消灭“污染物”或“有毒物质”,也可将提升易感者的“抵抗能力”作为一种替代的叙事范式。换言之,网络用户应该被塑造成为积极承担自我责任、抵抗网络风险的主体,而并非只能被严密保护的对象。通过用户教育、提升用户的网络素养,可以成为现有网络问题应对方式的有益补充。
本研究仅构建了一个较小规模的语料库,话语样本可能并没有涵盖所有关于网络规范的表述。由于研究方法的限制,也没有进行计算机辅助的文本分析或历时性的比较研究。此外,如下问题值得进一步探索和阐明。第一,互联网本身及其治理方式都呈现出明显的演进性,因此话语的演变值得探究。第二,需要更加细致地刻画不同群体的话语差异,如分析对互联网技术专家、法律专家、记者、政府的不同部门、互联网从业者等群体使用或创造的隐喻和话语框架。第三,受众研究,即通过深度访谈和问卷调查等方法研究受众对于不同话语的理解。第四,借助大规模语料库对文本间的互文性、词语关联和话语模式开展系统的量化研究。