算法之眼:当男性凝视遇上女性主义的代码反击
原创在传统媒介时代,“男性凝视”作为一种将女性客体化、服务于男性观看欲望的视觉权力结构,已被广泛批判。然而,当社会进入算法主导的数字时代,这种凝视并未消失,而是被编码进了推荐系统、图像识别和内容审核的逻辑深处,获得了前所未有的系统化力量。探讨**男性凝视与女性主义的算法对抗**,其核心价值在于揭示这场斗争已从文化批评领域,延伸至人工智能伦理、平台治理和代码政治的核心战场。这不仅是观念的冲突,更是对技术权力分配、身体自主权定义以及数字公共空间塑造权的争夺。
一、 算法如何内嵌并放大“男性凝视”?

算法本身没有性别,但其训练数据、优化目标和设计者无意识偏见,共同构筑了数字化的凝视机器。
1. 数据偏见:历史不平等的数字化石:用于训练图像识别、内容推荐的庞大数据集,绝大部分来自现有互联网,其中充斥着历史上形成的性别偏见。例如,OpenAI的研究曾发现,当DALL-E被要求生成“CEO”图片时,结果多为白人男性;要求生成“护士”则多为女性。算法从海量数据中习得的,正是现实世界中“男性主导、女性被看”的刻板模式,并加以固化与放大。
2. 注意力经济的“性感化”激励:社交媒体平台的算法核心目标是最大化用户参与度。大量数据和见闻网的行业观察表明,符合传统男性审美的女性形象(如强调身体曲线、面容幼态、姿态迎合)往往能获得更高的点击率、停留时长和互动数据。算法为获取流量,会系统性推荐此类内容,形成“性感即流量”的扭曲激励,迫使内容创作者(无论男女)主动或被动地迎合这一标准。
3. 滤镜与美颜算法的“标准化暴力”:流行的美颜滤镜和修图APP,其预设的“美”的标准——大眼睛、尖下巴、白皙皮肤、纤细身材——本质上是将一种单一的、常与男性凝视挂钩的审美观,以技术标准的形式强加给用户。它不提供多元选择,而是通过“一键变美”的便捷性,让女性进行自我规训与客体化。
4. 审核算法的双重标准与“荡妇羞辱”:平台内容审核算法常对女性身体执行更严苛的标准。例如,哺乳照片、艺术裸体可能被误判违规,而对男性凝视下性化女性的评论或骚扰性内容却反应迟钝。这构成了一种数字时代的“荡妇羞辱”:展示身体可能被惩罚,而骚扰行为却常被纵容。
二、 女性主义的算法反击:从理论批判到技术行动
面对系统性嵌入的偏见,女性主义行动者并未止步于批判,而是发起了多层次的、富有创造性的“算法对抗”。
1. 创造对抗性数据与“反数据集”:这是釜底抽薪之举。艺术家和研究者们创建旨在抵消主流偏见的数据集。例如,“女性微笑”(Women’s Smile)数据集专门收集女性在各种非取悦语境下的微笑;诸多项目致力于收集多元体型、肤色、年龄和性别表达的人像图片,用于训练更公平的计算机视觉模型。
2. 开发“反滤镜”与“身体-positive”工具:一些应用开始提供“反美颜”功能,展示未经修饰的皮肤纹理;或开发强调趣味、艺术表达而非“变美”的滤镜。更有项目利用AR技术,让用户体验不同体型身体的感受,旨在培养身体包容性。
3. 利用算法进行集体行动与话语争夺:女性主义社群熟练运用话题标签(如#MeToo)、算法推荐机制,将边缘化的声音和议题推向公共视野。她们通过策略性的内容发布(时间、标签、互动),“劫持”或“借用”平台的流量逻辑,为性别平等议题争夺注意力。
4. 对算法系统进行伦理审计与问责:研究者、律师和活动家运用“算法审计”方法,系统性测试招聘、信贷、社交媒体平台的算法是否存在性别歧视。通过发布报告、发起诉讼和公众倡导,迫使科技公司提高透明度并修正其系统。
三、 平台的责任与困境:在商业利益与伦理之间
作为掌握算法权力的平台,其角色至关重要且充满矛盾。
1. “技术中立”神话的破产:平台不能再以“算法只是镜子”推卸责任。当推荐系统主动选择并放大某种内容时,它已是积极的塑造者。越来越多法律(如欧盟《数字服务法》)要求平台评估和减轻其系统性风险,包括对性别平等的影响。
2. 审核标准的民主化制定:关于“什么是性化”、“什么是艺术表达”、“什么是骚扰”,平台不能闭门造车。需要引入多元背景(特别是女性和 LGBTQ+ 群体)的专家、用户代表参与审核规则的制定与复审,建立透明的申诉和复议机制。
3. 激励机制的再设计:能否将“对话质量”、“社会价值”、“多样性”等指标纳入推荐算法的考量,而非单纯追求最大化的互动和停留时间?这挑战着平台的商业模式核心,却是打破恶性循环的关键。
四、 新前沿与复杂挑战:当凝视变得“个性化”与“沉浸”
技术发展带来新的对抗前沿:
1. 深度伪造与性报复色情:AI换脸技术被恶意用于制作女性的虚假色情内容,进行羞辱与勒索。这不仅是凝视,更是数字性暴力。对抗需要法律、技术检测和受害者支持网络的多管齐下。
2. 虚拟现实(VR)与“沉浸式”物化:在VR社交或游戏中,对女性化身的骚扰和物化行为更具侵入感。如何在虚拟世界中建立身体边界和 consent(同意)文化,是全新的伦理与设计课题。
3. 个性化推荐的“偏见茧房”:算法可能根据用户性别(或它推断的性别)推荐截然不同的内容,将男性用户更深地推入性别刻板印象的内容中,反之亦然。这非但未能促进理解,反而加固了性别隔离与偏见。
五、 走向“女性主义设计”:构建公正算法的愿景
终极的对抗,是走向一种“女性主义设计”哲学,将其原则融入技术生命周期的每一个环节:
1. 设计团队的多元化:确保算法设计、开发、测试团队中有充分的性别多样性和边缘群体代表,从源头上减少无意识偏见。
2. 以“关怀伦理”和“交叉性”为中心:技术目标不应仅是效率最大化,而应考量其对不同性别、种族、阶级用户的差异性影响,优先考虑最弱势群体的体验与安全。
3. 用户赋权与算法选择权:向用户开放部分算法控制权,例如允许用户调整推荐内容的价值观偏好,或选择不同的内容排序逻辑(如“时间顺序”以对抗基于参与的推荐)。
4. 持续的社会技术调试:承认没有一劳永逸的“公正算法”。必须建立机制,持续监测算法输出的社会影响,并根据反馈进行迭代和修正,使其成为一个动态的、可问责的、向善的系统。
六、 总结:在编码的世界里,重写观看的规则
**男性凝视与女性主义的算法对抗**,是一场关于“谁有权定义现实”的深层斗争。它告诉我们,代码不仅是工具,也是权力的载体;算法不仅是数学,也是政治。
在见闻网看来,这场对抗的积极意义在于,它迫使我们将性别平等的诉求,从改变人的观念,推进到改变塑造观念的“技术基础设施”层面。胜利的标志,或许不是某个算法的绝对公正,而是我们是否建立了一套有效的制衡机制:让技术的设计过程民主化,让算法的运作变得可审计、可质疑、可纠偏。
当你在滑动信息流,或使用下一个新奇的图像应用时,你是否能察觉到那隐藏在便捷与趣味背后的“凝视之眼”?你又是否愿意支持或参与那些试图为数字世界编写另一种“观看”密码的努力?
版权声明
本文仅代表作者观点,不代表见闻网立场。
本文系作者授权见闻网发表,未经许可,不得转载。
见闻网