24小时咨询热线

当前位置: 首页 > 中央民族大学 > 新闻中心 > 详细

在线选课

基本信息

培训方向

*已开启信息加密保护,请放心填写! *请保持电话通畅,我们会尽快与您联系。

在线咨询

《光明日报》整版刊发学校师生调研团队《如何远离算法之“算计”?》一文

点击数:567 时间:2022-04-14 14:55 来源:中央民族大学

  新闻网讯 4月7日,《光明日报》第07版“光明调查”整版刊发《如何远离算法之“算计”?》一文,文章由北京市习近平新时代中国特色社会主义思想研究中心特约研究员毛湛文牵头,联合光明日报与学校新闻与传播学院调研组共同完成,就个人用户的使用体验,梳理了算法化生存中的困境、挑战及具体应对表现,并就如何提升算法素养提出建议。

  全文如下:

编者按

  3月1日,国家互联网信息办公室等四部门联合发布的《互联网信息服务算法推荐管理规定》(简称《规定》)正式实施。《规定》对算法推荐服务做出全面规范,明确了算法治理体制机制,科学构建了网络平台问责体系。随之启动的2022年“清朗·算法综合治理”专项行动,要求督促整改算法不合理应用带来的“信息茧房”“算法歧视”“大数据杀熟”等问题。上述新规及举措是在数字化变革时代对算法治理的有效回应。在“与算法共存”的时代中,网民作为网络行为主体,如何提升自身的算法素养,远离算法之“算计”,更加安全自主地享受网络生活?鉴此,光明日报联合中央民族大学调研组,进行了问卷调查(有效问卷912人次)及深度访谈,就个人用户的使用体验,梳理了算法化生存中的困境、挑战及具体应对表现,并就如何提升算法素养提出建议。

  “以前总是被‘安排’看到自己‘想看’的内容,关闭个性化推荐后,感觉看到了更广阔的世界。”“开了推荐,网购平台似乎比我更懂我,总让我忍不住买买买;不开吧,又怕错过合适的商品。”“关闭推荐之前,常刷到的短视频总让我欲罢不能,有美妆教程、精致生活,关闭之后刷到的竟是情景恶搞、土味情话……我赶紧又默默打开了个性化推荐。”

  …………

  随着《规定》发布,抖音、微信、淘宝、百度、京东、微博等App均已上线“个性化推荐”一键关闭功能。然而,调查中部分用户对于“个性化推荐”关不关表示纠结:有人觉得关闭后“打开了新世界的大门”,也有人觉得关闭后降低了用户体验,难以适应。

  从疫情防控中的行程追踪到智能出行中的路况计算,从符合口味的资讯内容到满足个性喜好的商品推荐……大数据时代,须臾不可离的算法已广泛渗透到社会各个层面,成为人的“技术伴侣”。我们需要算法的存在,享受它所带来的便利;同时又要对其带来的控制和其他风险有足够的识别与反抗能力。调查结果显示,有56.9%的受访者认为算法程序提升了电子产品使用体验,但北京大学互联网发展研究中心发布的《中国大安全感知报告(2021)》也显示,70%的调研对象担心个人喜好与兴趣被算法“算计”,50%表示在算法束缚下想要逃离网络、远离手机。

隐忧:

身处算法社会,我们正遭遇哪些困境?

  潜藏在算法推荐之下的“差别化待遇”。3月初,北京市消协发布的互联网消费大数据“杀熟”问题调查显示,其在调查了16个平台、提取了32个模拟消费体验样本后发现,有14个样本新老账户的价格不一致。调研发现,用户与算法平台之间存在着鲜明的“信息沟壑”,平台掌握着算法的模型公式和呈现规则,通过对信息筛选标准的个性化设计,以及对其他平台的“数据跟踪”,让用户处在信息金字塔的底端。精准推荐的背后来自平台对个人数据的标签化运算,进而是将用户消费能力划分为“三六九等”,形成算法歧视。

  算法歧视不仅损害用户利益,更会激化社会的原有偏见。调研发现,新闻推送中的女性、老年人等弱势群体更容易受到人们的关注,有68.7%的受访者认为“女司机”“女大学生”等带有性别指向的词汇更容易上热搜,性别议题更易激起讨论。平台利用“用户画像”和“贴标签”区别个体、扁平化用户,强化现实生活中的刻板印象,可能引发社会舆论。

  无处可逃的信息收集与“隐私威胁”。热播的黑色幽默短剧《大妈的世界》中有这样一段情节:广场舞大妈们正发愁买什么颜色的演出服,此时王大妈随口说了一句晚上吃西红柿炒蛋,并拜托杨大妈去接“熊猫班”的外孙,结果手机购物App就分别给她推送了红黄相间、黑白配色的衣服。平台以“偷听”的方式窃取数据用以计算用户的偏好,再“突袭式”地进行信息推荐,已引起普遍关注。调研中多位被访者表示,置身于平台与算法联手建立的系统中,被“偷听”已成“家常便饭”。很多企业、App、第三方机构在共享用户的个人信息之际,试图掌控更多的个人隐私。访谈中,不少用户表示,浏览器总能“记住”其搜索历史并且同步到其他设备上,在首页反复推送搜索过的同类内容,让人有一种“被泄密”的不安感。

  基于收集个人信息的算法推荐服务带来的困扰不止于此。一方面,不当的推荐表现在“量”上,过多同质化的内容形成了信息冗余,容易使个体产生心理疲劳与隐私焦虑;另一方面,算法推荐的“度”也常常超出应该推荐的内容范围,色情、低俗等有违主流价值观的内容常常被置入开机页诱导用户点击。

  被算法过滤与掌控的“渐进式依赖”。“平时吃饭、遛娃我都会找App上排序靠前的餐厅和游乐场”,31岁的二胎妈妈孙颖表示,依靠应用平台推荐虽然也“踩过雷”,但这样的选择对于她而言更省时省力。互联网时代,不少网民越来越多地将事物的优劣判断交给算法。算法凭借着“优先”“分类”“联想”“过滤”等机制在很大程度上建构了“人们在互联网上的感知与现实”。调查显示,超六成的受访者会根据平台的排名、评分等数据做出个人决策,尽管他们并不认同排名靠前的商品或内容一定是更好的。

  调研还发现,不少提供算法推荐服务的平台,更是通过将相关内容放在突出位置、屏蔽其他平台链接等方式,实现“入口垄断”与“自我优待”。这些平台在热搜榜、首屏、弹窗等重点环节,通过设置关键词、定向推送等方式将特定内容推至榜单前列,暗中控制人们可关注的信息范围。72.1%的被访者认为平台会推荐与自身兴趣相似的内容。当人们习惯由平台供应信息时,有可能陷入算法设置的“过滤气泡”中,人委身成为数据的“附属品”,渐渐丧失接触多元信息的机会。

应对:

从“逃避”到“栖身”的用户生存之道

  从对“大数据杀熟”的诟病,到对“信息茧房”的熟知,普通用户在强势的算法技术应用面前,不得不选择以妥协的方式忍受算法带来的种种问题。调查中,超过半数受访者表示自己意识到了平台或商家对个人信息的收集,但如果不勾选“用户知情同意书”,就无法使用软件所提供的功能。让渡隐私来换取服务,成为普通人与算法共存时“无奈而自洽”的心态。然而,在“受制于算法”的大多数情形之外,仍有不少用户选择同算法“斗智斗勇”,规避算法的消极影响。

  善用“反追踪”策略的“数字隐身”。大学生高宇是社交平台的“重度用户”,在和算法推荐日复一日的相处中,她练就了一身“躲避”算法的本领:“我每次在首页刷到不想看的内容就会‘以迅雷不及掩耳之势’划过。”她还在同一个社交平台注册了“小号”,“大号用来追逐热点资讯,小号用来发日常,这样不想看到相关内容的时候就有个地方可以‘躲’了”。

  当下,身处各类默认设置协议中的普通个体,发展出多元的“算法回避”策略。他们或更换手机号码、建立多个账号,以此迷惑算法;或采取不点赞、不发表、不评论的方式,减少在互联网中的数字痕迹;或因不喜欢某些软件的推荐机制而选择关闭或停用,直至寻求到算法友好的替代性产品;或想办法关闭手机收音功能,从硬件设备端对可能的算法监听予以阻隔。这些方式呈现出共性的算法化生存之策——“断连”与“隐形”。然而,调研中许多用户表示虽然可以远离算法软件,却无法躲避算法思维的连锁反应。调查显示,只有54.9%的人认为这种逃避产生了效果,霸王条款、偷用隐私、强行定位等情况依然难以靠个体力量得到缓解。

  “因地制宜”投喂算法的“反向规训”。依据算法情境“因地制宜”地制定使用策略,主动探究算法运作的规则与思维方式,通过意图鲜明的点赞、收藏、点击“不感兴趣”等行为设置自主偏好,甚至在感兴趣的帖子下留言称“大数据请记住我,多向我推送这样的(帖子)”……调研发现,部分用户选择以主动“喂养”的方式寻求与算法的相处之道。

  其中,一度活跃于“饭圈”的“数据粉”就是依靠与算法的“你来我往”试图影响信息排序的一群人。“数据粉”群体通常通过组织信息点击和发布,对偶像的作品点赞、带话题转发等,提高相关内容的热度,从而影响算法,令与偶像相关的内容跻身更显著的位置,高调抢占大众注意力。

  借算法平台谋取红利的“栖身式共存”。“以前我只选感兴趣的内容创作,但有一次偶然剪辑制作了一部爆款影视剧介绍,流量特别好,自此以后我开始琢磨怎么才能更火。”余家豪是一名业余的视频网站内容创作者,受和他类似感受的牵引,越来越多的MCN(多频道网络)及自媒体创作者全心“栖身”于算法主导的内容世界,迎合代码规则、抓住流量密码、实现商业变现,构成了算法化生存的另一种模式。调研中,在“是否主动迎合推荐机制发布内容”的回答中,选择“是”的比重超过三分之二。调研也发现,部分内容生产者不惜使用“三俗内容”“打擦边球”等方式迎合算法准则。

反思:

走出算法困境究竟难在哪里?

  平台价值观嵌入算法程序,增加了普通个体察觉偏见的难度。调研中,接受访谈的算法工程师表示,算法并不是绝对客观中立的技术,数据采集的范围与平台的市场意图等都会写进代码、影响样本分布或数据集,从而将“倾向”与“立场”嵌入程序设计中。对于普通用户而言,由于算法本身以数字、公式的方式呈现,具有“技术无意识”的特征,个体更难察觉和追溯价值偏见的源头。例如以“流量至上”为代表的畸形的内容评价体系就是算法逻辑潜移默化作用的结果。

  算法设计方与社会公众之间存在知识鸿沟,导致算法难以被理解和诠释。按照行业惯例,大部分算法设计者并不会将运算的细节公之于众,算法存在着看不见的“黑箱”。长期以来,这种不透明的机制被看作是“自然化”的存在,很少有人去质疑其合理性,严重影响了社会对算法的监督。算法工程师与其他社会主体之间缺少公开而持续的算法解释环节,建立相关的多方算法沟通机制迫在眉睫。

  算法使用者处于弱势地位,加剧了个体维权难题。调研组发现,真正了解算法运行机制的人并不多,仅有43.0%的人认为自己熟悉算法,更多被访者表示自己对算法“一知半解”“知道又好像不太熟悉”。在我国当下有关媒介素养的教育中,“算法素养”培育仍然缺位。欧盟委员会于2020年开始呼吁成员国各国培育公众对算法系统功能及其影响的意识和素养。

  开展算法治理的配套措施和机制尚未到位。作为日常技术,算法深刻改变了人们的生活,但社会尚未跟上算法发展的步伐。换言之,技术的发展并没有完善的“基础设施”来配套。同时,算法行业的伦理意识尚显薄弱,缺少行业自治的伦理标准。有关算法推荐信息服务的管理规定虽然已经出台,但是与之相配套的治理算法的体制机制、保障措施还有待完善,整个社会对算法开展“协同共治”的氛围意识和参与渠道,都需要持续探索、切实推进。

未来:

全面提升算法素养,与《规定》形成互补

  《规定》出台让自上而下的算法治理有了法理依据,但在自下而上的算法素养提升方面仍有较大差距,需从以下方面着手开展相关工作。

  融通多元渠道,上好全民的“算法普及课”,形成社会共识与知识共享,打破“算法崇拜”。算法思维不仅应用于算法领域,也在更广泛的层面上影响着实践。增强算法思维,一方面要深入理解算法逻辑,提高运用计算思维、数据思维分析和解决问题的能力;另一方面,要防止走入“算法崇拜”的误区,着力培养算法素养与人文素养兼容的新思维。如今,系统化的算法思维教育仍然缺位,亟须全民共上“算法普及课”,补上算法思维教育的缺口。2018年起,算法相关课程已写进高中“新课标”,未来还需增加中小学算法课程,“从娃娃抓起”培养算法思维;加强算法科普读物与影视作品创作,以文化产业助推算法思维教育;建立算法思维评价指标体系,推动算法思维教育科学化发展。

  将提升算法素养与现有消费权益、隐私权益、特殊人群权利保护体系“有效对接”“精准匹配”,构建向上向善的算法传播格局。配合《规定》对透明性、可解释的算法规则的要求,基于公开的算法机制,增强用户对算法过滤信息的辨别力,同时加强对热点排序等功能的人工干预;在应对“隐私危机”方面,树立个体信息保护意识,厘清个人普通信息与个人敏感信息边界;在个人信息输入页面设置隐私泄露提醒,防止盲目泄露个人信息;加强隐私权相关案例的媒体报道,树立公众维权意识;加强理性消费、公平消费等知识宣传,开通差异化定价投诉渠道,明确奖惩机制,严格整治“大数据杀熟”等侵犯消费者权益行为,帮助大众避开“消费陷阱”。

  构建“主流价值观+行业伦理+公共监管”的协同治理体系,强化算法问责,营造合法规、有情怀、可追溯的算法开发环境。算法素养主体既包括算法使用者,也包括算法开发者。提升算法开发者的算法素养,更需要多元协力、携手共治。应追踪《互联网信息服务算法推荐管理规定》等法规的实施效果,对违规应用算法技术的企业进行处罚、约谈等,实现刚性约束;在行业内广泛开展对算法伦理的宣传与讨论,加强主流价值观的行业内宣传,将社会公德和职业道德引入行业价值体系,实现柔性制约;督促互联网行业建立实践层面的操作规范,着意防范“算法偏见”“算法歧视”等现象,从开发设计环节追求算法公平,实现技术创新与伦理之间的平衡;推进算法开发过程公开化、透明化,引入公众监督,营造依法、审慎、道德的行业环境。

  (执笔人:北京市习近平新时代中国特色社会主义思想研究中心特约研究员毛湛文、本报记者白雪蕾;调研组其他成员:赵安琪、聂一丹、于昊、季芸、代宁)


最新文章
【干训网声明】网站有的文章及图片均来源于学校官网或互联网,若有侵权请联系gzldyjy@yeah.net删除。
电话
400-6007-016
咨询
二维码
顶部
提问