【科学强国】算法统治人类?

2022-07-05 16:23:43 来源:科学强国微信公众号 作者:苏枫 责任编辑:田小介 字号:T|T

  最近,国内主流互联网平台都推出了关闭个性化推荐的选项。

  有意思的是,很多用户不愿意关闭算法。

  根据一项调查,有用户说,“关闭推荐之前,常刷到的短视频总让我欲罢不能,有美妆教程、精致生活,关闭之后刷到的竟是情景恶搞、土味情话……我赶紧又默默打开了个性化推荐。”

微信图片_20220705162157.jpg

图源:Weiot

  还有用户反映,“平台算法似乎比我更懂我,推荐的商品总让我忍不住买买买;如果关闭推荐,我怕错过那些好东西。”

算法真的“比我更懂我”吗?

  平台纷纷关闭个性化推荐源于中央网信办的专项行动——从4月8日起到12月初,中央网信办牵头开展“清朗·2022年算法综合治理”专项行动,深入排查互联网企业平台算法安全问题,对算法进行备案管理,督促整改算法不合理应用带来的“信息茧房”“算法歧视”“大数据杀熟”等问题。

  另外,由工信部、中央网信办等联合发布的《互联网信息服务算法推荐管理规定》从3月1日起正式施行。规定提出,用户对是否使用算法拥有选择权。互联网企业应该在页面显著位置,向用户提供不针对其个人特征的选项,或者便捷的关闭算法推荐服务的选项。

  但是,这个算法关闭键往往隐藏极深,不是“老手”根本找不到。

  最少的操作也需要5步,最多的要7步以上。

  有业内人士指出,平台对关闭算法键的隐藏深度,在一定程度上代表了平台对算法的依赖程度。所以,平台把算法关闭键隐藏得比较深,这个不难理解。

人类操纵算法,还是算法统治人类?

  如果算法真的比我更了解自己,那么我为什么不把选择权交给算法呢?

  业内专家对此进行了深入解释。

  就拿导航软件这样一个算法来说。一开始,它只是你的仆人,为你提供各种路况信息,告诉你哪儿有摄像头,但由你来决定最终走哪条路。到了某个路口,你的直觉想要往右转,但算法告诉你往左转。多经过几次你就会知道,算法比你的直觉更可靠,最好还是听它的。

微信图片_20220705162220.jpg

图源:Weiot

  慢慢的,算法开始变成你的代理人。你只需要告诉它一个选择标准,比如“走距离最近的路”或者“走红绿灯最少的路”,算法就会为你自动选择路线,其他的不用你操心。这个场景在自动驾驶时代马上就会实现。

  再接下来,算法会变成你的管理者。假设早高峰时,环路的主路堵车,辅路相对顺畅,而每个人都相信算法的判断。这时候,算法不可能让所有人都去走辅路,那样会马上造成辅路的拥堵。算法只会让一部分人从主路分流到辅路,而让另一部分人仍然保持在主路上。

微信图片_20220705162253.jpg

图源:Weiot

  这个时候,算法就不再是“你”的代理人,而是管理你的人。

  你可能会说,在出行这件事上被算法“管理”,这可以接受,只要让我出行更方便。那再来看一个例子,就是内容推荐算法。

  一开始,它只是仆人,为你推荐各种你感兴趣的内容。同时,为了让自己的推荐更准确,它也在不停地了解你的偏好。

  脸书曾经做过一个统计,当你在脸书上的点赞次数超过10次,脸书对你的了解就超过了你的大部分同事;而当点赞超过300次,脸书对你的了解可能会超过你的配偶。

  更重度的用户,脸书真的可以做到比你自己更了解自己。

  既然算法比我更了解自己,为什么不把更重要的决定也交给它呢?

  既然如此,那就直接让算法当我们的代理人好了。相亲,其实不用本人见面,让算法直接给算一下合不合适就可以了;求职的时候,也不用递简历、面试,算法直接给算一下人岗匹不匹配就可以了。

  如果买东西、看新闻这样的小事可以交给算法,那找对象、找工作这样的人生大事是不是也可以交给算法呢?

  如果这一切真的发生,那么算法也就从每个人的“代理人”,变成了人类社会的管理者。

  到底是人类操纵算法,还是算法统治人类?

  我们在思考,人类社会到底应该在多大范围内、什么程度上,让算法为我们服务?

  人类一思考,算法就发笑——希望那一天永远也不要到来。

  因为,如果真的出现这种情况,科幻片中人类被机器统治的场面就实现了(其实已经部分实现了)。

  作者:苏枫

  编辑:郭玲

  审校:龚紫陌

  视觉:龙昊




返回顶部