邢台市内游社群

“大数据杀熟”紧牵公众神经,这场“风光无限”的舆论风暴将如何收场

AI大世界2019-11-02 07:03:48

这几天,我被“种草”了一个很高级的词汇——“大数据杀熟”。

所谓的“大数据杀熟”,有人将其定义为互联网厂商利用自己所拥有的用户数据,对老用户实行价格歧视的行为。

也就是说:同一件商品或者同一项服务,互联网厂商显示给老用户的价格要高于新用户。

纳尼???老用户不是才应该享有各种优惠么?毕竟他们才是一直支持这些产品或服务的人。

果然,世上本没有路,走的人多了,就都成了套路

2017年12月29日07:54,微博网友@廖师傅廖师傅 分享了被大数据“杀熟”的经历。据了解,他经常通过某旅行服务网站订某个特定酒店的房间,长年价格在380元到400元左右。偶然一次,通过前台他了解到,淡季的价格在300元上下。

注:图片来源微博截图

该微博发出后,瞬间转发破万,网友们纷纷吐槽各自“被宰”经历。截至2018年3月27日14:30,该微博转评超2.7万+,点赞1.5万+。但由于被元旦、跨年、“李小璐出轨”等其他热点事件掩盖,尽管部分媒体进行了转发,但此事并未在舆论场引起太大反响。

3月22日23:25,又有微博网友发博称,同一段路程,打车软件对两部手机的报价却不一样,是传说的大数据杀熟?

注:图片来源微博截图

这是真的吗?为了验证真假,于是很多网友进行了亲自验证,发现真的存在这样的情况。

注:图片来源微博截图

于是网民不淡定了,纷纷留言评论,分享了自己在购买机票、电影票、会员以及预定酒店等方面遇到的“杀熟”经历:

注:图片来源微博截图

3月23日18:07,@滴滴出行 官方微博发出该公司CTO张博在内网发布的公开信截图,配文称“‘大数据杀熟’?其实大家想多了啦。以前没有,以后也永远不会有。”信中称,“滴滴平台上不允许价格歧视,打车价格更不会因人、因设备、手机系统而异。‘预估价’和‘实付车费’是两个概念。”

注:图片来源微博截图

虽然极少数网友表示这样的解释可以接受,但多数网友并不买账,持续质疑滴滴在撒谎,并用自己的经历进行了实证。

注:图片来源微博截图

微 信舆论场,关于“大数据杀熟”的文章也开始大量出现。

3月24日,微 信公号“人民日报”推文《"大数据杀熟"刷屏,网友亲测后气炸!你中招了吗?》,盘点了大数据花式宰客套路,并评论“从福利经济学的视角,针对不同消费能力群体差别定价并非一定是坏事。然而,同一时刻对同一产品的差别定价,尤其是将消费者蒙在鼓里随意加价的情形,并不在其列。为了获得灰色超额利润,它损害了消费者权益,已经构成违背消费者知情权的价格欺诈,不为价格法所允许。”

注:图片来源微 信公号“人民日报”截图

至此,“大数据杀熟”开始引爆舆论场。

24日13:31,@人民日报 官微也发布了这篇文章,并在当晚22:20再次转发了@中国青年报 的相关博文,同时附上了微评“看人下菜碟,越熟越坑你,‘大数据杀熟’引发众怒。无论‘杀熟’还是‘欺生’,都有失厚道,属于不折不扣的欺诈。大数据本是好东西,却沦为作恶工具,板子应该打在操弄者身上。技术无辜,机构担责。不尊重广大用户,这样的企业能走多远?”。

同时,@中国经济网、@财经网、@三峡日报、@中国之声 等媒体账号和微博大V也纷纷发博跟进此事。

注:图片来源微博截图

社交平台上,“大数据杀熟”引发激烈的舆论震荡,网友纷纷吐槽这种行为,有网民表示,在机票、酒店、电影、电商、出行等多个价格有波动的平台都存在类似情况,微博网民@装睡的鹿先生 直接发文,“亲身经历过,携程买机票一下单就涨价,取消订单后更蹭蹭涨,然后小伙伴异地电脑端查同样行程的同班次机票,便宜好多好多好多。”

清博舆情系统(免费注册,海量数据,多维分析,近50000用户的选择,yuqing.gsdata.cn)显示,截至3月27日下午14:00,与此事相关的信息量为5051条,其中网页的信息量最多,为1622条,微博的信息量为1581条。从24日起,连续4天,此事的POl(舆论负面指数)均超过800,出现红色预警。

在情感属性方面,网民对“大数据杀熟”的情绪以负面为主,占比高达56.12%,正面情绪仅为11.62%。多数网民觉得自己在不知不觉中被“大数据杀熟”过,明明是明码标价也能暗度陈仓,简直防不胜防,也是心累。

从热门主题词可以看到,“机票”、“电影”、“会员”、“酒店”等备受热议,这主要源于较多网友在网络上曝光了自己被“大数据杀熟”的经历,一些价格波动较大的行业如网购机票、电影票、酒店线上预订、网约车等是“杀熟”的重灾区。

有网友表示“大数据杀熟”是对大数据的活学活用,这引发了部分网民对大数据的质疑,那大数据本身有问题吗?

注:图片来源微博截图

微 信公号“东南日报”发文称:“杀熟”是新表现,但“杀熟”本身却是老问题。事实上,大数据“杀熟”与传统经济中的“杀熟”并无本质区别,都体现了一种滞后的商业文明。需要注意的是,不能因大数据“杀熟”而杀死大数据。

注:图片截图自微 信公号“东南日报”

其实此前@人民日报 和@光明网评论员文章 都曾发文表示,“大数据技术本身是中性的,关键在于使用者用来做什么。”“‘大数据杀熟’无关技术,关于伦理”。

注:图片来源微博截图

截至目前,微博上关于#大数据杀熟#话题的阅读量超千万,在清博指数平台搜索“大数据杀熟”出现相关文章884篇,总阅读数近200万。

不管此事最终如何定性,一个诚信、透明、公平的市场交易环境都应该是一个成熟的商业社会所应该追求和呵护的。


一个月前,《终极算法》作者、人工智能著名学者、华盛顿大学教授 Pedro Domingos 在社交网络中写道:“自 5 月 25 日起,欧盟将会要求所有算法解释其输出原理,这意味着深度学习成为非法的方式。”一石激起千层浪。人们不禁要问:欧盟为何出台这个法规?以深度学习为核心的人工智能真的会遭遇重大挫折?中国应当借鉴并仿效吗?



用人工智能的自动化决定


尽管真正拥有知觉和自我意识的“强人工智能”仍属幻想,但专注于特定功能的“弱人工智能”早如雨后春笋般涌现。在万物互联的背景下,以云计算为用,以个人数据为体,以机器学习为魂的智能应用已经“润物细无声”。


从今日头条的个性化推送到蚂蚁金服的芝麻信用评分,从京东的“奶爸当家指数”到某旅游网站用大数据“杀熟”,个人信息自动化分析深嵌入到我们日常生活之中。在法律上,我们称之为“基于个人信息的自动化决定”。简单来说,就是通过自动化的数据处理,评估、分析及预测个人的工作表现、经济状况、位置、健康状况、个人偏好、可信赖度或者行为表现,进而利用这种“数据画像”(profiling),在不同的业务场景中作出有关数据主体的各项决定。



人工智能的自动化决定一方面可以给我们带来便利,比如智能投顾或智能医疗,但另一方面,它绝非完美无缺,它可能出错,甚至还可能存在“恶意”。美国马萨诸塞州的居民John Gass便深受其害。联邦调查局的反恐识别系统将他误认为是另一位司机,并吊销了他的驾驶执照,于是,他不得不费时费力,让当局相信他不是那名司机。


其实,John Cass已经非常幸运。在美国,每周超过1000人被机场使用的算法错误地标记为恐怖分子。一名美国航空公司的飞行员在一年中被拘留了80次,因为他的名字与爱尔兰共和军领导人的名字相似。这还不算是最糟糕的。人工智能的算法依赖于大数据,而大数据并非中立。


它们从真实社会中抽取,必然带有社会固有的不平等、排斥性和歧视的痕迹。例如,为了在Twitter上与千禧一代进行对话,微软开发了Tay聊天机器人,它旨在学习如何通过复制网民的语音来模仿他人。可仅仅在试用24小时后,它就被引入歧途,成为支持种族灭绝的反女权主义纳粹分子,以至于发出了“希特勒无罪”的消息。更有甚者,美国法院用以评估犯罪风险的算法COMPAS,亦被证明对黑人造成了系统性歧视。



无论是程序错误,还是算法歧视,在人工智能的前沿领域——深度学习中,都变得难以识别。华盛顿特区的Sarah Wysocki是一位被普遍认可的老师,但当2009年政府用一个自动化决定程序来评价教师表现时,她和其他205人因得分不佳被解雇。据称,该决定以少数学生的成绩为依据,可学校始终无法解释为何优秀教师会落得如此下场。华盛顿学校的难题有着深层次原因。


与传统机器学习不同,深度学习并不遵循数据输入、特征提取、特征选择、逻辑推理、预测的过程,而是由计算机直接从事物原始特征出发,自动学习和生成高级的认知结果。在人工智能输入的数据和其输出的答案之间,存在着我们无法洞悉的“隐层”,它被称为“黑箱”(black box)。


这里的“黑箱”并不只意味着不能观察,还意味着即使计算机试图向我们解释,我们也无法理解。哥伦比亚大学的机器人学家 Hod Lipson把这一困境形象地描述为“这就像是向一条狗解释莎士比亚是谁。”


《统一数据保护条例》的应对


正是因为人工智能的自动化决定对个人权利的重大影响,将于2018年5月25日生效的欧盟《统一数据保护条例》(GDRR)在1995年《数据保护指令》(Directive 95/46/EC)的基础上,进一步强化了对自然人数据的保护。


首先,尊重个人的选择权。当自动化决定将对个人产生法律上的后果或类似效果时,除非当事人明确同意,或者对于当事人间合同的达成和履行来说必不可少,否则,个人均有权不受相关决定的限制。



其次,将个人敏感数据排除在人工智能的自动化决定之外。根据《统一数据保护条例》第9(1)条,“敏感数据”即有关种族、政治倾向、宗教信仰、健康、性生活、性取向的数据,或者可唯一性识别自然人的基因数据、生物数据。


由于这些数据一旦遭到泄露、修改或不当利用,就会对个人造成不良影响,因此,欧盟一律禁止自动化处理,即使当事人同意亦是如是,只有在明确的法律规定时才存在例外。



再次,增加数据使用者在个人数据收集时的透明度。根据《统一数据保护条例》第13条(f)和第14条(g),如果个人数据将用于自动化决定,那么至少应当向个人提供相关决定的重要性、对个人预期的影响以及有关运算逻辑的“有用信息”。


比如,在银行收集个人数据时,应当告知其可能使用人工智能对贷款人资质进行审核,而审核的最坏结果(如不批贷)也应一并披露。此外,由于我们都不是技术专家,因此,这里的“有用信息”不但应浅显易懂,为每个人理解,而且要有助于每个人主张自己在《统一数据保护条例》或其他法律下的权利。还是以贷款审核为例,当我们觉得被不公正对待时,银行提供的信息就应当成为法院审理的重要依据。



最后,如果个人对自动化决定不满,则有权主张人工介入,以表达自己的观点并提出质疑。这一规定和上述透明度要求相结合,产生了针对人工智能的所谓“解释权”,而这正是Pedro Domingos的担忧所在。考虑到算法黑箱,深度学习的合法化似乎是个无解的问题。但事实上,这可能是个误解。


一方面,“有用信息”的提供是在收集数据之时,而非作出自动化决定之后,其意味着个人仅仅概括地了解系统的一般原则即可,并不需要彻底把握某项具体决定的逻辑。另一方面,法律所看重的是“可理解”(explainable),而不是“可阐释(interpretable)。换言之,它不关注人工智能内部究竟如何运作,而只关心输入数据和输出结果的关联关系。在加州大学伯克利分校发布的《人工智能的系统挑战:一个伯克利的观点》(A Berkeley View of Systems Challenges for AI)中,这种关联性被称“反事实问题”测试。


在个人被拒绝贷款的例子中,人工智能系统必须能否回答如果诸如“我不是女性,是不是就能批贷?”“如果我不是小企业主,是不是就能批贷”这样的问题。因而数据使用者有义务建构出一套具有交互诊断分析能力的系统,通过检视输入数据和重现执行过程,来化解人们的质疑。这才是“人工介入”的真实含义。


将数据正义引入中国


数据是数字经济的关键生产要素,人工智能是数字经济的关键产业支柱。如何在发掘数据的经济价值、发展人工智能的同时,保障个人的权利和自由,依然是数字社会的未解难题。


当前,我国尚无《个人信息保护法》,在不久前出台的《个人信息安全规范》中,第7.10条“约束信息系统自动决策”也只是赋予了个人提出申请的程序性权利,并不涉及实质约束。


无独有偶,中国电子技术标准化研究院发布的《人工智能标准化白皮书》虽然已关注到人工智能的伦理和隐私问题,但着墨不多,因过于原则而难以实施。就此而言,《统一数据保护条例》可成为我国可资借鉴的他山之石。它不仅仅提供了一系列具象的法律规则,更重要的是它在“数据效率”之外,传递出“数据正义”(data justice)的理念。


尽管作为一个发展中的理念,数据正义的含义远未定型,但“反数据歧视”和“数据透明”必然是题中之意。在数字化生存的今天,不管是“社会人”还是“经济人”,都首先是“数字人”。


现实空间的我们被数据所记载、所表达、所模拟、所处理、所预测,现实空间的歧视也是如此。从求职歧视到消费歧视和司法歧视,数据歧视前所未有地制度化和系统化。基于此,法律首先要做的就是规定更加小心和负责地收集、使用、共享可能导致歧视的任何敏感数据。可这显然不够。从大数据的相关性原理出发,只是将敏感数据简单排除并不能保证它们不被考虑。


例如,若特定区域的人有着大量的低收入群体或少数族裔,那么区域的地理数据就可以代替收入或种族数据,用作歧视工具。所以,要识别和挑战数据应用中的歧视和偏见,“数据透明”就不可或缺。换言之,它要求在数据生产和处理日趋复杂的形势下,增强个人的知情权,从而修复信息的对称性。


关于这一点,凯文·凯利所讲的老婆婆故事是一个绝佳的例子。在故事里,你住在一个小城镇,你的邻居老婆婆知道你的一切动向和行踪,但你可能不会觉得被冒犯,因为你不在家的时候,老婆婆会帮你看家;更重要的是,你了解关于老婆婆的一切。从信息窥视的角度,数字时代的政府和企业就像邻居老婆婆,不过,他们只是部分地做到了第一点,就第二点而言,我们却还有很长的路要走。

— [ THE END ] —


版权声明:本公众账号除发布原创干货以外,致力于优秀投行/PE/VC文章精选、精读。部分文章推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。


小编

个人微信:17600097137


看我最新AI热点事件

长按二维码关注

Copyright © 邢台市内游社群@2017