1

快手又一高管突然离职,程一笑召开海外全员会宣布人事调整;叮咚买菜被约谈并立案调查...

 2 years ago
source link: https://www.leiphone.com/category/industrynews/lVJ1xJ759Taq9M6P.html?uniqueCode=0KfpteEK6xnwZcGi
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

一年一度的打假晚会如期举行,“隐私数据”成为核心关键词。

不论是免费Wi-Fi盗取位置信息,还是儿童智能手表成为窃听工具,都在揭露一个事实:

技术的进一步扩张,正在压缩人们的隐私边界。

晚会又举了一个例子:用户只需要浏览网页,技术公司便可抓取MAC地址,然后匹配到手机号,方便营销公司精准营销。

受利益驱动,技术成了灰色产业链的掘金铲,用户所浏览的商品信息、浏览时长、兴趣爱好等非生物特征信息都是该技术的“原料”,成为另一个隐私泄露重灾区。

这实际上是去年「人脸识别」话题的延续,只不过隐私数据从人脸这类生物特征信息,变成了非生物特征信息,但本质上是对技术侵犯隐私的又一次曝光。

长久以来,围绕技术和隐私的讨论不胜枚举,人们对二者何为第一性并未达成共识,但基本上都承认,两者之间并非零和博弈,关键在于如何划分技术、隐私数据和商业行为的「边界」。

失控的数据

2021年的3·15晚会上,央视披露了多家企业非法抓取人脸数据,宝马、科勒卫浴等品牌被点名批评。

半年之后,便利蜂铺设摄像头采集数据事件再将数据隐私推上舆论高地。

两起事件不过是诸多企业收集数据的缩影,而在人们的生产生活中,这样的例子比比皆是:

上下班要刷脸打卡,进入小区要刷脸解锁,商场购物则少不了摄像头的“监控”。

这些只是线下场景收集的数据。在线上,用户的个人资料、兴趣爱好等数据同样会被抓取,用以推荐更为合适的商品、文章、图片、视频等内容。

在由大数据和互联网技术构成的数字化时代,人们已经无法避免被收集个人数据的情况,只不过线下收集的数据以个人生物特征信息(人脸、指纹等)居多,更容易引起人们的关注,而线上收集的个人数据,则尚未引起足够的重视。

但殊途同归,收集数据不是目的,让数据产生价值才是企业的追求。不论线上线下,围绕数据所产生的利益链条,已经深入到诸多企业的血管之中。

在这利益链条中,有的被称之为灰色交易,比如直接倒卖隐私数据,有的却又在法律监管之外,比如收集数据优化推荐算法,通过推送个性化商品和广告来达成交易。

“有效数据越多,价值量越大。”一位数据公司数据中心VP告诉掘金志,现在很多算法都需要大量数据来训练、优化,从而实现更加智能化的推送。

这也是诸多公司冒着风险去收集包括人脸在内的数据的原因:利用数据来调整营销策略,去触及更多有效用户,达成交易、产生收益。

简单举个例子:商户开业初期,数据分析发现女性消费者偏多,那么在随后的供货清单里,其产品也会倾向于女性。

另一个比较有趣的现象是,此前有很多APP,不给个人信息就无法用。

在众多APP的解释中,收取个人信息数据是为了更好地推荐内容,但“不给就无法用”实际上暴露了其真实目的:嘴里都是诚意,实际上干的都是生意。

“一方面,更好地推荐内容利于增强用户黏性;另一方面,APP要通过收集用户数据来构建用户画像,方便与广告主进行协商谈判,来谈合作。”

一名负责广告投放业务的员工表示,在结算方式一样的情况下,合适的投放平台,可以带来三方共赢的局面:

“广告主能降低有效用户的获客成本,APP所有方获得广告投放收益,而用户则得到了更多优质好看的内容。”

但这种“赢”实际建立在用户数据的基础上,换言之,这场数据交易,实则获益者只有两个:广告主获得精准曝光,获客成本进一步降低,并能从其他商品上进行转化;APP方则获得广告收益。至于用户,除了要被贩卖数据之外,还可能通过广告进行商品消费。虽然用户也可能不会花钱买产品,也不会产生任何直接经济损失,但通过其数据交易,其他两方获益,己方也会承担「交易成本」,即便这种成本不可见。

这正如纪录片《监视资本主义:智能陷阱》所言:“如果你没有花钱买产品,那么你就是待价而沽的商品。”

某行业人士告诉掘金志,由于相关方以提供服务为借口采集数据,消费者实际上处于弱势地位,即便消费者具备一定的警惕性和保护意识,在拒绝采集数据就无法享受基本服务的情况下,也不得不捏着鼻子签下这类“不平等条约”。

在这种不对等的关系中,生产者的强势与消费者的弱势,使得数据交易越来越泛滥,加上缺乏有效的监管措施,收集个人隐私数据的行为也愈发猖獗,逐渐走向失控。

膨胀的「信息茧房」

对于许多人而言,生物特征信息比非生物特征信息的隐私保护层级更高。

通常情况下,生物特征信息(人脸、指纹等)与资金账户、社交关系等密切相关,一旦发生泄漏,所产生的风险损失在某种程度上是「可预知」的,损失也是相对「可控」的。

以人脸数据为例,发生数据泄露之后,用户首当其冲可预知到账户安全,然后通过各种手段冻结账户。

而非生物特征信息(兴趣、爱好等)由于风险损失的「不可预估」,普通用户很难有一个直观的认识。

例如,在注册APP时,用户被要求填写基础资料、个人爱好等信息。这个过程中,用户只需要支付时间成本,而不会产生直接利益损失,就能够获得更精准的信息推送服务。

但命运赠送的礼物,早已暗中标好了价格。

这些数据虽然不会直接带来损失,但危害或许更大。在这些数据的加持下,各种推荐算法横空出世,构建了一张张封闭的「信息茧房」,茧房里的用户们,成为一茬茬被收割的对象。

大数据杀熟可以说是比较明显的一类收割方式。

系统通过抓取用户在线时长、消费记录等特征值,将用户按标签分组,然后推送不同的折扣,给新用户优惠,老用户高贵。

人们常说的消费主义也与之相关,许多用户在购物平台上购买商品,系统会根据用户的浏览记录、时长、输入标签、好友等等,推送其可能喜欢的商品,并且一发不可收拾。最后用户可能买了一大堆并不实用的商品。

这两种都比较常见,但商家只是为了赚取更多利润,虽然面黑,却也至少在法律监管之内。

但从另一个角度看,基于数据产生的推荐算法,如果没有得到有效引导,那么将会带来「社会性灾难」。

品牌传播有一种常用技巧,叫培养用户心智。最典型的莫过于“钻石恒久远,一颗永流传”这句广告,把钻石和爱情画上等号,成为结婚不可或缺之物。实际上,钻石本身价值不如黄金,但仍有无数男女为之倾倒。

罗马的建成并非一朝一夕,培养用户心智,也不可能一蹴而就,而是潜移默化、春风化雨。

以最近被讨论得较多的豆瓣为例:

豆瓣曾于2012年上线了“豆瓣猜”功能,根据官方定义,该功能如下:

“你的个人推荐是根据你的收藏和评价自动得出的,每个人的推荐清单都不同。你的收藏和评价越多,豆瓣给你的推荐会越准确和丰富。每天推荐的内容可能会有变化。随着豆瓣的长大,给你推荐的内容也会越来越准。”

毫无疑问,该功能的初心是为了给用户提供更优质内容,包括现在许多短视频APP,在使用推荐算法的时候,直接目的是增强用户黏性,然后通过广告投放变现。

但这类推荐实际上会形成一个「信息茧房」,即用户在某一类别的内容下熏陶太久,很难再接收到其他跨行业的内容,从而造成信息阻塞。在这个「茧房」里面的用户,每天都受到同质化内容的冲击,思维也会受到影响,趋于单一甚至极端。

一份对豆瓣的研究表明,豆瓣由于是小组机制,以组为单位的信息交流较为封闭,受推荐算法影响,组内成员接收到的内容更为单一(精准)。整个小组就是一间房屋,只接受来自推荐算法的投喂,而拒绝跨行业交流,所以不难理解豆瓣出现的一些极端言论。

如果这种推荐算法被用于舆论战,比如在俄乌事件中,Facebook允许用户发表任何关于俄乌领导人的仇恨言论,那么许多人可能都会接收到更多类似言论,从而带来严重的社会问题。

所以,看起来没那么重要的数据,在推荐算法的放大下,影响也会被放大无数倍。即便一开始,推荐算法是出于好意,但若缺少有效监督,最终会酿成恶果。

技术、监管与商业行为

“技术仅是一种手段,它本身并无善恶,一切取决于人从中造出什么,它为什么目的而服务于人,人将置于什么条件下。”

德国存在主义哲学家雅斯贝尔斯如是说。

互联网、大数据、AI等新技术确实带来了生产生活的改变,同时重铸了商业模式,但技术与人之间的关系却产生了「滞后效应」。

所谓滞后效应是指,法律监管、民众意识的觉醒,落后于新技术的演变,这种时间差所导致的认知差异很容易引起争议,而这种争议又因利益主体而有着截然不同的态度。

以人脸识别为例,该技术已经广泛应用到视频监控、消费电子等场景,但不同的采集主体,人们却表达了不同意见。

比如,疫情防控需要采集人脸信息,几乎没有人表示反对,但对于商店收集人脸,却有百般不愿。

“对公权力的信服,使人们相信公权力收集人脸信息是为了大众安全与福祉。”

一位法律行业人士表示,这种信任在商业层面却恰好相反:当人脸识别技术被用于发展商业时,人们对生物特征信息相当敏感,甚至可以说抵触。

因为前者属于利益共享,并且有政府背书,人们相信前者有能力来保护个人数据安全。但后者是纯商业行为,消费者从中无法获得利益,并且存在很大的信任危机。

在这段时间差里,由于缺乏针对性的法律加以监管,隐私、技术、商业、监管四者之间存在一片模糊地带,成为灰色产业链的沃土。

《个人信息保护法》和《数据安全法》的出台,一定程度上规范了行业,但从监管层面来看,隐私与技术、商业行为之间的界限仍然不够明晰。

以生物特征信息为例,哪些信息可以采集、哪些信息不可以采集,什么时候能用,什么时候不能用,尚未有国家层面的正式法律依据做支撑。

举个例子,现在很多技术公司在做「智能商业」,也就是通过采集数据来给商户营销服务。人脸信息在《个人信息保护法》有明确规定,企业私自采集人脸并商用属于违法行为。

技术公司已经可以通过技术手段,比如数据脱敏,来规避掉人脸信息,而采集性别、年龄、穿着、用户行为等其他信息,这部分数据实际上处于上述提及的灰色地带之中。

这些数据能不能采?是一个问题。

另一个问题是,针对线上用户的推荐算法,其采集的数据范围、类型等要不要加以限制?

一位数据公司VP告诉掘金志,现在的大数据实际上处于线上线下融合发展的阶段,任何一端的监管缺失,都会带来很严重的问题。

虽然2022年1月出台了《互联网信息服务算法推荐管理规定》,对推荐算法进行规制,但在数据采集方面仍然缺少约束。

比如,今年315之后,淘宝、抖音、微博等APP上线了算法关闭键,用户可关闭“个性化推荐”,不过实际影响可能有限。

某行业人士表示,关闭“个性化推荐”存在弹性:其一,只是降低了内容的相关度;其二,仍然可以通过别的算法(如近邻算法)来感知消费者的喜好;其三,APP仍然可以采集隐私数据。

当然,这并不意味着该功能无用。在他看来,数据已经成为现代商业不可缺少的一部分,是发展数字经济的基础“资源”,几乎不太可能割裂数据与商业之间的联系。

“如果要划分隐私数据、技术与商业行为之间的边界,需要企业、消费者、监管方、媒体等多方参与。”

而这又将是一场持久的「利益博弈」。雷峰网雷峰网(公众号:雷峰网)

雷峰网原创文章,未经授权禁止转载。详情见转载须知


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK