信息网_www.520link.cc

浙江资讯网 > 杭州 > 正文

我们需要怎样的个人信息保护?

网络整理 2021-09-02 20:56

(原标题:我们需要怎样的个人信息保护?)

上个月,黄奇帆在2021年中国互联网大会上说,中国互联网发展20多年,出现的几个大问题就是之一是“企业数据采集没有底线”,另两个问题是“利用人性的弱点设计各种产品”和“互联网杀熟行为”。

没有数据就没有当代互联网产品设计,而大数据杀熟,也是基于数据采集为前提。因此,这三个问题,都和数据有关。

数据采集怎么个没有底线法?

大概从2019年开始,工信部开始发布“违规收集个人信息App通报”,雷慢统计了下,到今年8月25日——

一共通报了1418家/次企业。

责令整改的更多,今年1月时,已达到2234款。其中涉及的企业,中国互联网巨头里的腾讯、京东、新浪、中国移动、搜狐等旗下App无不有违规的。

具体问题则不一而足。有过度采集信息的、有强制捆绑推广无关软件的,有恶意“吸费”的等。

被收集的数据都干嘛去了呢,我们按照互联网企业的类型,大概可以知道它们都干了什么,比如做消费互联网的擅长拿数据做“精准营销”,给你推送的就是你想买的;做社交与内容的擅长用户画像,给你推送的就是你想看的,而且拿捏准度很死。

这些关于数据的问题汇成一个互联网时代的问题:人被数据化,物化了。

近十年来,我们就进入了“行为产生数据,数据影响行为”的循环中。就是物役化。它作为一种大规模社会现象开始于“技术垄断文化”时代,美国社会学者尼克波斯曼将称美国进入这一时代的特征是:1913年福特汽车发明汽车装配线,人沦为机器流水线的奴隶。

这种奴役在智能手机发明后,更加夸张。它们的威胁是:信息失控、泛滥,猥琐化和泡沫化,人失控于信息,受控于算法,受困于信息茧房,社会出现新的“部落主义”——这种新部落主义是通过算法对不同的人群之间影响,导致受众接受不同的观念,于是,人和人之间、群体和群体之间浮现极端的偏见。

从马克思的“物质决定意识”延伸开来理解。人的行为开始被数据算法和电脑程序影响,这就是人的“物役化”。人越在网络上卖力的生活,就越被自己产生的数据和背后看不见的手奴役着。

新冠疫情期间,世界意识形态的分裂加速,算法、信息、意识形态之间的杂糅与排斥、拉拢与攻击,告密与隐忍,达到极端。

2020年以来对“算法”“数据”“个人信息泄露”相关的思考出现空前的热议。

这时,中国的《个人信息保护法》于8月20日立法通过,定于2021年11月1日始实施。

雷慢以为,数据时代,人的终极理想要免于“物化”。但这理想太飘渺,如果退而求其次,是对个人信息的保护,尤其是隐私的保护。使个人受保护的信息免于被企业当作数据资本,用来建模、写进程序,再算法推送,最终反噬人性。

中国的《个人信息保护法》和欧盟2018年发布的《通用数据保护条例(GDPR)》在架构上相似,宗旨也类似:明确保护个人数据或信息的范围,规定个人信息(数据)从收集、存储到使用、加工、传输、提供、公开、删除等过程的规则。

在算法对个人的影响上,《个人信息保护法》做了规定,规定利用个人信息进行自动化决策,不仅要保证决策的透明度和结果的公平、公正,还要求不得对个人在交易价格等交易条件上实行不合理的差别待遇,明确否定了“大数据杀熟”等现象。

配套措施也出现了。8月27日,网信办又就《互联网信息服务算法推荐管理规定》向社会征求意见。拟规定互联网平台“向用户提供便捷的关闭算法推荐服务的选项”。

如果说个人信息数据和算法是“烟酒不分家”,那么从《个人信息保护法》到《互联网信息服务算法推荐管理规定》,就是“打虎亲兄弟”。打的就是侵犯个人信息权力的虎。

人的终极理想要免于“物化”,太过乌托邦就退而求其次,寻求个人信息保护。就裸奔的人像寻衣服而不得,能有条底裤,也是不错的。

但离不被“物役”还远远不够。

尼克·波斯曼“技术垄断论”的基本原理之一是:任何技术能够代替我们思考问题。这种担忧不是杞人忧天,而是越来越沉重的现实。

雷慢曾多次引用英国哲学家边沁(Bentham)的“圆形监狱”理论,他将所谓圆形监狱描述为"一种新形式的通用力量 "。套在今天数据窥视个人的现状上,大概就是:

以数据所构建出虚拟生活的我们,像活在一个巨大的“圆形监狱”之中——所有囚室对着中央监视塔里的数据处理器,每一个囚室有一前一后两扇窗户,一扇朝着中央塔楼和所有人的监视,一扇背对着中央塔楼赢得短暂和半透明的自由。监视者可以观察到囚室里的罪犯的一举一动,囚徒却不知是否被监视以及何时被监视,时刻处于忧虑之中。

本文系未央网专栏作者:新金融洛书 发表,内容属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

Tags:[db:TAG标签](86896)

转载请标注:信息网——我们需要怎样的个人信息保护?

搜索
网站分类
标签列表