“我已阅读并同意用户使用协议。”,恐怕是 21 世纪最大的谎言。 以色列艺术家 Dima Yarovinsky 曾经做过这样一个艺术作品,Dima 打印了几大平台(WhatsAPP,Google,Tinder,Twitter,Facebook,Snapchat 和 Instagram)的用户使用协议,最长的 Instagram,一共有 17161 个单词,你读得再快,也得好几十分钟,大概率没有人能真正读完。 而这样冗长的用户协议,配合极为快速的“阅读并同意”点击,意味着你的个人隐私信息在瞬间就转移了归属权。 为什么保护隐私这件事情虽然看上去绝望,但是又特别重要。 很多人都看过三体,里面有个黑暗森林理论编得不错。对于三体人来说,人类最有力的武器就是谎言,那与之相对应的,人类最宝贵的资源就是隐私。而隐私需求,其实是人类刻在基因中的。这事儿从我们非洲的祖先从树上爬下来,回家路上不能让野兽发现自己搁哪儿住就已经开始了。 失去隐私,就意味着你要和你攻击力完全不对等的攻击者面对面,接受降维打击。这个降维打击,就是你在攻击者眼里,根本不是一个真实的人,你只是一行存着你个人特征的数据。 每一代 iOS 更新以及新硬件的发布,苹果都会根据全新的功能来更新隐私规定,并公开给用户,让用户安心。 如果你目前在用最新系统的苹果设备,每当你打开一个 app,你的苹果设备会弹出很多窗口,来确定你对各种隐私维度的授权。 而今年苹果隐私的重点更新,在 App Store。 苹果希望用户能在 App Store 的 app 产品页面很容易地就能看到开发者的隐私惯例摘要。 简单来说,就是不需要用户特别费劲去读完全的用户许可,就可以在一款 app 的 App Store 页面中,看到 app 究竟会调取你哪些权限,用这些权限打算干什么。 从 12 月 8 日起,苹果开始要求开发者向 App Store 提交新的隐私信息,以更新其 app。这并不需要开发者改变 app 或商业模式,这只是要让用户知道 app 若会收集数据,那是收集哪些数据,或用哪些数据来追踪或关联到用户。 而从用户的角度看,在 app 开发者更新页面后,App 产品页面将呈现 app 可能会收集的数据类型,以及该 app 是否会使用该数据来追踪你,或该数据是否会关联到你。 收集的数据会分为三类:「用来追踪您的数据」、「与您关联的数据」与「不会与您关联的数据」。 追踪是指关联从 app 收集的用户或设备数据与从其他企业的 app、网站或线下场所所收集的用户或设备数据,用于定向广告或广告评估目的;或者与数据代理商共享从您的 app 中收集的有关特定终端用户或设备的数据。 与您关联的数据是指通过 app 上的用户帐户、设备或其他详情与您的身份关联的数据。 当然,在 App Store 的产品介绍段有了这样的简介后,你下载 app 后,app 如果需要调用一些数据或者权限,依然是需要弹窗来获得用户许可的。 按照苹果的说法:App Store 对于让开发者提交隐私信息,其实是一个创新项目的开始,这样的工作能够协助用户拥有更高的透明度,并更了解 app 可能会收集关于用户的哪些数据。我们坚信,所有开发者的数据收集与使用惯例都应该公开透明,用户才能做出知情决定。 这样的做法,是非常值得点赞的。 虽然苹果没有彻底消灭反人类的用户使用协议,但在努力通过尽可能简单的页面,帮助用户了解自己在使用一款 app 时,隐私会被如何对待。 另一方面,因为所有的隐私惯例信息都是由开发者自主提交的,所以这可能会涉及到一个开发者的诚信问题,苹果也表示了,所有的 app 在提交时都会有专人或者是数据的审核工作,如果有任何反馈说,某一个 app 违规侵犯了用户的隐私,经过投诉后,苹果是有权对违规 app 做下架处理,甚至是对开发者彻底封号的。 如果你还有印象,估计还能记得,去年时候我写过一篇《每个国产手机,都该学学苹果如何对待隐私》里面提到了其实在每年,苹果都会提升隐私保护的力度,比如: 知乎用户 Coa 在知乎问题“iOS 是不是能比安卓更能保护隐私”中做了一个盘点: 在iOS 5及之前的时候,Apple 是允许厂商自由获取与手机绑定的UDID和IMEI识别码的。从iOS 6开始,出于对用户的隐私保护,苹果开始禁止App获取IMEI。但考虑到广告商希望监测广告投放效果,因此变发明了一套与硬件完全无关的标识符,提供给广告商进行广告追踪。也就是我们说的IDFA(广告标识符)。同时,Apple 允许用户在设置中重置新的IDFA,避免被长期跟踪。 2013年9月iOS 7发布,Apple完全禁止获取mac和openUDID。受限于iOS 的封闭性,不符合规范的App被禁止上架,所以IDFA(广告标识符)虽然可以被用户重置,但也成为广告商最通用标记用户的方式(况且很多用户也不会去重置IDFA)。 2016年6月,苹果发布了iOS 10,再一次引起广告业震动。这次,苹果加入了“限制广告追踪”的选项。在iOS 10之前的版本,用户可以不断重置IDFA(广告标识符),但无法彻底关闭。从iOS 10开始,只要用户打开了这个功能,App只能获取到一串无意义的0。 后来开发者还是找到了绕开限制的方法,但苹果都会通过软件的更新来封堵“漏洞”,避免开发者追踪用户。 去年的 iOS 13,重点提升的是苹果硬件权限的隐私保护力度,而今年的 iOS 14,则是重点通过一些软件手段,让用户清楚开发者的 app 在怎样调取你的各类权限,让你提升保护隐私的意识,详细的内容我当时还做过一期视频,可以看看《你的隐私,是怎么被手机扒光的》这篇。 当然,令人喜闻乐见的是,不光是苹果,国内的很多手机厂商也开始着重注意保护用户隐私,系统层面的更新,尽可能严格规范开发者行为,而不是让开发者举着你根本不会看的用户许可,冠冕堂皇拿走你的隐私。 最后和去年一样吧,厂商们用各种手段提升用户隐私意识是一方面,更重要的还得是开发者足够良心,别因为各种利益,去无限制获取用户隐私,毕竟你在做的,同样也是你自己会遭受的。
东莞一处“星级公厕”最近在网上火了,原因是使用“人脸识别”取厕纸设备,引起市民对隐私泄露的担忧。当地城管部门回应:已协调终止使用前述设备,改用常规方式向市民免费提供纸巾。 “星级公厕”采用“刷脸取纸”,是为了避免同一人短时间内多次取纸。然而,为了取点厕纸市民就要“让渡”人脸信息,为了防止少数人不文明就要让多数人“验脸正身”,是否“收效与付出”不对等? 涉及公民隐私,敏感并不多余。虽然设备制造商声称“并非把用户照片存下来,设定时间内会自动删除人脸信息文件”,但有专家认为“在本机没存储不代表在系统内没存储,一旦数据库泄露或被盗用就有风险”。所以,叫停“刷脸取纸”不是杞人忧天。 我们必须看到,“刷脸取纸”在“合法、正当、必要”“充分征求被采集人意见”“为维护公共安全所必需”等等方面都存在值得商榷的地方。据悉,这样的设备在国内其他地方也有安装,甚至成了推进“厕所革命”的一种方式。此类现象令人愕然,相关地方和部门保护公民隐私的意识有待加强。 同样存在隐患的“刷脸”场景还有,居民小区“门禁”、单位考勤“打卡”、售楼处“无感抓拍”、手机APP人脸验证……有关应用倒是极大方便“管理用户”,可人脸信息被窃取、贩卖、用于不轨图谋也在增多。“花2元钱就能买上千张人脸照片”,社会怎能不反响强烈? 必须指出,不能为了管理的便利性牺牲公民个人信息的安全性。保护人脸在内的个人信息安全,有关部门应对技术应用场景、个人选择权等制定更多规则,提高图像采集、人脸识别的使用门槛,赋予人们对技术滥用说“不”的权利,破除“不刷脸不服务”的“霸王条款”。对不按法律要求保护公民隐私、非法利用有关信息的个人和单位,不仅要给予行政处罚,而且应支持合法的、正当的民事赔偿诉求。对偷拍盗取人脸信息者,如有必要,更应按法律规定追究刑事责任。 唯有依法规范、妥善应用,人脸识别才能行稳致远。 小蒋的话:大家好,我是小蒋 。国事,家事,天下事,天天都有新鲜事。你评,我评,众人评,百花齐放任君看。观点各有不同,角度各有侧重,只要我们尊重客观、理性公正。
成都市新冠肺炎确诊病例赵某某个人信息在网络平台流传,涉及其姓名、身份证号码、家庭住址、照片等信息,引发网友热议。经公安机关调查,王某(男,24岁)将一张内容涉及“成都疫情及赵某某身份信息、活动轨迹”的图片在自己的微博转发,严重侵犯他人隐私。目前,王某因违反《中华人民共和国治安管理处罚法》相关规定已被依法行政处罚。 确诊者隐私被上网,唱的是哪一出?应该说,新冠肺炎确诊病例的出现,让当地民众生活工作等方面确实受到了影响,心生怒气也可以理解,但是不能因此就侵犯他人的合法权益、冒犯法律。没有人愿意成为新冠肺炎患者,从目前官方公布的信息看,也没有证据证明赵某某有任何主观故意。如果因自己的生活工作被波及就迁怒于赵某某,这对她是不公正的。不得不说的是,一些网友在挞伐赵某某的同时,还疑似编排不实之词,涉嫌造谣。 毋庸赘言,此前多地曾发生疑似泄露确诊病例或密切接触者隐私的事件。受害者不仅频频被骚扰,还遭遇网络暴力,正常生活受到了严重干扰。泄露隐私的危害不容小觑,对受害者应及时抚慰,对泄露者则需依法惩处,以儆效尤。 事实上,国家近年来在保障公民隐私方面越来越制度化和法治化。比如即将于2021年1月1日起施行的《中华人民共和国民法典》第一千零三十二条明确规定:“任何组织或者个人不得以刺探、侵扰、泄露、公开等方式侵害他人的隐私权。”我们每个人都享有隐私权,隐私是私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息,谁都不能侵犯。一旦随意披露和侵犯,导致当事人受到网络暴力,加害人必须受到应有的惩处。 遏制隐私泄露,需要我们每个人都强化法治意识,守住法治底线,全力保护好自身的隐私。同时,更需要法律“亮剑”,需要执法机关依法捍卫公民的合法权益。无论机构泄露的,还是平台、个人泄露的,只要触犯法律都要承担法律责任。为公民织密法律保护网,还要构筑反应迅速、处理及时的应对机制。比如,有关平台一旦发现受害者的隐私被泄露,应快速删除,尽最大可能减少危害。 “赵某某隐私疑被泄露”一事已有结果,这再次提醒我们:公民个人隐私受法律保护,对于侵犯公民个人隐私的行为,公安机关将依据《中华人民共和国治安管理处罚法》相关规定依法调查处理;涉嫌犯罪的,公安机关将依法追究刑事责任。
记者获悉,金融级隐私计算技术服务商蓝象智联(杭州)科技有限公司(以下简称「蓝象智联」)完成了数千万元人民币新一轮融资。本轮融资由金沙江创投和联想之星两家知名创投机构完成,链兴资本为本轮融资财务顾问。据了解,公司此前还曾获得万向区块链种子轮投资。 36氪长期关注隐私计算领域,此前曾多次做过报道——隐私计算,广义上是指面向隐私保护的计算系统与技术,涵盖数据的产生、存储、计算、应用、销毁等信息流程全过程,想要达成的效果是使数据在各个环节中“可用不可见”。当前主要的技术包含密码学、联邦学习、区块链和TEE等。 据36氪观察,隐私计算自从2018年左右出现专精型公司后,于今年迎来关注度高峰。特别是随着个人信息保护法草案的亮相,如何在保护数据隐私的前提下解决数据孤岛问题,隐私计算被多个行业都视为颇具潜力的解决方式,特别是在金融行业。该行业是数据密集型行业,也是数据需求密集型行业,其风控、营销等能力都高度依赖于数据的支持——无论这些数据是来自金融机构内部还是外部。 本文主角「蓝象智联」,定位于金融级隐私计算服务。据公司介绍,其创始团队具备特殊优势,主要来自阿里巴巴、蚂蚁金服等头部科技或金融机构,也都曾供职于某国有四大行科技部,拥有很深的行业实践经验和资源积累。 在具体产品上,公司核心产品已通过工信部和公安部认证,目前已被应用于多家银行、运营商和零售商业客户。同时,公司也在参与工信部等行业多方安全计算标准的制定。 本轮投资的领投方金沙江创投主管合伙人朱啸虎在谈及隐私计算时认为,2B的赛道正在进入黄金发展期,其中数据相关赛道是2B众多赛道中最具发展空间的。这其中,隐私计算是数据赛道的基础技术,金沙江创投非常看好隐私计算的前景。 当前隐私计算领域已有多家入局者,谈及竞争,朱啸虎还觉得,未来这个赛道的赢家一定具备极强商业化落地能力,形成实质标准后将构筑极强的生态壁垒。他认为蓝象团队的综合实力在业内颇具竞争力。
土地、劳动力、资本、技术之后的第五种生产要素是什么?数据。数据的安全有序有效流动问题,学术界和业界“解法”众多,要让技术理论真正进入到应用落地的进程绝非易事。为此,雷锋网《AI金融评论》率先推出了《金融联邦学习公开课》系列,并与HKSAIR(香港人工智能与机器人学会)联手打造了《AI金融-隐私计算与联邦学习》系列公开课,十余位国内联邦学习与隐私计算顶尖专家做客线上讲堂,就相关研究热点与商业应用展开最前沿的分享和讨论。近期,《AI金融评论》邀请到了华控清交CEO张旭东做客雷锋网公开课,谈谈他眼中的数据隐私保护技术,以及华控清交一系列工程化研究的探索和实践。以下为张旭东公开课全文,AI金融评论做了不改变原意的编辑:数据的现实生态数据是数字经济的关键生产要素。从农业社会到工业社会再到信息时代,直到我们现在开始进入数字经济时代,每个社会发展阶段都有一种生产要素是最重要的和最难替代的。目前党和国家对数据要素化的认识程度在不断加深,从2014年开始,习主席谈到信息日益成为重要的生产要素,到去年四中全会,包括在今年的6月1号,国务院关于海南自由贸易港建设的总体方案中,都提到了数据要素化,数据要流通、挖掘价值。数字经济时代,数据是在人类生活和生产过程中,对自然资源和社会资源在分配和使用上进行优化的决策依据。首先,我们来看看作为生产要素的数据,为什么要交易流通?第一,生产要素的价格,是它参与社会化大分工的分配依据。国家讲得很清楚,要健全数据等生产要素,由市场评价贡献、按贡献决定报酬的机制,其中就提到了市场化的定价。价格是报酬的决定因素,数据作为生产化要素的报酬,那么如何形成定价呢?这就需要流通,需要由市场来进行,需要由供需来决定。我们用一个模型算出来这个数据值多少钱,是不是它的价格?不是,因为没有通过市场供需关系的检验,所以,数据的价格由市场决定,由市场供需决定,使数据成为生产要素的关键需要由市场供需决定,就需要流通。那么,既然数据作为生产要素需要交易流通并进行定价,为什么现在为止还没有大规模的数据流通,没有大规模的数据要素市场?难在哪里?缺什么?数据成为生产要素的难点和解题之道从数据特性来看,数据是一个很特殊的生产要素,其特征是复制成本极低,复制速度奇快,传播速度也极快。数据一旦被看见,包括被人看见或者被机器看见,都可以被复制,而且是可以被无限制地复制。在简单的经典经济学理论上,供需要有两根曲线相交,才能形成价格。明文数据的特点,使得它的供应和需求都是无限的,供应和需求两根线无法形成一个焦点,很难通过市场供需进行定价,并形成大规模的市场交易流通。再者,数据还存在一些群体性和公众性的泄露或滥用的问题,这些可能会影响整个群体甚至国家的利益。如果出了事,谁负责?获得利益后,该怎么处理?权利应该怎么主张?原始数据、二手数据、再生数据等,不同方又有什么样不同的权益和责任?这么多问题,目前要把它整盘解决,还需要很长的时间、需要实践和探索。我认为没有一个完美的答案——会有很多取舍,关键是取什么?舍什么?从数据价值来看,我们可以把它分为信息价值和计算价值。以波粒二象性打个比喻——数据有可以被展示或者被看见的具体信息,而另外一方面,数据虽然看不见,但是可以被用于计算得出结果,这就类似量子力学中的粒子和波。粒子是有形的,波是无形的,但是他们同样传播能量。在目前大数据和人工智能的时代,我们也把数据比作新的能量——数据能,而数据的主要价值越来越多的体现在它的计算价值。那么,数据交易流通的前提和形态是什么?因为明文数据的特征和特性,无法进行大规模的交易和流通。所以必须把数据的具体信息和计算价值分开,把数据作为变成可用不可见,避免被看见后造成无限供应和无限使用。计算价值怎么办?能不能对数据的计算价值进行限制,只有规定数据的价值,才能对数据的使用权进行定性、定量,形成有限的供应和需求,才能让这两根线竖起来形成焦点,同时避免、防止数据被滥用,厘清数据的责、权、利。如何能够做到以上两点,通过市场供需进行定价和大规模流通的是什么?既不是数据本身,也不是明文数据,而是数据的特定使用权。目前,大家谈到数据时,就会谈到数据确权和交易流通。这儿先抛出一个观点,就是:过早、过严、过窄地定义和规定数据的所有权,在法律上可能会制约数据产业和数据生态的发展。目前,要通过实践积累、摸索经验,反复的试验,才能够把这件事做好。数据确权的难处,只能点到为止。交易和流通需要生态,其中更重要的是,需要数据和资本的结合,才能使数据的交易流通、要素化大规模发展。现在,数据还不是法律和金融意义上的资产。“可用不可见”加上规定用途和规定用量,可以实现数据的归属权、使用权、收益权和处置权的分立,为数据真正成为资产,成为生产要素奠定技术基础。最后使它变成法律和金融意义上的资产的,不是技术,而是法律法规对其进行保障。在目前数据确权相关法律法规还不健全的情况下,是不是可以进行尝试,使数据交易流通?可能性是有的。也只有这么做才能反过来为数据的确权真正提供有益的实践和探索。怎么做?利用数据的可用不可见和规定用途、用量的技术手段,把它的使用权和受益权抽取出来。只针对使用权和受益权,在目前这个阶段,已经足够让数据进行先期的交易和流通,为后期的进一步的数据确权积累经验。 怎么才能做到可用不可见,又如何规定数据的用途用量?隐私计算如何打破数据壁垒,构建社会化数据闭环数据可用不可见的基础理论叫多方安全计算理论(MPC——multi party competition),由姚期智先生提出。安全是前提,没有安全就没有多方。他通过两篇论文,提出了百万富翁问题:两个百万富翁碰到后,相互都不愿意告诉对方有多少钱,也没有一个可信第三方,怎么把这个比较做出来?姚期智先生在86年从数学上证明,凡是可以在明文上进行的技术,都可以在密文上进行计算,而且得出同样的结果。现在多方安全计算成了密码学的一个重要分支。多方安全计算理论属于密码学范畴,是经过严密的数学论证的,它的安全假设是不信任硬件,不信任人。在明文计算体制当中,数据存储的加密技术、安全技术已经很发达,就像洋葱,里边有个宝贝,一层一层包起来,装进保险箱,再装进地下室,然后把钥匙全拿走。在这种情况下,唯独在它进入芯片进行计算之前,必须解码、解密成明文,才能编译成指令集,输入计算机进行计算,得出的是明文的结果,然后赶紧再包藏起来,进行传输。而在它解密成明文进行编译、计算的时候,从理论上和实践上都是不安全的——它要么要相信硬件,要么相信软件,要么相信人。多方安全计算理论,可以使数据在密文上直接进行计算,所以它可以不相信硬件,可以不相信软件。举个不一定恰当的例子,就好像去澡堂洗澡,在明文范畴内,你穿着衣服,从头到脚全副武装进去洗澡,很安全,不知道你是谁,但是到了澡堂之前,你必须裸露后才能洗澡,洗完后赶紧用毛巾擦干,恢复原状。但是,在澡堂子里洗的过程安全吗?澡堂子是谁造的?谁管的?你能相信硬件,相信软件没有后门,相信管理这些硬件软件的人吗?所以,多方安全计算做的就是穿着衣服洗澡,当然耗费大一点,水要用的很多,但洗完了以后出来还是完全盖住的。在这个理论刚提出的八十年代,算力耗费之多,使得它只是在理论上成立,如今分布式计算、通讯科技的发展,则使它具备初步的实用性。华控清交实现了基于多方安全计算,把多种基于明文的隐私计算技术(比如数据脱敏、差分隐私,联邦学习、可信计算等等)融合在一起形成的隐私计算解决方案,解决的是计算的准确性、保密性和计算效率之间的优化等关键问题。那么,怎么从理论到实践,做到让数据可用不可见?华控清交的数据要素化探索和实践我们把加法、乘法和比较通过密码学原理,从根本上用密文的形式替代了明文,重新把通用函数和机器学习深度学习的工具密文化,可以像在明文上编程一样,做到可用不可见的底层逻辑。同时,我们还综合应用了基于明文的隐私计算技术,实现了明文和密文的混合计算,在不同的场景下可以完成隐私查询、联合建模等实际应用。如何实现的呢?拿电话来举例——人看不见,声音听得见,比喻可用不可见。我们的隐私计算服务就如同“交换机”,负责按照数据提供房和数据使用方之间的数据计算合约,调配算力执行隐私计算,并把计算结果给到合约指定的结果计算方。它是数据共享与流通的计算控制站和算力调配中心,是隐私保护计算和高效算力的结合体。数据接入节点就如同“电话机”,部署在数据端,把明文数据转换成计算因子或将密文计算结果解算成明文。而计算因子本身不承载任何可以“看见”的具体信息,是数据计算价值的载体。这些理论是通过密码学和数学严密论证的。那么,数据程控交换机可以连接多台电话机,叠加起来、组合起来的就是数据电网,就如同国家对数据要素进行监测管理和宏观调控的神经系统和基础设置,助力数据要素化。这种基于合约的隐私计算技术,能够有效打通社会化数据闭环,使数据真正成为生产要素。
国家计算机病毒应急处理中心近期在“净网2020”专项行动中通过互联网监测发现,多款游戏类移动应用存在隐私不合规行为,违反《网络安全法》相关规定,涉嫌超范围采集个人隐私信息。 违法、违规移动应用具体如下: 1.在 App 首次运行时未通过弹窗等明显方式提示用户阅读隐私政策等收集使用规则,或以默认选择同意隐私政策等非明示方式征求用户同意。具体App如下: 《汤姆猫跑酷》(版本4.3.2.351)、《宾果消消消®》(版本7.5.1)、《我的安吉拉》(版本4.6.2.1007)、《我的汤姆猫》(版本5.8.8.671)、《植物大战僵尸2》(版本2.4.84)。 2.未向用户明示申请的全部隐私权限,涉嫌隐私不合规。具体App如下: 《汤姆猫跑酷》(版本4.3.2.351)、《迷你世界》(版本0.44.2)、《开心消消乐》(版本1.83)、《和平精英》(版本1.8.10)、《天天飞车》 (版本3.6.4.709)、《我的安吉拉》(版本4.6.2.1007)、《我的汤姆猫》(版本5.8.8.671)、《植物大战僵尸2》(版本2.4.84)、《微赛斗地主》(版本1.7.2.0)。 3.未逐一列出收集使用个人信息的目的、方式、范围等,涉嫌隐私不合规。具体App如下: 《贪吃蛇大作战®》(版本4.3.36)、《汤姆猫跑酷》(版本4.3.2.351)、《我的安吉拉》(版本4.6.2.1007)、《我的汤姆猫》(版本5.8.8.671)、《神庙逃亡2》(版本5.4.0)。 4.未提供有效的更正、删除个人信息及注销用户账号功能,或注销用户账号设置不合理条件,涉嫌隐私不合规。具体App如下: 《贪吃蛇大作战®》(版本4.3.36)、《天天酷跑》(版本1.0.78.0)、《汤姆猫跑酷》(版本4.3.2.351)、《迷你世界》(版本0.44.2)、《宾果消消消®》(版本7.5.1)、《和平精英》(版本1.8.10)、《天天飞车》 (版本3.6.4.709)、《植物大战僵尸2》(版本2.4.84)、《神庙逃亡2》(版本5.4.0)、《地铁跑酷》(版本3.08.0)、《微赛斗地主》(版本1.7.2.0)。 针对上述情况,国家计算机病毒应急处理中心提醒广大手机用户首先谨慎下载使用以上违法、违规移动应用,避免手机操作系统受到安全威胁;其次,建议打开手机中防病毒移动应用的“实时监控”功能,对手机操作进行主动防御,第一时间监控未知病毒的入侵活动。
9月9日消息,360数科进一步推动隐私数据保护领域研究,在业内第一次提出分割式神经网络技术框架(Spilt Neural Network),并通过自主研发的一套系统实现算法落地。 隐私数据项目主要牵头人、360数科隐私保护研究院院长沈赟博士表示:“我们一直以来都在做一些技术上的创新。在隐私数据保护领域,使用神经网络算法更加灵活,可以把不同类型数据提取出来,在统一架构下去学习,效率上能够大幅提升。” 早在2016年谷歌首次提出联邦学习概念,这个初衷为保证数据交换时信息安全的人工智能基础技术随即在中国掀起风潮。在隐私数据保护上,360数科(原360金融)于2018年引入隐私计算研究,并在2019年宣布成立隐私保护与安全计算研究院,运用联邦学习技术发力大数据隐私保护。 据了解,与传统联邦学习不同的是,分割式神经网络技术框架输出层数据的维度远小于原始输入层的维度,即使输出层的数据没有加密也无法反推原始输入层的数据,从而在框架设计上杜绝了数据泄露的问题。由于输出层数据的维度较小,也可以大幅降低服务器端的计算量与内存使用量,减少网络传输量,降低对带宽的要求。 据悉,目前,该框架主要满足360数科在与合作方进行数据交互时的需求。未来,在360数科对外输出风控能力的过程中,隐私计算也将作为技术输出的一部分,作为综合解决方案从底层解决数据安全问题。360数科将继续加大对于新技术的研发力量,营造健康与安全的数据生态。