为了更好的体验,请使用竖屏浏览

中国电子技术标准化研究院网安中心测评实验室副主任何延哲:

随着身份验证越来越严格 可能有黑灰产提供隐蔽的认证方式

来源:南方都市报 作者:林芯芯 11-22 01:20

  人物名片   何延哲 就职于中国电子技术标准化研究院网络安全研究中心,任测评实验室副主任,长期从事网络安全标准与合规、个人信息保护和数据安全、云计算安全、风险评估方面的研究工作,是《个人信息安全规范》《个人信息安全影响评估指南》《个人信息告知同意指南》等国家标准主要编制人。受访者供图

  “为青少年营造风清气正的网络空间”“涵育青少年爱国情怀、道德情操和网络素养”,是时代要求,也是各方责任。南方都市报、南都大数据研究院立足音视频及直播平台,通过系列专家访谈关注未成年人网络保护话题。

音视频直播平台如何平衡未成年人网络保护和个人信息保护问题?中国电子技术标准化研究院网络安全研究中心测评实验室副主任何延哲接受南都专访指出,目前身份验证难是未成年人个人信息保护最大难题,采用人脸识别等技术不仅需要尊重用户知情权和选择权,还可考虑以“最少够用”原则选择适当的识别精度,以平衡隐私保护问题。同时,平台还要落实数据最小化储存和使用,加强数据安全风险管控能力。

  A

  谈未成年人身份验证

  身份验证是未成年人个人信息保护最大难题

  南都:当前网络音视频服务运营者收集、处理未成年人个人信息存在哪些问题?针对音视频领域的未成年人网络保护,技术监管有哪些难点?

  何延哲:未成年人个人信息保护最大的问题就是身份验证难。如何验证这个人是未成年人?如果明确知道这是一个未成年人,该防沉迷的防沉迷,该限制时长的限制时长。但如果一开始没做到位,后面就全乱套了。另外,随着身份验证越来越严格,大量还未戒掉网瘾的未成年人会“潜入水下”,明面上看不见,可能会有黑灰产提供隐蔽的认证方式,需要关注这个现象。

  南都:目前部分平台在尝试使用声纹识别或研发人脸识别技术以识别未成年人,现在收集或分析提取这些生物识别信息存在哪些问题?

  何延哲:从技术层面而言,基于人脸特征点的信息是以数字化形式存储的,相关数据库面临被黑客攻击或自身防范不力导致泄露情况。人脸特征数据库外泄面临很大隐患。首先,以往密码被窃取,可重新设置实现密码更改,但人脸等生物特征信息是唯一且终身不变的,一旦泄露将导致用户个人财产、隐私等公开。另外,目前人脸识别强制使用的现象非常突出。在个人信息保护意识觉醒的情况下,必须让用户清楚知道平台要获取哪些信息、用处是什么,并且有选择的权利。此外,绝大部分平台尚未实现向用户提供删除人脸信息机制,一旦开通人脸识别,用户很难撤回对人脸信息的同意。

  南都:一方面世界各国对个人信息保护的立法和监管逐渐加大,另一方面部分平台未成年人网络保护工作仍然依赖信息收集,以识别未成年人身份。如何防范过度收集、违规滥用?未成年人网络保护和隐私保护如何达成平衡?

  何延哲:未成年人网络保护的第一个环节是身份验证,在这个信息收集过程中,涉及的不仅是未成年人的隐私,还包括成年人的。身份证实名制早就有了,但防沉迷效果不是特别好。现在没有法律法规要求识别未成年人身份时用人脸识别,只是一些机构为达到好的效果想尝试这么做。这种做法牺牲的不只是未成年人的时间,而是所有用户的时间。是否有更好的技术手段,在不牺牲隐私的前提下也能做到识别?比如,是否可以不收集完整的人脸,只是验证年龄?比如特征点大概取几个代表年龄,符合“最少够用”原则,不需要像网上支付时的要求那么精确。针对特定业务场景,将精度降下来,是可考虑的一种技术方案。

  B

  谈数据合规难点

  法律问题转化为技术语言存在挑战

  南都:是否存在技术上更安全或更便捷的操作方案但与法律要求相冲突的情况?在法律问题与技术语言的转化当中,网络音视频直播企业存在哪些数据合规难点?

  何延哲:如今相关规定要求越来越复杂严格,企业要做到数据合规,不仅要将法律问题转化为技术语言,还要有效落实到技术中去。法律规定只是原则性框架,但在一个大平台复杂的业务逻辑上,把它变成代码,说起来容易做起来难。在技术上更安全更便捷的操作方案但与法律要求相冲突的情况也存在,比如人脸识别是技术上更好的方案,但遭到很多人反感。法律上要求告知同意,得设计很多弹窗,考虑用户体验,得设计撤回同意机制,都涉及技术实现。比如撤回同意这个数据,平台内部可能分很多业务线,都有自己的权限管理。用户这边更改同意,背后数据怎么流动和处理,权限怎么流动,都得跟上,这就是数据治理的问题,这个问题不比社会治理容易。

  南都:新修订的《未成年人保护法》第八十条规定,“网络服务提供者发现用户发布、传播可能影响未成年人身心健康的信息且未作显著提示的,应当作出提示或者通知用户予以提示;未作出提示的,不得传输相关信息。”但部分直播平台内容有即时性,这对平台带来怎样的挑战?是否有好的解决方案?

  何延哲:从技术角度而言,用算法审查内容很难做到百分之百准确。一方面有漏判,另一方面有误判。漏判肯定要不得,误判也涉及内容制作者的正当利益。技术是在帮助我们提高效率,但不能代替一切,用技术提高效率后,剩下的人工审核要跟上。技术会不断优化,哪个平台技术好,人工可以少一点;技术不好,人工就要多一点。各家平台进行商业竞争,希望可以达到良币驱逐劣币的效果。

  C

  谈算法策略披露

  算法策略披露制度要把握平衡

  南都:提升平台算法透明度一直在提,您对算法策略披露制度有何看法或建议?

  何延哲:算法模型、参数设置等几乎都属于企业的重要商业信息,涉及核心业务的算法甚至属于商业秘密,因此企业没有公开的动力。此外,相关法律也没有对此作太具体的规定,这也是企业迟迟难以履行公开义务的重要原因。算法怎么披露?是不是巨细无遗披露,肯定也不是。数据系统能公开透明到什么程度,连源代码都公开了那肯定不行,知识产权和商业秘密都没了,还可能被其他恶意人员从中找到漏洞并攻击利用。这也涉及平台的主观态度和客观能力,一点都不披露,平台态度肯定有问题,但是披露到什么程度,能解决什么样问题,还需要研究。比如,个别平台尝试披露算法,但也就一千字,意义不大,因为无法验证其算法是否公正。部分平台想披露顾虑重重,因为没有具体的标准,不知道怎么披露。算法的公开可能只面向监管部门,但如何设计合理的算法策略披露制度,需要继续研究探讨,把握平衡点。

  南都:对于收集、使用未成年人个人信息的平台企业而言,强化数据安全能力还有哪些重点?

  何延哲:第一,目前平台数据最小化储存和使用所做的可能不够。用户使用音视频直播平台过程中产生的数据,有没有按最小期限的方式定期清理,很多平台都还没有公开具体的规则。举个例子,提取人脸特征信息完成身份核验后,从最小化原则出发应及时删除原始样本,以实名认证为由收集的人脸信息应按照与用户约定的实名认证功能使用,目的实现后删除原图像。很多平台没有说明信息在完成相应功能后将被删除,在实践中,大部分运营者都有长期留存习惯。第二,数据安全风险管控需要加强,数据在内部管理或者流通过程中有一些实际风险需要监测。我们最近在做一些测试时发现很多应用程序的服务器接口之间可直接拿到用户非常敏感的数据,在数据安全工作上形成完善内部管理体系的企业少之又少。网络安全风险很常见也不可避免,面对不同的风险,要达到一个动态风险平衡,通过行之有效的管理手段、技术措施使造成的危害可控。

出品:南都大数据研究院

统筹:王卫国 邹莹

执行:张雨亭 杨小旻

本期采写:林芯芯