【科学的温度】聂再清:AI时代,把更多决策权还给个人数据主权方

导读: 聂再清同时指出,商品、软件设计者还应遵循最小范围收集个人隐私信息的原则,绝不要收集和产品用户价值无关的信息。“将更多决策权还给个人数据主权方”  聂再清表示,随着

齐齐哈尔时尚网小编提示,记得把"【科学的温度】聂再清:AI时代,把更多决策权还给个人数据主权方"分享给大家!

  齐齐哈尔新闻网12月21日电 (记者 孟湘君)扫地机器人、升降桌携带摄像头,家中被“偷拍”防不胜防?手机、电脑APP,日复一日“偷听”你说话?动不动就收到房产中介、早教、健身机构的“骚扰信息”?个人就医健康数据接入互联网,究竟谁有权查看?

  Web3.0时代正在到来,人工智能应用越来越广泛,个人隐私数据和信息泄漏问题随之而来。隐私被泄漏,该找谁?如何做好数据保护和管理?人工智能被恶意使用,责任归属如何划定?

  就这些问题,齐齐哈尔新闻网记者邀请清华大学国强教授、智能产业研究院(AIR)首席研究员聂再清,展开深入解读。

资料图:聂再清。受访者供图

  “个人隐私信息,遵循最小范围收集原则”

  网上流传着一种说法,即手机、电脑里一些APP可能在“偷听、偷看”持有者说话,通过用户搜索的常用关键词及通话录音高频词,来分析用户喜好并进行商品和服务推荐,聂再清表示,有这种说法,但要具体情况具体分析。

  他指出,其实从数据输入开始,到浏览器或其他软件,再到真正的系统里,要经过各种程序。正规来讲,所有软件都应遵守用户隐私协议和国家相关法律法规,都要与用户签隐私协议。传输过程中软件是不是在“偷听”,到底哪个软件在“偷听”,要具体分析。在一个软件当中,利用好用户的某些个人信息,也可能能为用户带来价值。

  聂再清举例称,比如音乐软件记住用户所听歌曲,通过数据收集知晓用户是谁的粉丝,就能按喜好荐歌。前提是,软件应与用户签好隐私协议,告诉用户在使用过程中会收集其所听歌曲的名字、听歌时长等,这类功能需要用户授权,获得用户同意才能使用。用户应该也有权不允许启用这类个性化推荐功能。

  最近,市场上流行的一些智能家具、家电,比如扫地机器人、升降桌等携带摄像头、麦克风等,也引发“偷取”个人隐私的质疑。一些消费者认为商家未充分明示,导致自己在家中被拍摄和录音,从“不设防”变成了“防不胜防”。

资料图:2022世界人工智能大会上,智能机器人亮相。 汤彦俊 摄

  对此,聂再清表示对消费者的理解。他同时指出,对一些智能家电来说,没有摄像头、麦克风就无法收集用户语音指令和现场状况,但同时,应当对市场上的商品进行更好地监管,他指出几个判断标准:

  首先,商家是否明确告知用户,何时收集数据、如何使用数据,是不是超出了实际使用和收集范围?

  第二,数据收集完后,商家会否拿来做别的用途?商家在整个过程中,一定要遵循国家法律法规和用户隐私协议。

  第三,软件运营人员、机构负责人,应当是第一把关人,要保证软件不做多余动作,否则就等于是违反协议甚至违法,一定有相关法律法规来监管。

  聂再清同时指出,商品、软件设计者还应遵循最小范围收集个人隐私信息的原则,绝不要收集和产品用户价值无关的信息。

  “将更多决策权还给个人数据主权方”

  聂再清表示,随着全球逐步迈入Web3.0时代,数据已成为机构或个人的核心私有资产。这就需要数据拥有方在政府允许范围内管理和利用好数据资产,从而在日常生活中,让数据资产发挥应有价值。

  他指出,Web3.0时代和Web2.0时代的最大区别,就是Web2.0时代,更多地还是把数据拥有权以及其他权利交给平台,但在Web3.0时代,希望能把决策权等很多权利还给数据主权方。这个数据主权方,可以指个人、机构,也可以指政府部门。对于个人而言数据主权是指人们对自身行为产生的数据拥有使用权和所有权,对于国家而言呢,数据主权是指存在于本国的数据要受到本国法律的约束。

  “我认为这个方向特别好”,聂再清希望,未来在政府指定范围内,个人数据主权方能逐渐拥有越来越多的决策权。

资料图:儿童医院就诊区,医生在诊室内。殷立勤 摄

  他以个人的就医、健康数据举例称,可以尝试在政府引导下,由相关机构和有参与意愿的个人,尝试共同建设健康数据联盟链示范区。检查、诊断、病史、锻炼康复、体检等各种个人健康数据,都放在数据联盟链上,个人持有密钥。如想让他人查看自己的健康数据,就用密钥授权。

  聂再清进一步指出,是否允许他人查看个人健康数据、是否可有偿或无偿将自己的数据提供给药厂以做制药研究等,都基于个人决策。机构也是一样,某个机构如有需要,可在数据联盟链上进行交易,所有数据交易都应可见且不可篡改,符合法律法规。

  “将责任压实到技术产品研发人身上”

  围绕人工智能在应用中的风险管控问题,近日,在2022人工智能合作与治理国际论坛上,中国工程院院士高文提出一个值得探讨的观点。他认为,如果没有办法阻止人工智能的恶意使用,用人工智能犯罪,只是时间早晚问题。

  对于这一观点,聂再清表示“完全同意”。他指出,工具本身没有好坏,人工智能跟别的工具没有太大不同。只要是工具性质的发明创新,都会有被恶用问题,跟背后的人如何应用工具有关。

资料图:第五届进博会技术装备展区内,参观者在“Meta”展台体验元宇宙。 殷立勤 摄

  因此,他强调,为避免人工智能被恶用,应该将责任压实到技术、产品研发背后的人身上,让他们对后果负责。对于技术创新和产品研发人员,要有一套越来越完善的管理制度,让他们失去犯罪的可能性。

  同时,聂再清指出,我们要鼓励有可能带来重大生活方式改变的颠覆式AI技术(或产品)创新,但同时需要一套完善的AI技术、产品的管理制度。对于可能有安全隐患的人工智能技术创新和新产品,从原型研发到灰度内测,再到大规模使用,“就像新药上市前要做临床实验一样”,要证明AI创新产品和技术的安全性,然后才能大规模使用它。

  使用过程中,也要不断对效果和影响进行数字化监测,他进一步指出,比如现在互联网公司做产品,都有大量数字化监测,每时每刻都有反馈。一旦发现某一功能对人产生了安全隐患,需要能及时让人参与控制,让系统回滚。

  “总体上,我对人工智能的发展前景及应用表示乐观”,聂再清说。他认为,作为人类的助手和工具,人工智能的应用总体上要符合人类科技向善的主流价值观。科技在发展过程中不断突破瓶颈,最终都是为了提升人们的生活质量。(完)

【编辑:张尼】 齐齐哈尔时尚网 qqdjxw.com