系好“安全带”,生成式人工智能才会更好发展
齐齐哈尔时尚网小编提示,记得把"系好“安全带”,生成式人工智能才会更好发展"分享给大家!
人工智能通用大模型横空出世,全世界看到了AIGC(人工智能生成内容)的强大。与此同时,AIGC的可信度、隐私保护、伦理等问题亦引发空前争议。
我国有关部门快速反应。4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《管理办法》),提出二十一条举措。业界认为,这是国内首次明确针对生成式人工智能服务征求管理意见,将有利于推动AIGC产业健康稳定发展。
AIGC负面影响显现,行业亟待规范
当前,人工智能越来越多地被应用于文本、图像、视频等生成工作,成为继专业生成内容(PGC)、用户生成内容(UGC)后的新型内容生产方式(AIGC)。
然而从AIGC走进公众视线的那一刻起,种种争议就一直围绕着它。
版权之争首当其冲。2023年初,商业图库Getty Image多次指控AI公司Stability AI未经授权复制和使用其图库中逾1200万幅受版权保护的图片,用以训练其AI图像生成模型。《华尔街日报》也表示美国新闻集团正准备向OpenAI、微软和谷歌等公司提起诉讼,要求AI工具在训练中对使用其内容的部分进行费用补偿。
数据安全、隐私安全等问题也随之而来。据韩国媒体报道,三星内部已先后发生三起误用滥用ChatGPT案例,包括两起“设备信息泄露”和一起“会议内容泄露”,涉及半导体设备测量资料、产品良率等机密内容。而摩根大通、软银等企业已经开始限制员工在工作场合使用ChatGPT。
更有人利用AIGC强大的内容生成能力伪造信息,多次引发热议。比如近日广州一女子在地铁上的照片被他人使用AI技术“一键脱衣”,虚假图片在网络广泛传播;某男网红使用“AI换脸”技术,替换掉电视剧中的男主角头像,制作自己与女明星亲吻的画面;今年2月,有人用ChatGPT写了一条“杭州市政府将取消机动车尾号限行政策”的假新闻,让不少人信以为真……
多国已对ChatGPT展开调查。4月初,意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。加拿大联邦隐私监管机构也宣布对OpenAI展开调查,因其涉嫌“未经同意收集、使用和披露个人信息”。德国联邦数据保护专员也表示,考虑数据安全,不排除封禁ChatGPT。
AI发展正在加速,AI治理也需要提速。多位业内专家对人民网记者表示,我国此次出台《管理办法》非常及时,如此详细的管理规定在全球范围内也很鲜见。
中国信息经济学会副理事长、广州大学网络空间安全学院教授齐佳音说,《管理办法》的发布距离OpenAI发布ChatGPT全球公测仅仅过去四个月,有可能成为国际上第一部规制生成式人工智能的规章制度,体现了我国在人工智能治理领域的敏捷反应能力,对于规范和促进AIGC的发展无疑具有重要的引领作用。它将为全球的AIGC监管提供模版,有助于加快人工智能治理制度建设,推动AIGC产业规范有序发展。
强调安全,是为了更好地促进发展
业内专家认为,《管理办法》强调权益保护,主要防范滥用行为。一方面是防范平台滥用人工智能技术手段侵害用户隐私,另一方面是防范用户滥用生成式人工智能侵害他人权益。
人民网董事长、总裁,传播内容认知全国重点实验室主任叶蓁蓁认为,主管部门出台《管理办法》并非要限制人工智能发展,而是通过规章制度来“系好安全带”,加快发展、更好发展。他强调:“在统筹发展与安全的问题上,不发展才是最不安全。”
我国高度重视人工智能技术发展,将其视为一项驱动科技创新、产业升级和生产力提升的战略性新兴技术。近年来,有关部门陆续发布《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划》《关于加快场景创新 以人工智能高水平应用促进经济高质量发展的指导意见》《关于支持建设新一代人工智能示范应用场景的通知》等多个政策文件,为人工智能核心技术攻关、产品落地应用以及探索发展新模式新路径提供了重要指导。
在今年的全国两会上,科技部相关负责人亦专门强调,“将把人工智能作为战略性新兴产业和新增长引擎”,在推动人工智能基础研究、应用推广、开放合作等方面继续给予大力支持,并同时推动建立人工智能安全可控的治理体系。
齐佳音指出,此次公布的《管理办法》为AIGC的研发和应用划出了底线和红线,即提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。同时,明确了AIGC的“提供者”对研发和应用负有责任,即利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人需要对包括产品应用、安全评估、算法合法性、数据合法性等承担责任。此外,《管理办法》还为AIGC的研发和应用提供了纠偏机制,包括持续优化纠偏、AIGC标识提示、可审查机制、监管引导机制、终止服务机制和惩戒处罚机制。
“《管理办法》为AIGC的研发和应用第一次立了规矩,使得AIGC的研发和应用有了规制框架,对于规范和引导这一领域的发展具有十分重要的积极作用。”齐佳音说。
专家呼吁进一步重视潜在风险
记者注意到,此次《管理办法》也对一些可能出现的衍生问题提出防范举措,如要求利用生成式人工智能生成的内容“应当体现社会主义核心价值观”、防止各类歧视、“不得利用算法、数据、平台等优势实施不公平竞争”“采取措施防止生成虚假信息”“防止伤害他人身心健康”等。
“这一点非常值得关注。”齐佳音解释说,以ChatGPT为例,其具有强大的类人化自学习能力和交互式文字处理能力,自动化语言生成带有强烈的类人化语言风格,这让ChatGPT有可能摆脱单一的技术身份而拥有了类人化社会角色,成为深度参与和介入社会关系的“代理”。如果不加以限制,AIGC带来的“人-机”社会互动将有可能代替真实的“人-人”社会交往,成为干扰人类真实社会关系的核心要素,这将带来技术的异化和人的异化,是必须要加以防范的。
叶蓁蓁指出,AI平台是有立场的,AI生成的内容是有导向的,所谓“技术中性”是不存在的。因此,无论是喂养人工智能的语料数据,还是模型本身的算法,都必须高度关注其政治方向、舆论导向和价值取向问题。不能放任AI脱离人类视野,不能无视AIGC“生成即传播”特性的潜在风险,要积极探索AI应用和治理之道。
在AIGC价值观培养方面,清华大学教授沈阳建议:应该有更多“人的介入”。其中关键是要为大语言模型提供更多的解释性,这对于修正AI的价值观偏见以及知识成见非常重要。
据了解,目前人民日报社主管、依托人民网建设的传播内容认知全国重点实验室已初步建立了AI意识形态风险评测体系。该体系就采用了人机协作的方式进行测评。
为从源头上防止“技术脱轨”,在制度建设方面,4月4日,科技部在《科技伦理审查办法(试行)》征求意见公告中提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。
沈阳表示,每一个AIGC平台都应设有伦理审查委员会,以确保其在发生大规模涌现时,符合法律道德和伦理规则。“我们现在对于训练师、心理师、伦理师、提示师的重视程度还不够,需要进一步提升。”
齐佳音指出,随着技术的快速发展,相关规章制需要持续优化,建议后续进一步推出AIGC安全评估规范和管理流程规范。
“应健全研发、审核、应用与安全等多维标准规范体系,完善AIGC技术创新生态。”传播内容认知全国重点实验室科技发展部主任杨松建议,应加快构建国家顶层规划、龙头企业牵头、高校科研机构共同支撑的创新链产业链融合体系,完善数据共享机制,大力推动数据资源汇聚。
(人民网)