AI换脸骗局频现 人工智能使用边界在哪儿
从OpenAI去年11月推出ChatGPT,到今年3月其迭代品GPT-4面世,仅用了几个月的时间。GPT-4不仅知识面更广、回答问题更流畅,还可以描述并理解图片,甚至具备一定自我反思的能力。
OpenAI的首席执行官Sam Altman接受采访时就曾表示,担心这些模型可能被用于大规模的虚假信息,也担心人类被控制。“ChatGPT是一个高度受人类控制的工具。但也许会有人放弃设置我们目前已有的一些安全限制。”他补充,“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何监管,如何处理它。”
今年3月,美国特斯拉汽车公司首席执行官埃隆·马斯克曾联合1000多名业界、学界人士发表公开信,呼吁所有AI实验室立即暂停训练比ChatGPT更强大的AI系统,暂停至少6个月。其信中提到,在开发强大的AI系统之前,要确信这些系统的影响是积极的,风险是可控的。
同时公开报道显示,今年3月31日,意大利个人数据保护局宣布即日起暂时禁止使用ChatGPT,并暂时限制OpenAI处理意大利用户数据。意大利成为首个禁止ChatGPT的西方国家,欧盟的多个国家也开始跟进,酝酿具体监管措施。
各国政府都在加快出台人工智能监管法律。据路透社报道,英国竞争和市场管理局正在审查人工智能对消费者、企业和经济的影响,考虑是否需要新的监管措施。法国隐私监管机构正在调查与ChatGPT有关的几起投诉。澳大利亚政府正在咨询科学咨询机构,来考虑下一步的监管行动。欧洲数据保护委员会已成立ChatGPT特别工作组;欧盟消费者组织则呼吁欧盟消费者保护机构调查ChatGPT技术及对消费者的潜在危害。
“鉴于人工智能的技术复杂性,世界各国对其风险治理均处于探索阶段,对其约束和监管仍有赖于法律体系的完善。”方翔介绍,欧盟目前正在推进全球首部人工智能法案。2023年4月,欧洲议会成员就《人工智能法(The AI Act)》提案达成临时政治协议,强化对生成式人工智能的监管,并将人工智能技术可能带来的风险细化为极小风险、有限风险、高风险、不可接受风险4个等级。“这一立法动向值得我国关注。”方翔告诉记者。
(责编:薛添翼)