昨日,意大利的隐私监管机构突然宣布,从即日起禁止民众使用ChatGPT,限制ChatGPT的开发商OpenAI处理意大利用户的信息,并且表示已经对OpenAI公司立案调查。
意大利的这项禁令是全球先例,引起了广泛关注。意大利当局批评,AI聊天机器人不尊重用户数据,且未能验证用户年龄。
意大利数据保护局认为,没有任何法律依据显示,为了“训练”平台背后的算法,而大规模收集及存储个人数据是合法的;此外,尽管OpenAI发布的条款——“机器人是供13岁以上的用户使用”,但是,ChatGPT软件本身并没有年龄核实系统来验证用户年龄,会让未成年人接触到不合适的内容。
该机构指出,3月20日ChatGPT平台出现了用户对话数据和付款消息的数据泄漏事件,此外,平台未有告知用户,会收集处理用户信息。
据悉,意大利当局允许OpenAI可以在未来20日内作出解释,在限期内,OpenAI可以通过其在欧洲的代表向意大利数据保护局通报整改措施,否则将会被处以最高2000万欧元,或相当于公司全球年营业额4%的罚款。
此外,爱尔兰和英国的数据监管机构也表达了同样的担忧,德国也在考虑禁止使用ChatGPT。
目前,欧盟正在制定全球第一部关于人工智能的立法,欧洲消费者组织副总干事表示,人工智能系统需要受到更严格的公众监督,
【ChatGPT的数据安全问题】
众所周知,ChatGPT可以回答问题、编写代码、写论文,甚至可以通过困难的考试,自去年11月底发布以来,在全球迅速引发热潮,多国科技巨头也争相推出类似产品。
但是,ChatGPT的安全问题也引发一些争议,学校担心学生会利用它来作弊(全球已有多所高校宣布禁用ChatGPT),在资讯审查方面,政府也担心虚假信息的传播。
上月底,欧洲刑警发布警告称,犯罪分子可能会利用ChatGPT“大幅加快对未知领域的研究”,包括利用ChatGPT制定诈骗犯罪计划,或是查询“如何闯入民宅、从事恐怖活动、网络犯罪”等资讯。
近日有消息称,韩国Samsung三星公司使用ChatGPT仅仅20天的时间,已经传出多次机密资料外泄和被滥用,导致三星公司的机密有可能外泄给OpenAI公司。
韩国版《经济学人》的文章中直接写道:“这导致半导体设备测量资料、产品良率等数据原封不动传给了美国公司”。此外,三星公司有员工利用ChatGPT制作会议记录,这些内容或已存入ChatGPT学习数据库,从而导致公司企业机密外流。微软、亚马此前已禁止员工向ChatGPT分享敏感数据。
据悉,三星在开放使用ChatGPT之时,已经向员工通报使用方式,并提醒员工资料输入有外泄的可能性,但意想不到,短短20天就已经出问题。如今,为了不再从重蹈覆辙,三星公司正在制定相关措施,并考虑研发三星专属的AI大模型,不排除日后会禁用ChatGPT。
【AI大模型自主可控】
可以看出,ChatGPT将进一步引发各国对数据隐私安全的担忧,与此同时,也凸显出自主安全的国产大模型的必要性。
在国内,除了百度推出的文心一言,华为、腾讯、阿里、360等也相继计划推出类ChatGPT产品。
针对类ChatGPT产品,腾讯已经对外披露“混元”AI大模型的研发,成立“混元助手”项目组,基于此前在AI大模型、机器学习算法以及NLP等领域的技术储备,持续投入AI等前沿技术的研发。消息称,腾讯AI大模型将覆盖NLP、CV、多模态等基础模型和众多行业与领域模型,未来将生成式AI纳入微信和QQ。
阿里巴巴也拥有中文多模态预训练模型M6,已持续推出多个版本,擅长设计、写作、问答,已在超40个场景中应用。
360也计划尽快推出类ChatGPT技术的demo应用,全力自研生成式大语言模型技术,同时还要占据场景做出相关产品服务。
早在2021年,华为发布了华为云盘古NLP大模型,由华为云、鹏城实验室联合开发,鹏城云脑二期提供算力支持,是业界首个千亿级生成与理解中文NLP大模型,也是业界最大的CV大模型。近日,根据华为云官方展示的信息,在沉寂两年后,盘古系列AI大模型即将正式上线。
根据华为官网信息,华为已构建起全栈AI 计算基础设施及应用服务能力,具体包括昇腾/鲲鹏系列处理器、PC、服务器、存储设备、虚拟化、开源欧拉和开源鸿蒙操作系统、开源高斯数据库、中间件、云服务、行业应用等。华为已具备从底层硬件到顶层应用的AI全栈能力,实现自主可控。
AI浪潮下,大模型与国家安全息息相关,实现AI大模型的自主可控具有重要战略意义。