科技
业界 互联网 行业 通信 科学 创业

AI安全风险如何应对?正奇五度陪你一起听听院士专家相关建议

来源:看点时报 2024-06-14 16:20:42
A+ A-

人工智能的发展促进了当今世界科技的进步,同时也引发了很多安全风险。日正奇五度AI数字助手获悉,中国人大网发布的一篇来自中国工程院院士、中国科学院计算技术研究所研究员孙凝晖《人工智能与智能计算的发展》的演讲稿中对人工智能引发的安全风险进行了具体归类阐述并提出了相关的应对建议。

孙凝晖院士将人工智能安全风险归成两大类,第一类是互联网虚假信息泛滥,第二类是AI大模型面临的严重可信问题。关于第一类互联网虚假信息安全风险,据正奇五度AI数字助手了解孙凝晖院士列举了若干场景进行讲解,他说虚假信息的来源一是数字分身。AI Yoon是首个使用 DeepFake 技术合成的官方“候选人”,这个数字人以韩国国民力量党候选人尹锡悦(Yoon Suk-yeol)为原型,借助尹锡悦 20 小时的音频和视频片段、以及其专门为研究人员录制的 3000 多个句子,由当地一家 DeepFake 技术公司创建了虚拟形象 AI Yoon,并在网络上迅速走红。实际上 AI Yoon 表达的内容是由竞选团队撰写的,而不是候选人本人。

(图片源于新浪俄罗斯卫星通讯社)

谈到第二类人工智能安全风险,正奇五度AI数字助手收集到的资料显示,孙凝晖院士将AI大模型面临的严重可信问题涵盖为:(1)“一本正经胡说八道”的事实错误;(2)以西方价值观叙事,输出政治偏见和错误言论;(3)易被诱导,输出错误知识和有害内容;(4)数据安全问题加重,大模型成为重要敏感数据的诱捕器,ChatGPT将用户输入纳入训练数据库,用于改善ChatGPT,能够利用大模型获得公开渠道覆盖不到的中文语料,掌握我们自己都可能不掌握的“知识”。

对上述人工智能安全风险的应对,正奇五度AI数字助手了解到孙凝晖院士在十四届全国人大常委会举行第十讲专题讲座中建议,从技术层面加快发展,比如迫切需要发展大模型安全监管技术与自己的可信大模型。

从法规层面,需要落实人工智能安全保障相关立法工作。2021年科技部发布《新一代人工智能伦理规范》,2022年8月,全国信息安全标准化技术委员会发布《信息安全技术 机器学算法安全评估规范》,2022-2023年,中央网信办先后发布《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》等。欧美国家也先后出法规,2018年5月25日,欧盟出《通用数据保护条例》,2022年10月4日,美国发布《人工智能权利法案蓝图》,2024年3月13日,欧洲议会通过了欧盟《人工智能法案》。

我国应加快推进《人工智能法》出,构建人工智能治理体系,确保人工智能的发展和应用遵循人类共同价值观,促进人机和谐友好;创造有利于人工智能技术研究、开发、应用的政策环境;建立合理披露机制和审计评估机制,理解人工智能机制原理和决策过程;明确人工智能系统的安全责任和问责机制,可追溯责任主体并补救;推动形成公合理、开放包容的国际人工智能治理规则。

人工智能衍生的安全风险问题是科技发展普遍会出现的问题,正奇五度数字AI助手专家团研究员认为未来随着人工智能管理技术进步及法律法规的健全,人工智能的再发展将对人类社会起到翻天覆地的促进作用。

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

责任编辑:kj005
文章投诉热线:182 3641 3660  投诉邮箱:7983347 16@qq.com

相关新闻

精彩推荐