近年来,人工智能保持快速发展势头,但人工智能所带来的安全风险 也不容忽视。
(一)用户数据用于训练,放大隐私信息泄露风险
当前,人工智能利用服务过程中的用户数据进行优化训练的情况较为 普遍,但可能涉及在用户不知情情况下收集个人信息、个人隐私、商业秘 密等,安全风险较为突出。
(二)算法模型日趋复杂,可解释性目标难实现
长期以来可解释性都是制约人工智能用在司法判决、金融信贷等关键 L域的主要因素,时至今日问题尚未解决、且变得更为棘手。由于深度模 型算法的复杂结构是黑盒,人工智能模型天然缺乏呈现决策逻辑进而使人 相信决策准确性的能力。
(三)可靠性问题仍然制约人工智能关键L域应用
由于现实场景中环境因素复杂多变,人工智能难以通过有限的训练数 据覆盖现实场景中的全部情况,因此模型在受到干扰或攻击等情况下会发 生性能水平波动,严重时甚至可引发安全事故。
(四)滥用误用人工智能,扰乱生产生活安全秩序
人工智能在对加速社会发展、提升生产效率等方面产生J大促进作用 的同时,也出现了被滥用误用、恶意使用的现象,引起威胁社会安全、人 身安全等负面事件。
(五)模型和数据成为核心资产,安全保护难度提升
人工智能训练数据的获取以及模型开发已经逐渐变成重资产投入、重 人力投入的工作,算法模型、参数、加工后的训练数据已成为核心资产, 不免遭到觊觎。
(六)网络意识形态安多面临新风险
人工智能的目标是模拟、扩展和延伸人类智能,如果人工智能只是单 纯追求统计优解,可能表现得不那么有“人性”;相反,包含一些人类 政治、伦理、道德等方面观念的人工智能会表现得更像人、更容易被人所 接受。
针对利用人工智能算法从事传播违法和不良信息,侵害用户权益,操纵社会舆论等问题,加强安全管理,推进算法推荐技术和深度合成技术依法合理有效利用
日本政府发布了《人工智能战略2022 》旨在推动人工 智能克服自身社会问题、提G产业竞争力,提出以人为本、多样性、 可持续三项原则
新加坡资讯通信媒体发展局和个人数据保护委员会共同发布人工智能安全治理评估框架和工具包A .I .VERIFY,结合人工智能系统的技术评估和程序检查
俄联邦政府批准《至2024年人工智能和机器人技术监管构 想》为人工 智能和机器人技术的安全应用和法律监管提供指导
欧盟专门立法,试图对人工智能进行整体监管,针对可能对个人基本 权利和安全产生重大影响的人工智能系统建立多面的风险预防体系
美国监管要求少,主要强调安全原则,指导政府部门 与私营企业合作探索人工智能监管规则,并为人工智能实践者提供自愿适 用的风险管理工具
拟议法案《人工智能与数据法》敦促各公司在开发和部署人工智 能系统时以减轻伤害和偏见风险为前提,进而维护加拿大民众的权益
英 国将如何巩固网络强国地位,保障网络安全,提升网络空间行动能力,明确了英国将积J引L人工智能等七项优先技术L域的安全发展
20211000-T-469; 20230249-T-469; 20221791-T-469 ;T/CESA 1193-2022
GB/T38542-2020,GB/T38671-2020,GB/T40660-2021,GB/T41819-2022,GB/T41807-2022,GB/T41806-2022,GB/T41773-2022,GB/T41871-202220230253-T-469
梳理了人工智能技术与应用发展现状,分析了人工智能面临的新的安全风险,结合国内外人工智能安全政策与标准现状,指出了人工智能安全标准需求
提供工业模型开发环境,支持主流的深度学习框架,支持低代码,可视化的方式开发工业模型;支持开展工业模型训练;支持开展模型测试与评估