人本智能的深化发展将建立在创新变革、安全规范等多重维度的平衡之上。这需要通过有效的治理策略来实现平衡,
规避 AI 繁荣背后潜藏的风险。由此引出的 AI 治理和实践,不仅是技术层面的问题,更是社会问题,需要全社会共同
面对。作为目前 AI L域主力军的头部科技企业亦纷纷拥抱 AI 伦理和治理,并努力将“人的因素”纳入产业布局和实
践当中。
根据腾讯研究院G级研究员曹建峰的总结
,2016 年至今,从原则到实践,AI 科技伦理成为“必选项”经历了如下三
个阶段。
原则爆发阶段:各大行业和一些知名企业及研究机构提出了自己的 AI 伦理原则。2016 年,谷歌、微软、亚马
逊、Facebook、IBM 等五大科技公司联合成立了“人工智能伙伴关系”(Partnership on AI),旨在促进 AI 技术的公
益、安全、可信、透明和可理解性,以及保护人类的社会和文化价值。2017 年,欧盟委员会发布了《欧洲人工智能战
略》,提出了“人本”的 AI 愿景,强调 AI 技术应该尊重人类的尊严、自由、民主、平等、法治和人权,并提出了一系列
的行动计划和措施。
共识寻求阶段:加强 AI 国际治理,OECD 等机构主张推动建立国际公认的伦理框架准则。2019 年,联合国教科文
组织发布了《人工智能伦理问题报告》,提出了“人类中心”的 AI 原则,强调 AI 技术应该以人类的尊严和权利为核心,
以人类的多样性和包容性为基础,并提出了一系列的伦理指导和建议。
伦理实践阶段:很多企业都在探讨如何将 AI 原则贯彻到日常技术实践中。例如,Google Cloud 采取措施打造负责
任的 AI;微软设立负责任 AI 办公室,多面推进负责任 AI 的落地实施。
已有的行业实践包括设立伦理委员会,组织培训和审查,以确保在设计活动中考虑伦理要求;构建“AI 模型说明书”,
推动 AI 算法的透明性和可解释性。例如,谷歌推出的“模型卡”工具集(Model Card Toolkit),以及 IBM 的 AI 事
实清单等。行业实践还包括以伦理工具方式呈现的“伦理即服务”,针对可解释、公平、安全、隐私等方面的伦理问
题,研发并开源技术工具。例如,IBM 根据其 AI 伦理的五大支柱——可解释性、公平性、鲁棒性(稳健性)、透明性、
隐私性,提出了 5 种针对性的技术解决方案
在人与 AI 两者之间的交互关系上构建一种人机共生的新关系、新范式; 在人与 AI 的目标工具属性关系上共情智能及人机物和谐智能;在人与 AI 发展的价值导向上助力克服健康、环境、教育等L域的关键挑战
人类已经进入一个“人机物”三元融合的万物智能互联时代,人与移动设备的交互方式更G阶的智能体交互正在为人们创造全新的体验,实现超能力替身
人工智能将被赋予以前只能由人类心智完成或尝试的任务,产生接近乃至超越人类智能所能完成的结果;从“以人类理性为中心”转变为“以人类尊严和自主性为中心”
通过机器学习和大数据分析,AI 能够辅助医生进行疾病诊断;根据用户的风险偏好,财务状况以及市场动态进行资产配置和投资组合优化;AI 使自动驾驶系统拥有超越人类的感知能力
三分之二(67%)的 Z 世代年轻人认为网络和现实之间的自我表现存在脱节,这进一步 加剧了他们的孤独感和焦虑感;每个人都可以在这个与真实世界平行的虚拟世界中拥有自己的分身
结合文本、语音、图像等多模态能力的大模型不仅改变了人机交互方式,还催生了新的“工种”——智能体;可以根据用户的思维模式和行为频率预测下一个任务,并主动提出建议、自主寻找解决方案
强大的生成能力使 AI 能够在没有直接人类指令的情况下创作出全新的作品;便利的自然语言交互;广泛的应用场景可以在医疗诊断、金融分析和技术故障排查等L域 发挥重要作用
起步发展期(1943-1960 年);黄金时代(1960-1974 年);D一次寒冬(1974-1980 年);再次繁荣(1980-1987 年);D二次寒冬(1987-1993 年);深化发展(1993-2015 年)
体能型和智能型,聚焦两大商业化落地场景的方向;体能型以美国波士顿动力的Atlas,特斯拉Optimus为代表;智能型以香港Hanson Robotics的Sophia以及英国Engineered Arts的Ameca为代表
厘清具身智能的概念内涵、演进历程、技术体系,通过梳理当前具身智能技术发展现状,研判分析 具身智能应用潜力与可能影响,提出面临的问题挑战,展望思维智 能和行动智能融合的未来发展趋势
通过对“医”、“食”、 “住”、“行”、“城市”、“企业”、“能源”、“数字可信”八个维度在下一个十年的展望,来尝试 描绘智能世界 2030 的美好图景,智能 世界拥有无限可能
性关键技术和应用开发类计划项目形成 标准成果的比例达到 60%以上,标准与产业科技创新的联 动水平持续提升,新制定国家标准和行业标准50 项以上