740)this.width=740>
张宇昕是在当天举行的网络安全技术高峰论坛上作上述表述的。该论坛是2023年国家网络安全宣传周的重要活动之一。
张宇昕表示,当前人工智能产业发展火热,技术的变革能带来生产效率的提升,能提高社会生活质量,但人工智能技术带来的安全挑战也非常之高。
张宇昕介绍称,华为有自己的人工智能治理原则。首先,人工智能只能服务于人类而不能决定人类,这是必须实现的基本原则。其次,人工智能可能助推发展的不公平性,应该予以纠偏。再次,人工智能的产品必须有质量和安全性保障,包括训练过程使用的数据不应侵犯隐私和企业知识产权。此外,人工智能大模型的训练过程和推理过程应实现可追溯性,以便出现问题后可以明确责任。
张宇昕表示,基于上述原则,希望共同构建一个负责任、可信赖的人工智能治理体系。具体建议包括:
一是打造多角色协同的治理体系。政产学研和用户等各主体之间加强协作,为不同角色提供针对性的治理指引和实践,各参与者承担与其角色相对应的义务和责任。
二是实现基于应用场景风险的分级治理。人工智能治理要具象化到具体场景才有边界和实际意义,需要对特定场景的风险进行科学评估和分级,并采取与风险相称的治理。
三是建立卓越的标准和测试认证能力。制订可衡量、可评测的人工智能治理标准和认证体系,结合行业需求、特定场景风险高低,对人工智能应用进行必要或自愿性的认证。
四是构建包容的国际多边治理机制。人工智能的治理需要凝聚全球的力量,共同探索,建立跨文化、跨地域的共识,对差异性进行全球协同。
|