人工智能教育中的几个基本伦理教育要点
主持人: 教育开发者在设计和开发人工智能工具时要充分考虑社会伦理的基本要求,除了要符合信息技术不危害伦理的基本原则,例如不制造计算机病毒、不开发基于人工智能的有害程序、不进行数据盗窃等,还有其他方面的考虑吗?
熊璋: 我们还要充分考虑人工智能在社会活动中所扮演的新角色,考虑到这些角色的不当行为可能带来的伦理风险,不主动利用角色的特殊地位为个人牟利或是危害他人利益。
例如,当开发人员为一个公司开发人力资源管理系统,在使用传统数据库、信息系统等技术时,道德规范的开发人员需要做到的是不能利用自己的技术优势在程序中预留后门、不能窜改和拷贝公司的内部数据、在程序设计时充分考虑信息安全因素等。在开发一个基于人工智能的人力资源管理系统时,开发人员则还需要考虑机器代替人去作恶的伦理道德风险。例如应该主动避免将种族、肤色、性别等因素作为特征输入到自动决策算法当中,不开发对员工个人隐私具有窥探性的算法功能等。
进一步,人工智能伦理教育还要教使用者学会在合理的场景正确使用技术。技术通常是中性的,善恶只体现在技术的使用场景当中。例如基于人工智能的视频“换脸”技术,其发明的初衷是为了用于电影特效、艺术创作等,但也可能会被应用在不良宣传、伪造证据等不当场景当中。
此外,还要避免人工智能被动伦理风险,这是指在人工智能担负重要工作职能时,可能会遭到环境变化、外来攻击等不确定因素的干扰,如果在重要岗位上所使用的人工智能技术不够可靠和稳健,在遭到外界攻击时就有可能产生一些不可预料的后果。如自动驾驶过程中,特殊的光照等场景可能导致算法对于明显的障碍物视而不见,对于“刷脸”支付应用中的图像识别算法,一些对抗样本可以完全混淆人工智能模型的输出,将账户开放给不应被授权的访客。这些都是关键岗位上人工智能可靠性不足所带来的风险问题。
王静远: 要教育学生将来在使用一项人工智能技术代替人类工作时,主动了解技术的局限性、不确定性及风险后果。
对于整个社会而言,无论是人工智能技术的开发者还是使用者,都需要进行必要的责任意识教育。人工智能工具的重要特性是辅助和代理人类去完成一定的脑力劳动。在机器代理人类去完成一定任务时,“代理风险”就会不可避免地产生。
例如,在传统战争中,武器操作者需要亲临战场进行厮杀,因此对于杀戮的残酷性会有直观的认识。到了无人武器时代,武器操作者只需要在办公室里点击按钮就能够杀敌于千里之外,战争残酷性对操作者就降低到了电子游戏的水平。
而到了人工智能时代,武器杀人有可能完全由算法来决定,人的生死就完全控制在了算法手中。在这个过程中如果再出现由于人工智能不可靠所带来的意外影响,所造成的后果甚至会给整个人类带来的巨大灾难。要想避免这样的悲剧发生,必要的技术管控手段固然必不可少,加强对于人工智能工具研发与使用者的责任意识教育也同样非常重要。
管理部门在促进人工智能教育健康发展上的作为
主持人: 人工智能是一个发展的科学、发展的技术,在它的发展过程中,除了对科学技术的推动,对社会发展的促进,人工智能与教育的融合还催生了伴随式评价、个性化指导、团队式作业,创新了教学环境、氛围和文化,会出现新的改变和新的冲击,我们的学校和管理部门应当有何作为呢?
熊璋: 人工智能教育中的伦理教育有一个不断发展、不断完善的过程,维护这个过程的科学性、维护人工智能教育的健康发展任重道远。人工智能教育应该纳入义务教育、普通高中和大学的课程体系,保证学校作为人工智能教育的主渠道。教育管理部门要在普通高中和义务教育阶段的课程方案中明确人工智能课程是信息技术课程、信息科学课程的重要组成部分,明确培养目标、课程内容和学业质量标准,并不断适时更新,要严格保证学校用教材的科学性、严谨性和规范性,要及时培训学校的一线教师,让他们成为主力军。同时也要引导社会舆论和社会力量共同维护人工智能教育的健康发展。
|