《第十三讲人工智能伦理与法律.docx》由会员分享,可在线阅读,更多相关《第十三讲人工智能伦理与法律.docx(4页珍藏版)》请在优知文库上搜索。
1、第十三讲人工智能伦理与法律教学内容:本章主要学习人工智能伦理概念,人工智能技术应用引发的伦理问题,机器人伦理、军事智能伦理,人工智能法律问题。教学重点:人工智能伦理概念、人工智能技术引发的伦理问题、人工智能伦理原则。教学难点:人工智能技术引发的伦理问题。教学方法:课堂教学为主,结合智慧树等在线平台实时提问、收集学生学习情况,充分利用网络课程中的多媒体、视频来表示人工智能伦理问题。讨论10分钟。课后布置作业,要求学生查找、阅读与人工智能伦理有关的论文资料等。学习慕课第十二章人工智能伦理与法律并完成章节测试。教学要求:重点掌握人工智能伦理概念及人工智能技术引发的伦理问题,机器人技术应用引发的伦理问
2、题,智能武器及其应用引发的伦理问题,人工智能法律问题。课程思政内容:人工智能伦理是保障人工智能健康发展的基石,培养学生树立正确的人工智能伦理观念,掌握人工智能技术以后,不能滥用人工智能技术。学习目标:1 .掌握人工智能伦理的含义;2 .掌握强人工智能伦理和弱人工智能伦理的主要问题;3 .理解人工智能伦理规范的基本原则;4 .了解预防人工智能伦理问题的主要措施;5 .理解人工智能的法律主体问题。学习导言伦理是指人与人相处的各种道德准则,一般是指一系列指导行为的观念,是从概念角度上对道德现象的哲学思考,也是人类社会长期发展所形成的一套人类所共同遵守的基本规则。道德是社会制定或认可的关于人们具有社会
3、效用(亦即利害人己)的行为应该而非必须如何的非权力规范。道德的存在意义恰恰在于非道德行为的存在。人类历史上几乎每一项重大技术进步都会给当时的社会带来一定的风险,比如电力、蒸汽机、通讯以及计算机和互联网等,都曾经给以前的传统社会带来诸如失业、隐私、安全等等风险和挑战。目前,随着以机器学习为主要方法的弱人工智能技术的普遍应用,一些前所未有的问题开始不断出现。例如,2016年3月,微软公司在美国上线的聊天机器人Tay在与网民互动过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”。类似地,美国执法机构使用的人工智能算法错误地预测,黑人罪犯比拥有类似犯罪记录的白人罪犯更有可能再次犯罪。这些由机
4、器学习算法引发的无意识地歧视,其原因在于美国的现实世界充满了各种种族主义、性别歧视和偏见,所以输入到算法中的现实世界数据也具有这些特征。由这些例子不难推断,当人工智能系统是基于带有某种或某些偏见的训练数据学习时,就会产生某种或某些偏见。这种人工智能技术如果用于预测性警务、信用评估、犯罪评估、雇佣评估、心理评估等等关系到个人切身利益的诸多方面,必然会损害个人利益。以上只是人工智能可能引发的伦理问题的一个方面。除了伦理问题,人工智能也对传统的法律法规和社会规范提出了挑战。譬如,无人驾驶汽车一旦出现事故,责任究竟该归因于生产无人驾驶汽车的企业、汽车拥有者还是无人驾驶汽车本身?人工智能正帮助人类社会向
5、充满不确定性的未来疾驰。在冲进未知之门之前,需要给它装上刹车,让它真正能行稳致远,这个刹车就是伦理规范和公共政策准则。对人工智能在伦理和法律层面进行约束,是促进人工智能健康发展的基石,或者说是发展符合人类利益的人工智能的基石。人类要想通过人工智能获得更多的收益,首先必须尊重、保护和支持人性中最珍贵的品质,维持社会基本道德和公平,防止技术滥用。本章主要学习人工智能引发的伦理和法律问题,以及人工智能伦理的概念和规范等内容。12.1电车难题引发的人工智能道德困境在理解人工智能伦理之前,我们首先思考一个关于伦理问题的假设案例-电车难题。电车难题阐明了一种典型的道德困境:在某种危急情况下,是否可以伤害某
6、个人或者更多的人来救另外的某些人?它有许多个版本,其中一个是比较典型的旁观者版本。有一辆电车正在行驶,它的司机已经昏厥了。电车正朝着五个在轨道上行走的人撞去,站台太高,路人没有足够的时间爬上去避让。一个叫做汉克的旁观者正站在转换开关旁,他可以转换电车去另一个平行的轨道,从而使5个路人幸免于难。如果将电车难题升级,即如果其中面临困境的主角不是人类,而是人工智能系统或者智能机器人,它们能够采取和人类一样的道德判断和决策吗?13.2人工智能技术引发的社会问题D经济与就业问题这类问题是由人工智能技术的普遍应用所引发的。在制造业领域,工业机器人等各种智能机器人正在不断被人类大规模使用,未来机器人将变得越
7、来越自主,并且能够互动,执行和做出更复杂的决定。机器人或智能机器人是否会彻底取代工人,政府和社会应该做些什么?每个人应该如何正视机器人以及各种智能机器给就业和工作带来的危机?2)安全与责任问题这类问题是由人工智能技术的各种可能的应用所引发的。人工智能的使用确实会使一些事情的处理更加高效、准确和科学。人类很容易对这种先进的技术产生依赖性,但人工智能系统操作不当容易出现问题,影响社会的生产和生活秩序,甚至引发社会恐慌。例如无人驾驶汽车可以解放司机双手、避免交通拥堵,但是无人驾驶汽车在测试阶段事故频发,无人驾驶汽车曾多次出现过汽车伤人致死事件,安全问题引起人们关注。3.公平与平等问题这类问题主要是由
8、对人工智能技术的占有或拥有程度所引发。比如,掌握先进机器人和人工智能技术的企业或个人可能利用其优势资源和地位,攫取和占有更多的资源和财富,而更多人则因为没有能力掌握或利用此类技术维持自己的生存,这样可能造成社会公平失衡的问题。13.3人工智能伦理概念及问题人工智能伦理是关于人工智能技术及智能机器所引发的涉及人类的伦理道德问题,包括人工智能技术应用引发的伦理道德以及基于人工智能技术设计的各种机器所引发的伦理道德问题。由于这些伦理道德问题与人类的道德观念可能相违背,因此需要引起政府、机构及技术人员及一般民众的密切关注,并应该一致努力预防潜在风险的发生。弱人工智能伦理问题弱人工智能伦理主要是指现阶段
9、所有类型的基于弱人工智能技术实现的智能软硬件系统以及应用所引发的伦理道德。弱人工智能技术载体可粗略分为软件、硬件两大类。软件是指以软件形式实现的机器智能系统,比如智能医疗诊断系统、智能身份验证系统、智能聊天机器人等;硬件是指各种具有弱人工智能技术内核的智能机器,包括智能移动机器人、智能音箱、智能无人系统等。(1)算法歧视与偏见(2)软件欺骗(3)软件控制(4)不可理解(5)隐私权强人工智能伦理问题或超现实人工智能伦理具备自我意识的智能机器的社会地位一旦智能机器尤其是类人的智能机器人产生自我意识,具有了人性特征,展示出的这种外观甚至表情看起来非常像人的机器人。如何界定它们的身份,是人还是机器?它
10、们的人格如何确定?在它们受到伤害时,是否应赋予其人道主义待遇?如何界定它们在传统人类社会中的角色?具备自我意识的智能机器的权利义务和行为责任人类是否应该比智能机器人拥有更多的权利?智能机器人是否应比人类承担更多的社会劳动和其他责任?是否应该赋予智能机器人法律人格,并赋予其与人类同等的权利义务和行为责任?具有自我意识的机器人受到折磨或虐待怎么办?具有自我意识的智能机器与人类之间的狂杂关系有了自我意识的智能机器与生物学意义上人类之间的关系注定变得狂杂莫测。人类创造人工智能的目的在于让机器变得更加智能,代替人类完成更多更复杂甚至更危险的工作,但它们对人类社会传统的个体、家庭以及社区、组织、机构和企业
11、之间的关系影响将是非常更杂的。13.4机器人伦理1机器人伦理问题机器人作为人工智能的主要载体,是基于人工智能技术的各种智能机器的典型代表。机器人伦理就是关于机器人技术研发和应用所引发的伦理问题。许多学者在2005年开始系统性地研究机器人伦理,美国印第安纳大学的哲学家科林艾伦(ColinAlIen)在道德机器:培养机器人的是非观强调,尽管追求功能最大化的工程师与伦理学家的目标似乎相悖,然而在某种程度上,提高机器人对于道德决策的敏感度与创建稳定、高效、安全的智能机器系统还是可以兼容的。2机器人伦理的基本原则关于机器人伦理问题的措施,与弱人工智能伦理类似,可以通过技术、政策、教育等不同方面的措施来预
12、防潜在问题的发生。许多研究人员认为阿西莫夫提出的机器人三定律可以看做是最早的看待和处理人与机器人之间的伦理关系的基本原则(见2.3节)。具有悖论意义的是,阿西莫夫以幻想小说的形式使机器人学不再是纯粹的幻想,而真正成为了现代人工智能伦理和机器人伦理的开端。后面不断有人在此基础上修改机器人三定律,试图使它更符合实际工程设计和机器人在社会中的应用需要。实际上,机器人三定律只是对机器人与人之间的保护与被保护关系作出了简明规定,而机器人本身涉及的伦理问题则要复杂得多。13.5人工智能伦理规范在人工智能的发展过程中,人工智能机器应该与人类普遍认可的价值观相一致,人工智能的发展应该服务于人类的公共利益,服从
13、于人类的共同价值,人工智能机器的研究和应用的目的是为了服务于人类,而不是危害或者毁灭人类,应该受人类所普遍认可和广泛接受的基本伦理原则的约束。人工智能应该合乎伦理地设计、开发与应用,人工智能技术应该遵循包括人权、福祉、问责、透明等基本伦理原则并且将其嵌入到自主系统当中。13.6人工智能法律由于人工智能技术应用极为广泛,涉及人工智能的法律问题非常繁杂,迄今并没有一致的意见。下面仅以目前人工智能应用最广泛的图像识别、语音识别为例,说明人工智能应用中面临的一些法律问题。图像识别领域面临的用户隐私保护和种族歧视等问题日益突出。一方面,社交媒体利用图片标签和自动标记功能,己引发用户隐私权的争议和诉讼。比
14、如FaCebOOk利用人脸识别技术,通过图片标记功能向用户进行“标签推荐”,这被认为未取得用户同意就收集用户“脸纹”等生物识别信息,侵害了用户隐私权;另一方面,图像识别中的歧视问题也比比皆是,之前google的图片软件将黑人图片标记为“大猩猩”“猿猴”或“动物”引起一片争议。利用深度学习生成对抗网络生成以假乱真的图片或视频来假冒某人,有可能实施散布不法信息等违法犯罪行为。这些技术如果用于诈骗、恐吓等违法犯罪行为,都是法律必须面对的问题。与图像领域类似,语音识别领域已经出现性别和种族歧视、伦理以及声音权保护等问题。如苹果的Siri己被认为产生了严重的性别歧视问题。在人声模拟方面,声音是否受法律保护,备受大家关注。比如现在使用名人声音进行人工智能语音训练,模仿某人的声音,都已成为人声特效的一种业务模式,而这种声音模拟同样可能被不法分子用于实施诈骗、恐吓、散布谣言等犯罪行为。在阿西洛马人工智能原则中也体现了司法的透明性,任何高级人工智能系统参与各级司法审判都需要提供令人类完全认可的、符合现行法律的司法说明和依据,同时其法律依据和证明都要得到相关领域的人类专家的认可。高级人工智能被人类法律或权力机关、国家机器所授予的权利应该仅用于改进健康社会的秩序,而不是颠覆人们的认知。从这一点上人类可以发现,人工智能被赋予的特定权利是历史发展和技术发展的必然趋势。