《人工智能伦理》封面

内容简介

人工智能(AI)时代已悄然而至,然而对AI伦理学的研究却刚刚起步。与以往的技术革命不同,AI有望在多个领域取代人类,但也有伤害人类的潜在风险。为防止对AI技术的滥用,我们在复杂性变得不可控之前,必须把最糟糕的情况都预想到、分析到。

《人工智能伦理》从人工智能的关键内容(包括图灵测试、数据、知识、机器学习、自我意识等)出发,尽可能地用朴素的语言讲清楚复杂的概念,揭示出各种AI伦理问题以唤起读者的思考。本书基于大量真实数据,阐述了和平、合理发展AI技术的伦理思想,对AI技术可能引发的某些社会问题(如技术失业、两性平等)也做了剖析。

作者简介

于江生,应用数学博士,曾在北京大学、堪萨斯大学、韦恩州立大学工作多年。主要研究方向是人工智能、统计机器学习、贝叶斯数据分析、计算语言学、图像处理、生物信息学等。已发表四十多篇学术论文(第一作者),拥有近二十项美国算法类专利。获教育部科技进步一等奖(2007年)和自然科学一等奖(2011年)。曾任华为2012泊松实验室主任、机器学习和应用数学首席科学家。

目录

第1章图灵测试
1.1强人工智能
1.1.1大脑与认知心理
1.1.2自然语言理解
1.1.3抽象能力
1.1.4计算能力
1.1.5推理能力
1.2机器犯错归咎于谁?
1.2.1安全性
1.2.2根因分析
第2章数据为王
2.1以改进服务为由
2.1.1数据共享
2.1.2数据安全与隐私保护
2.2数据与模型
2.2.1无法篡改的数据
2.2.2零知识证明
第3章知识积累
3.1知识表示与推理
3.1.1更广阔的感知
3.1.2可操作的知识
3.1.3知识工程
3.2永远的精神财富
3.2.1知识的保护
3.2.2知识的交流
3.2.3开源运动
第4章机器学习
4.1学习的方式
4.1.1衡量标准
4.1.2理解机器智能
4.1.3模型的多样性
4.2想象比知识更重要
4.2.1理性的想象
4.2.2学习的本质
第5章自我意识
5.1自我意识的条件
5.1.1好奇心
5.1.2意识流
5.1.3形成共识
5.2超级智能
5.2.1机器的德性
5.2.2人工智能革命
5.2.3文明更替
第6章机器奴隶
6.1人工智能竞赛
6.1.1潘多拉的盒子
6.1.2远征外太空
6.2智能制造
6.2.1社会问题
6.2.2新的机遇
第7章伦理困境
7.1监管与政策
7.1.1可验证的伦理标准
7.1.2人机关系
7.1.3人机文化
7.2法律法规
7.2.1保护与约束
7.2.2造福人类
参考文献
附录一术语索引
附录二人名索引
······

最后修改:2022 年 09 月 06 日