登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書

『簡體書』道德机器:如何让机器人明辨是非

書城自編碼: 3111535
分類:簡體書→大陸圖書→計算機/網絡人工智能
作者: [美]温德尔·瓦拉赫、科林·艾伦
國際書號(ISBN): 9787301289402
出版社: 北京大学出版社
出版日期: 2017-12-01
版次: 1
頁數/字數: /280000
書度/開本: 16开 釘裝: 平装

售價:HK$ 84.1

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
黑海史:从历史涟漪到时代巨浪
《 黑海史:从历史涟漪到时代巨浪 》

售價:HK$ 115.2
我,毕加索
《 我,毕加索 》

售價:HK$ 60.0
投资真相
《 投资真相 》

售價:HK$ 81.6
非洲大陆简史(萤火虫书系)
《 非洲大陆简史(萤火虫书系) 》

售價:HK$ 93.6
知宋·宋代之军事
《 知宋·宋代之军事 》

售價:HK$ 94.8
我能帮上什么忙?——一位资深精神科医生的现场医疗记录(万镜·现象)
《 我能帮上什么忙?——一位资深精神科医生的现场医疗记录(万镜·现象) 》

售價:HK$ 81.6
智慧宫丛书026·增长:从细菌到帝国
《 智慧宫丛书026·增长:从细菌到帝国 》

售價:HK$ 180.0
从自察到自救:别让情绪偷走你的人生
《 从自察到自救:别让情绪偷走你的人生 》

售價:HK$ 90.0

 

建議一齊購買:

+

HK$ 110.8
《 人文与社会译丛:天下时代-秩序与历史(卷四) 》
+

HK$ 82.4
《 西方政治思想译丛:古典功利主义 》
+

HK$ 69.6
《 魔丸的诞生 》
+

HK$ 84.1
《 道德景观:科学如何决定人性价值 》
+

HK$ 94.3
《 人文与社会译丛:道德的演化 》
編輯推薦:
人工智能时代已经到来。然而,在未来数年内,人工智能系统可能会摆脱人类监管﹐自主做出决定,甚至走上反抗人类的道路!这种不确定性,将使机器人面临的道德风险日益凸显。无疑,人类迫切需要确保机器人的设计符合道德规范。
那么,如何才能设计出符合人类道德规范的机器人呢?本书作者认为,尽管完备的机器道德智能体还很遥远,但是目前有必要,而且有可能开始建构一种功能性道德,从而使人工道德智能体(AMAs)可以具有基本的道德敏感性。由此,作者拟定了一个基础框架,为引导AMAs的工程设计任务指明了方向。
《道德机器:如何让机器人明辨是非》乃人工智能道德研究领域极具影响的名著,深受各国读者欢迎。
內容簡介:
人类即将全面进入机器人时代。计算机已经可以从事金融交易、控制电力供应和驾驶火车。很快,服务类机器人将能在家照顾老人,军事机器人可以投入战斗。温德尔·华莱士和科林·艾伦认为,当机器人要承担越来越多的责任时,为了我们的安全,它们必须通过程序学会道德判断。在快速回顾了*前沿的道德哲学与人工智能之后,两人主张,设计某种功能性的道德指令,让人工智能机器人习得某些基本的道德感是很有必要的,而且是可行的。并且,即便让机器人承担完全的道德责任有很远的路要走,但随着人类对道德理解的深入和完善,能接收复杂道德指令的各类服务型机器人将诞生。
《道德机器:如何让机器人明辨是非》基于人类道德判断和伦理的本质,深入探讨了人类在设计具有道德判断能力的机器人的漫漫征途上所面临的巨大挑战。
關於作者:
温德尔·华莱士(Wendell Wallach),作家,耶鲁大学跨学科中心生物伦理学顾问。科林·艾伦(Colin Allen),美国洛杉矶加州大学逻辑与语言哲学博士,印第安纳大学科学史和科学哲学系教授。
目錄
导言
第一章 机器道德为什么如此重要?
第二章 工程道德:AI时代的炼金术
第三章 人类想要计算机做道德决策吗?
第四章 机器人真的能有道德吗?
第五章 哲学家、工程师与人工道德
第六章 自上而下的道德
第七章 自下而上的发展式进路
第八章 自上而下式与自下而上式的混合
第九章 超越雾件?
第十章 超越理性
第十一章 更像人的人工道德智能体
第十二章 危险、权利和责任
结语 机器心灵与人类伦理
注释
参考文献
译名对照表
译后记
內容試閱
中文版序
几乎过不了一星期,报纸上、电视上,就总会看到人工智能(AI)的新闻,各种AI对人们生活造成或者可能造成负面影响的消息不绝于耳。不管是数据挖掘算法泄露个人信息,还是有政治导向的宣传的影响,如数据挖掘公司可能利用选民信息深度干预了美国总统选举结果,或种族和性别偏见浸入了人工智能程序,抑或是自动驾驶汽车会使数百万人丢掉工作。自从《道德机器》(Moral Machines)英文版首次问世,数年以来,围绕AI产生的这些伦理问题已经变得愈加急迫和突出。
这里给出一个文化偏见渗透进AI程序方面的例子。类似谷歌翻译这样的解释语言程序,其能力近年来有了大幅度提高,这主要得益于新的机器学习技术以及可以训练程序的大量在线文本数据的出现。但是最近的研究显示,在机器习得越来越像人的语言能力的过程中,它们也正在深度地吸取人类语言模式中隐含的种种偏见。机器翻译的工作进路一般是这样的,建构一个关于语言的数学表征,其中某个词的意义根据最经常和它一同出现的词而被提炼为一系列数字(叫词向量)。令人惊讶的是,这种纯粹统计式的方式却显然抓住了某个词的意义中所蕴含的丰富的文化和社会情境,这是字典里的定义不大可能有的。例如,关于花的词语和令人愉悦之类的词聚类,昆虫类的词语和令人不快之类的词聚类;词语"女性""妇女"与艺术人文类职业以及家庭联系更紧密,词语"男性""男人"则和数学、工程类职业更近。尤为危险的是,AI还有强化所习得的偏见的潜能,它们不像人可以有意识地去抵制偏见。因此,如何在设计理解语言的算法时既让其消除偏见,又不丧失其对语言的解释能力,这是一项很大的挑战。
对于上述可能产生自AI的一些最坏的情况,学术界和技术界的领军人物纷纷表示关注。像剑桥大学当代最重要的物理学家史蒂芬霍金(Stephen Hawking),还有太空运载私人运营和电动汽车的开拓者埃隆马斯克(Elon Musk),他们担心,AI代表着威胁人类存在的危险。另一些人却表示乐观,对AI的长远前景满怀热情。但他们认识到对AI的限制以及AI的弱点对商业来说是很糟糕的事情。就在2016年9月,来自微软、IBM、FaceBook、谷歌、苹果以及亚马逊的领导人,他们共同创立了关于AI的合作伙伴关系,当时宣称的目标是要确保AI是"安全可靠的,要和受AI行为影响的人们的伦理和喜好一致"。但是,市场经济的逻辑总是在驱动着愈演愈烈的雄心,于是,应用机器学习处理收集的海量电子化数据、提高自动驾驶汽车上路的数量,新闻的头版头条持续不断。
《道德机器》书中的信息依然是极为重要的,虽然此书首次出版以来,技术已经大大向前发展了,但基本的难题不仅依然没有解决,反而被这些技术进展所加剧。先进算法工作的基本原理还是没完全搞清楚,这就关系到AI解释自身决策方面的无能为力。当然,人们在决策时也不总是能够一目了然地解释清楚自己的抉择。但是,要设计处在一个更高水平上的机器,我们这样把握是对的。
在《道德机器》中阐述了一种混合式系统,组合了自下而上式的数据驱动的学习和进化的方式,以及自上而下式的理论驱动做决策。这个思想,对于AI软件的设计以及能够在人类环境中操作的机器人来说,依然是最好的策略。但是,在这本书约十年前问世之后,批评者们的意见是对的,我们本来可以更多地讨论一下设计更大的有机器运行的社会技术系统。我们关注如何使机器自身的道德能力逐渐增进--这是一个依然需要研究的课题,关于如何使机器尊重它们的设计者和使用者人类的伦理价值,以及有效维护人类的道德责任方面的问题,仅仅只解决了部分。
人工智能机器已经在特定领域胜过了人。这令许多评论家相信超人智能不远了。但是,尽管AI取得了目前的进展,它的成功依然是脆弱的,而人的智能通常却不是这样。某个机器可以下围棋胜过人,却不能同时会下象棋、会开车,还能在家人饭后,一边帮忙收拾桌子,一边解答政治学的问题。即使这些能力可以绑定给一个物理机器,我们也依然不知道,如何以像人那样的方式把它们整合在一起,让一个领域的思想和概念灵活地畅行至另一领域。如此说来,《道德机器》最初问世时候的基本信息依然没有变,这就是:不应该让未来学家的担心和猜测转移我们的注意力,我们的任务依然是设计自主机器,让它们以可辨识的道德方式行事,使用着我们已经获得的社会、政治和技术资源。
科林艾伦(Colin Allen)美国匹兹堡,2017年9月26日

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.