登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書

『簡體書』强化学习入门——基于Python(基于Python的数据分析丛书)

書城自編碼: 3842404
分類:簡體書→大陸圖書→教材研究生/本科/专科教材
作者: 吴喜之 张敏
國際書號(ISBN): 9787300313818
出版社: 中国人民大学出版社
出版日期: 2023-03-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 61.3

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
企业级数据架构:核心要素、架构模型、数据管理与平台搭建    李杨
《 企业级数据架构:核心要素、架构模型、数据管理与平台搭建 李杨 》

售價:HK$ 118.8
政和元年:宋辽金夏的国运博弈与谍战风云
《 政和元年:宋辽金夏的国运博弈与谍战风云 》

售價:HK$ 81.6
黄金圈法则
《 黄金圈法则 》

售價:HK$ 93.6
全球治理理论:权威、合法性与论争
《 全球治理理论:权威、合法性与论争 》

售價:HK$ 117.6
持续共赢:商业生态构建方法论
《 持续共赢:商业生态构建方法论 》

售價:HK$ 94.8
华尔街幽灵:一位股票投资大师的告白
《 华尔街幽灵:一位股票投资大师的告白 》

售價:HK$ 95.8
人生幸好有快乐(一代大师梁实秋至诚分享八十余年的快乐哲学!)
《 人生幸好有快乐(一代大师梁实秋至诚分享八十余年的快乐哲学!) 》

售價:HK$ 64.8
中世纪文明(400-1500年)(格致人文)
《 中世纪文明(400-1500年)(格致人文) 》

售價:HK$ 141.6

 

內容簡介:
强化学习是机器学习的重要组成部分。本书采用理论与实践相结合的写法,从强化学习的基本概念开始,详细介绍了强化学习的算法理论和实践操作,配有Python代码实现,完整呈现强化学习算法的实践细节。通过这本书你将会:
(1)理解强化学习最关键方面的问题。
(2)探索马尔可夫决策过程及动态规划的过程。
(3)深入理解强化学习的各种方法,包括MC方法,TD方法,深度学习Q方法,SARSA方法等。
(4)通过大量的现实例子及Python实现程序,不断地实践,成为强化学习的高手。
目錄
第一部分 强化学习基础与实践
第1章引 言
1.1 从迷宫问题谈起
1.1.1 人类和动物所面对的迷宫问题
1.1.2 迷宫的说明性例子
1.1.3 例1.1: 奖励矩阵
1.1.4 例1.1: 训练以得到关于状态和行动的奖励: Q矩阵
1.1.5 例1.1: 使用Q矩阵来得到最优行动(路径)
1.1.6 例1.1: 把代码组合成 class
1.2 热身: 井字游戏*
1.2.1 两个真人的简单井字游戏
1.2.2 人和机器的井字游戏的强化学习实践
1.2.3 井字游戏的强化学习代码解释
1.2.4 整个训练过程
1.2.5 使用训练后的模型做人机游戏
1.2.6 1.2.1节代码
1.2.7 附录: 1.2.3节人和机器的井字游戏代码
1.3 强化学习的基本概念
1.4 马尔可夫决策过程的要素
1.5 作为目标的奖励
1.6 探索与开发的权衡
1.6.1 探索与开发
1.6.2 强化学习中的优化和其他学科的区别
1.7 本书将会讨论和运算的一些例子
1.7.1 例1.3格子路径问题
1.7.2 例1.4出租车问题
1.7.3 例1.5推车杆问题
1.7.4 例1.6倒立摆问题
1.7.5 例1.7多臂老虎机问题
1.7.6 例1.7和其他例子(例1.3、例1.5及例1.6)的区别
第2章马尔可夫决策过程和动态规划
2.1 马尔可夫决策过程简介
2.1.1 马尔可夫性
2.1.2 策略
2.1.3 作为回报期望的价值函数
2.1.4 通过例 1.3 格子路径问题理解本节概念
2.2 动态规划
2.2.1 动态规划简介
2.2.2 Bellman方程
2.2.3 最优策略和最优价值函数
2.3 强化学习基本方法概述
2.3.1 代理与环境的互动
2.3.2 策略迭代: 策略评估和策略改进
2.3.3 价值迭代
2.3.4 策略迭代与价值迭代比较
2.3.5 异步动态规划
2.3.6 广义策略迭代
2.3.7 策略梯度
2.3.8 off-policy, on-policy和offline RL
2.4 蒙特卡罗抽样
2.4.1 MC策略评估
2.4.2 MC状态-行动值的估计
2.4.3 on-policy: Q价值的MC估计
2.4.4 off-policy: MC预测
2.4.5 MC的策略梯度
2.5 和本章概念相关的例子
2.5.1 例1.3格子路径问题使用Bellman方程做价值迭代
2.5.2 例1.3格子路径问题的TD函数
第3章各种机器学习算法及实例
3.1 暂时差(TD)简介
3.1.1 TD、DP和MC算法的比较
3.1.2 TD方法的特点
3.1.3 TD(0)方法的延伸
3.2 TD评估及策略改进
3.2.1 SARSA (on-policy)
3.2.2 Q学习 (off-policy)
3.2.3 加倍Q学习 (off-policy)
3.3 函数逼近及深度学习算法
3.3.1 基于价值和策略的函数逼近
3.3.2 深度Q学习
3.3.3 TD: 演员-批评者(AC)架构
3.3.4 A2C算法步骤
3.3.5 A3C 算法
3.3.6 DDPG 算法
3.3.7 ES 算法
3.3.8 PPO 算法
3.3.9 SAC 算法
3.4 用第1章的例子理解本章算法
3.4.1 例1.3格子路径问题: SARSA
3.4.2 例1.4出租车问题: SARSA
3.4.3 例1.3格子路径问题: 加倍Q学
3.4.4 例1.5推车杆问题: 深度Q学习
3.4.5 例1.5推车杆问题: A3C
3.4.6 例1.6倒立摆问题: DDPG
3.4.7 例1.5推车杆问题: ES
3.4.8 例1.5推车杆问题: PP

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.