검색

상세정보

  • HOME
  • 검색상세정보

TensorFlow Reinforcement Learning Quick Start Guide : Get up and Running with Training and Deploying Intelligent, Self-Learning Agents Using Python

Balakrishnan, Kaushik

책이미지
서평쓰기
서평쓰기
책이미지

QRcode

QR Code
QRcode 사용방법
QRcode 사용방법
QR코드 정의
사각형의 가로세로 격자무늬에 다양한 정보를 담고 있는 2차원(매트릭스)형식의 코드로 스마트폰으로 QR코드를 스캔하면 각종 정보를 제공 받을 수 있습니다.
QR코드 인식프로그램
스마트폰 마켓에 들어가면 'QR코드 스캔 프로그램'을 검색해 무료 어플을 다운받아 사용하시면 됩니다.
도서정보 QR코드 이용하기
도서 상세정보에서 QR코드를 스캔하면, 모바일 웹페이지로 연결되어 해당 도서의 상세정보 및 소장정보 등을 확인 할 수 있습니다.
닫기
상세정보
자료유형E-BOOK
서명/저자사항TensorFlow Reinforcement Learning Quick Start Guide : Get up and Running with Training and Deploying Intelligent, Self-Learning Agents Using Python.
개인저자Balakrishnan, Kaushik.
발행사항Birmingham: Packt Publishing Ltd, 2019.
형태사항1 online resource (175 pages).
기타형태 저록Print version: Balakrishnan, Kaushik. TensorFlow Reinforcement Learning Quick Start Guide : Get up and Running with Training and Deploying Intelligent, Self-Learning Agents Using Python. Birmingham : Packt Publishing Ltd, ©2019 9781789533583
ISBN1789533449
9781789533446
일반주기 The A3C algorithm applied to LunarLander
내용주기Cover; Title Page; Copyright and Credits; Dedication; About Packt; Contributors; Table of Contents; Preface; Chapter 1: Up and Running with Reinforcement Learning; Why RL?; Formulating the RL problem; The relationship between an agent and its environment; Defining the states of the agent; Defining the actions of the agent; Understanding policy, value, and advantage functions; Identifying episodes; Identifying reward functions and the concept of discounted rewards; Rewards; Learning the Markov decision process ; Defining the Bellman equation; On-policy versus off-policy learning
On-policy methodOff-policy method; Model-free and model-based training; Algorithms covered in this book; Summary; Questions; Further reading; Chapter 2: Temporal Difference, SARSA, and Q-Learning; Technical requirements; Understanding TD learning; Relation between the value functions and state; Understanding SARSA and Q-Learning ; Learning SARSA ; Understanding Q-learning; Cliff walking and grid world problems; Cliff walking with SARSA; Cliff walking with Q-learning; Grid world with SARSA; Summary; Further reading; Chapter 3: Deep Q-Network; Technical requirements
Learning the theory behind a DQNUnderstanding target networks; Learning about replay buffer; Getting introduced to the Atari environment; Summary of Atari games; Pong; Breakout; Space Invaders; LunarLander; The Arcade Learning Environment ; Coding a DQN in TensorFlow; Using the model.py file; Using the funcs.py file; Using the dqn.py file; Evaluating the performance of the DQN on Atari Breakout; Summary; Questions; Further reading; Chapter 4: Double DQN, Dueling Architectures, and Rainbow; Technical requirements; Understanding Double DQN ; Coding DDQN and training to play Atari Breakout
Evaluating the performance of DDQN on Atari BreakoutUnderstanding dueling network architectures; Coding dueling network architecture and training it to play Atari Breakout; Combining V and A to obtain Q; Evaluating the performance of dueling architectures on Atari Breakout ; Understanding Rainbow networks; DQN improvements; Prioritized experience replay ; Multi-step learning; Distributional RL; Noisy nets; Running a Rainbow network on Dopamine; Rainbow using Dopamine; Summary; Questions; Further reading; Chapter 5: Deep Deterministic Policy Gradient; Technical requirements
Actor-Critic algorithms and policy gradientsPolicy gradient; Deep Deterministic Policy Gradient; Coding ddpg.py; Coding AandC.py; Coding TrainOrTest.py; Coding replay_buffer.py; Training and testing the DDPG on Pendulum-v0; Summary; Questions; Further reading; Chapter 6: Asynchronous Methods -- A3C and A2C; Technical requirements; The A3C algorithm; Loss functions; CartPole and LunarLander; CartPole; LunarLander; The A3C algorithm applied to CartPole; Coding cartpole.py; Coding a3c.py; The AC class; The Worker() class; Coding utils.py; Training on CartPole
요약This book is an essential guide for anyone interested in Reinforcement Learning. The book provides an actionable reference for Reinforcement Learning algorithms and their applications using TensorFlow and Python. It will help readers leverage the power of algorithms such as Deep Q-Network (DQN), Deep Deterministic Policy Gradients (DDPG), and ...
일반주제명Python (Computer program language)
Artificial intelligence.
Machine learning.
Artificial intelligence.
Machine learning.
Python (Computer program language)
언어영어
바로가기 URL

소장정보

서비스 이용안내
  • 서가에없는책서가에없는책
  • 도서배달서비스도서배달서비스
  • 인쇄인쇄
메세지가 없습니다
No. 등록번호 청구기호 소장처 도서상태 반납예정일 예약 서비스 매체정보
1 EB89814 URL 참조005.133 중앙도서관 대출가능
서가에없는책 도서배달서비스 인쇄 이미지
2 EB89815 URL 참조005.133 중앙도서관 대출가능
서가에없는책 도서배달서비스 인쇄 이미지
3 EB89819 URL 참조005.133 중앙도서관 대출가능
서가에없는책 도서배달서비스 인쇄 이미지
4 EB89817 URL 참조005.133 중앙도서관 대출가능
서가에없는책 도서배달서비스 인쇄 이미지
5 EB89818 URL 참조005.133 중앙도서관 대출가능
서가에없는책 도서배달서비스 인쇄 이미지
6 EB89816 URL 참조005.133 중앙도서관 대출가능
서가에없는책 도서배달서비스 인쇄 이미지

청구기호 Browsing

이 분야 인기자료

  • 표지이미지
    가짜뉴스의 사회학 = the sociology of f...
    박창호
    서울경제경영, 2024
  • 표지이미지
    비밀의 도서관 : 호메로스에서 케인스까지 99권으로 읽...
    티얼, 올리버
    생각정거장, 2017
  • 표지이미지
    그곳에 책이 있었다
    파이퍼, 앤드루
    책읽는수요일: 한국학술정보, 2014
  • 표지이미지
    부석사
    배병선
    대원사, 2000
  • 표지이미지
    우리가 사랑한 부전도서관 : 부전도서관 휴관 전말, 여...
    이양숙
    해피북미디어, 2024

서평 (0 건)

*주제와 무관한 내용의 서평은 삭제될 수 있습니다.

서평추가

서평추가
별점
별0점
  • 별5점
  • 별4.5점
  • 별4점
  • 별3.5점
  • 별3점
  • 별2.5점
  • 별2점
  • 별1.5점
  • 별1점
  • 별0.5점
  • 별0점
*서평 입력 시 선택한 별점은 전체 별점에 반영됩니다.
제목입력
본문입력

태그

태그추가

태그추가
태그입력
태그보기