단단한 심층강화학습 > 컴퓨터공학

본문 바로가기
쇼핑몰 검색
  • 회원가입
    2000

    로그인

    다양한 서비스와 이벤트 혜택을 누리실 수 있습니다.

    아이디 비밀번호
단단한 심층강화학습 > 컴퓨터공학

단단한 심층강화학습 요약정보 및 구매

기본설명

상품 선택옵션 0 개, 추가옵션 0 개

제조사 제이펍
원산지 국내산
브랜드 제이펍
시중가격 30,000원
판매가격 27,000원
배송비결제 주문시 결제
최소구매수량 1 개
최대구매수량 999 개

선택된 옵션

  • 단단한 심층강화학습
    +0원
위시리스트

관련상품

등록된 상품이 없습니다.

  • 상품정보
  • 사용후기 0
  • 상품문의 0
  • 배송정보
  • 교환정보
  • 상품정보

    상품 기본설명

    기본설명

    상품 상세설명

    단단한 심층강화학습

    9791191600674.jpg

    도서명:단단한 심층강화학습
    저자/출판사:로라,그레서,와룬켕/제이펍
    쪽수:428쪽
    출판일:2022-02-17
    ISBN:9791191600674

    목차
    옮긴이 머리말 xii
    베타리더 후기 xiii
    추천사 xv
    시작하며 xvi
    감사의 글 xxi

    CHAPTER 01 강화학습 소개 1
    1.1 강화학습 1
    1.2 MDP로서의 강화학습 7
    1.3 강화학습에서 학습하는 함수 11
    1.4 심층강화학습 알고리즘 13
    1.4.1 정책 기반 알고리즘 14
    1.4.2 가치 기반 알고리즘 15
    1.4.3 모델 기반 알고리즘 16
    1.4.4 결합된 방법 17
    1.4.5 이 책에서 다루는 알고리즘 18
    1.4.6 활성정책과 비활성정책 알고리즘 19
    1.4.7 요약 19
    1.5 강화학습을 위한 심층학습 20
    1.6 강화학습과 지도학습 22
    1.6.1 오라클의 부재 23
    1.6.2 피드백의 희소성 24
    1.6.3 데이터 생성 24
    1.7 요약 25

    PART I 정책 기반 알고리즘과 가치 기반 알고리즘
    CHAPTER 02 REINFORCE 29
    2.1 정책 30
    2.2 목적 함수 31
    2.3 정책 경사 31
    2.3.1 정책 경사 계산 33
    2.4 몬테카를로 표본추출 36
    2.5 REINFORCE 알고리즘 37
    2.5.1 향상된 REINFORCE 38
    2.6 REINFORCE 구현 39
    2.6.1 최소 형태의 REINFORCE 구현 39
    2.6.2 파이토치로 정책 생성하기 42
    2.6.3 행동 추출 44
    2.6.4 정책 손실 계산 45
    2.6.5 REINFORCE 훈련 루프 46
    2.6.6 활성정책 재현 메모리 47
    2.7 REINFORCE 에이전트의 훈련 50
    2.8 실험 결과 53
    2.8.1 실험: 할인율 ? 의 효과 53
    2.8.2 실험: 기준값의 효과 55
    2.9 요약 57
    2.10 더 읽을거리 57
    2.11 역사 58

    CHAPTER 03 살사(SARSA) 59
    3.1 Q 함수와 V 함수 60
    3.2 시간차 학습 63
    3.2.1 시간차 학습에 대한 직관 66
    3.3 살사의 행동 선택 73
    3.3.1 탐험과 활용 74
    3.4 살사 알고리즘 75
    3.4.1 활성정책 알고리즘 76
    3.5 살사의 적용 77
    3.5.1 행동 함수: 엡실론 탐욕적 77
    3.5.2 Q 손실의 계산 78
    3.5.3 살사 훈련 루프 80
    3.5.4 활성정책 배치 재현 메모리 81
    3.6 살사 에이전트의 훈련 83
    3.7 실험 결과 86
    3.7.1 실험: 학습률의 효과 86
    3.8 요약 87
    3.9 더 읽을거리 88
    3.10 역사 89

    CHAPTER 04 심층 Q 네트워크(DQN) 91
    4.1 DQN의 Q 함수 학습 92
    4.2 DQN의 행동 선택 94
    4.2.1 볼츠만 정책 97
    4.3 경험 재현 100
    4.4 DQN 알고리즘 101
    4.5 DQN의 적용 103
    4.5.1 Q 손실의 계산 103
    4.5.2 DQN 훈련 루프 104
    4.5.3 재현 메모리 105
    4.6 DQN 에이전트의 훈련 108
    4.7 실험 결과 111
    4.7.1 실험: 신경망 아키텍처의 효과 111
    4.8 요약 113
    4.9 더 읽을거리 114
    4.10 역사 114

    CHAPTER 05 향상된 DQN 115
    5.1 목표 네트워크 116
    5.2 이중 DQN 119
    5.3 우선순위가 있는 경험 재현(PER) 123
    5.3.1 중요도 표본추출 125
    5.4 수정된 DQN의 구현 126
    5.4.1 네트워크 초기화 127
    5.4.2 Q 손실의 계산 128
    5.4.3 목표 네트워크의 업데이트 129
    5.4.4 목표 네트워크를 갖는 DQN 130
    5.4.5 이중 DQN 130
    5.4.6 우선순위가 있는 경험 재현 131
    5.5 아타리 게임을 위한 DQN 에이전트의 훈련 137
    5.6 실험 결과 142
    5.6.1 실험: 이중 DQN과 PER의 효과 142
    5.7 요약 146
    5.8 더 읽을거리 146

    PART II 결합된 방법
    CHAPTER 06 어드밴티지 행동자-비평자(A2C) 149
    6.1 행동자 150
    6.2 비평자 150
    6.2.1 어드밴티지 함수 151
    6.2.2 어드밴티지 함수에 대한 학습 155
    6.3 A2C 알고리즘 156
    6.4 A2C의 구현 159
    6.4.1 어드밴티지 추정 160
    6.4.2 가치 손실과 정책 손실의 계산 162
    6.4.3 행동자-비평자 훈련 루프 163
    6.5 네트워크 아키텍처 164
    6.6 A2C 에이전트의 훈련 166
    6.6.1 n단계 이득을 이용한 A2C를 퐁 게임에 적용 166
    6.6.2 GAE를 이용한 A2C를 퐁 게임에 적용 169
    6.6.3 두 발 보행자 문제에서 n단계 이득을 이용한 A2C 170
    6.7 실험 결과 173
    6.7.1 실험: n단계 이득의 효과 173
    6.7.2 실험: GAE의 ?가 미치는 효과 175
    6.8 요약 176
    6.9 더 읽을거리 177
    6.10 역사 177

    CHAPTER 07 근위 정책 최적화(PPO) 179
    7.1 대리목적 180
    7.1.1 성능붕괴 180
    7.1.2 목적 함수의 수정 182
    7.2 근위 정책 최적화(PPO) 189
    7.3 PPO 알고리즘 193
    7.4 PPO의 구현 195
    7.4.1 PPO 정책 손실의 계산 195
    7.4.2 PPO 훈련 루프 196
    7.5 PPO 에이전트의 훈련 198
    7.5.1 퐁 게임을 위한 PPO 198
    7.5.2 두 발 보행자를 위한 PPO 201
    7.6 실험 결과 203
    7.6.1 실험: GAE의 ?가 미치는 효과 204
    7.6.2 실험: 클리핑 변수 ?의 효과 205
    7.7 요약 207
    7.8 더 읽을거리 208

    CHAPTER 병렬화 방법 209
    8.1 동기 병렬화 210
    8.2 비동기 병렬화 212
    8.2.1 호그와일드! 213
    8.3 A3C 에이전트의 훈련 216
    8.4 요약 219
    8.5 더 읽을거리 219

    CHAPTER 09 알고리즘 요약 221

    PART III 실전을 위한 세부사항
    CHAPTER 10 심층강화학습으로 작업하기 225
    10.1 소프트웨어 공학적 기법 226
    10.1.1 단위 테스트 226
    10.1.2 코드 품질 232
    10.1.3 깃 워크플로 233
    10.2 디버깅 팁 236
    10.2.1 생존 신호 236
    10.2.2 정책 경사에 대한 진단 237
    10.2.3 데이터에 대한 진단 238
    10.2.4 전처리기 239
    10.2.5 메모리 239
    10.2.6 알고리즘 함수 240
    10.2.7 신경망 240
    10.2.8 알고리즘 간소화 243
    10.2.9 문제 간소화 243
    10.2.10 하이퍼파라미터 244
    10.2.11 Lab 워크플로 244
    10.3 아타리 트릭 245
    10.4 심층강화학습 알마낵 249
    10.4.1 하이퍼파라미터 표 249
    10.4.2 알고리즘 성능 비교 252
    10.5 요약 255

    CHAPTER 11 SLM Lab 257
    11.1 SLM Lab에 구현된 알고리즘 257
    11.2 spec 파일 260
    11.2.1 검****펙 구문 262
    11.3 SLM Lab의 실행 265
    11.3.1 SLM Lab의 명령어 265
    11.4 실험 결과의 분석 266
    11.4.1 실험 데이터의 개요 266
    11.5 요약 268

    CHAPTER 12 네트워크 아키텍처 269
    12.1 신경망의 유형 269
    12.1.1 다층 퍼셉트론(MLP) 270
    12.1.2 합성곱신경망(CNN) 272
    12.1.3 회귀신경망(RNN) 274
    12.2 네트워크 그룹 선택을 위한 가이드 275
    12.2.1 MDP와 POMDP 275
    12.2.2 환경을 위한 네트워크 선정 279
    12.3 Net API 282
    12.3.1 입력과 출력 층위 모양의 추정 284
    12.3.2 네트워크의 자동 생성 286
    12.3.3 훈련 단계 289
    12.3.4 기반 메소드의 노출 290
    12.4 요약 291
    12.5 더 읽을거리 292

    CHAPTER 13 하드웨어 293
    13.1 컴퓨터 294
    13.2 데이터 유형 300
    13.3 강화학습에서 데이터 유형 최적화 302
    13.4 하드웨어의 선택 307
    13.5 요약 308

    CHAPTER 14 상태 311
    14.1 상태의 예제 312
    14.2 상태의 완결성 319
    14.3 상태의 복잡성 320
    14.4 상태 정보 손실 325
    14.4.1 이미지 그레이스케일링 325
    14.4.2 이산화 326
    14.4.3 해시 출동 327
    14.4.4 메타정보 손실 327
    14.5 전처리 331
    14.5.1 표준화 332
    14.5.2 이미지 처리 333
    14.5.3 시간적 전처리 335
    14.6 요약 339

    CHAPTER 15 행동 341
    15.1 행동의 예제 341
    15.2 행동의 완결성 345
    15.3 행동의 복잡성 347
    15.4 요약 352
    15.5 더 읽을거리: 일상에서의 행동 설계 353

    CHAPTER 16 보상 357
    16.1 보상의 역할 357
    16.2 보상 설계의 가이드라인 359
    16.3 요약 364

    CHAPTER 17 전이 함수 365
    17.1 실현 가능성 확인 366
    17.2 현실성 확인 368
    17.3 요약 371

    APPENDIX A 심층강화학습 타임라인 372
    APPENDIX B 환경의 예제 374
    B.1 이산적 환경 375
    B.1.1 CartPole-v0 375
    B.1.2 MountainCar-v0 376
    B.1.3 LunarLander-v2 377
    B.1.4 PongNoFrameskip-v4 378
    B.1.5 BreakoutNoFrameskip-v4 378
    B.2 연속 환경 379
    B.2.1 Pendulum-v0 379
    B.2.2 BipedalWalker-v2 380

    에필로그 381
    delivery.jpg
  • 사용후기

    등록된 사용후기

    사용후기가 없습니다.

  • 상품문의

    등록된 상품문의

    상품문의가 없습니다.

  • 배송정보

    배송정보

    배송업체 : 한진택배 (1588-0011)
     배송비
     2,500원 (25,000원 이상 구매 시 무료 배송/일부상품제외) 군부대 및 도서산간 지역은 추가 배송비가 발생할 수 있습니다.
     ◆배송기간
     : 평일 오전 7시 이전 주문 시 당일 발송 (2~3일 소요) : 단, 공휴일, 연휴, 천재지변 등으로 인해 발송이 지연될 수 있습니다.
     ◆배송추적
     : 당일 발송건에 한해 익일 오전 9시 이후 확인 가능합니다.


  • 교환정보

    교환/반품

     ◆반품/교환을 원하는 경우 반드시 고객센터로 연락 후 신청하시기 바랍니다.
     ◆반품/교환은 상품 수령일로 부터 7일 이내에만 가능합니다. 단, 상품이 훼손되지 않았거나, 속 비닐이 있는 경우 듣지 않았을    때 가능합니다.
     •고객님의 변심 또는 잘못 주문하신 경우에는 왕복 배송비는 고객님의 부담입니다.
     ◆오배송, 파본, 불량 상품에 대해서는 고객센터로 연락주시면 상담 후 교환해 드립니다.
     ◆오배송, 파본, 불량상품의 배송비는 환불처에서 부담합니다.
     교환/반품
     ◆환불은 상품이 환불에 도착 시 처리됩니다. (카드 취소는 3~5일이 소요될 수 있습니다.)

장바구니

오늘본상품

오늘 본 상품

  • 단단한 심층강화학습
    단단한 심층강화학습 27,000

위시리스트

  • 보관 내역이 없습니다.
회사명 (주)꼭대기 주소 서울 특별시 마포구 연희로 11,5층 S-537호
사업자 등록번호 795-87-00429 대표 오주봉 전화 02-356-5779 팩스 02-356-5779
통신판매업신고번호 제2017-서울마포-0052호 개인정보 보호책임자 dhwnqhd

Copyright © 2001-2013 (주)꼭대기. All Rights Reserved.