검색결과 : 국립세종도서관
상세검색 닫기
자료유형
본문언어
출판년도 ~
정렬
상세검색 +

자료검색

검색결과

  • 홈으로
  • 검색결과
글씨 글씨 확대 글씨 축소
밑바닥부터 시작하는 딥러닝.2-4 / 지은이 : 사이토 고키 ;옮긴이 : 개앞맵시
밑바닥부터 시작하는 딥러닝. 2-4 책표지
  • ·표제/책임표시사항 밑바닥부터 시작하는 딥러닝.2-4 / 지은이 : 사이토 고키 ;옮긴이 : 개앞맵시
  • ·발행사항 서울 : 한빛미디어, 2019-2024
  • ·형태사항 3책 :삽화, 도표 ;24 cm
  • ·주기사항 원표제:ゼロから作るDeep Learning
    원저자명: 齋藤康毅
    2권 권말부록: 시그모이드 함수와 tanh 함수의 미분 ; WordNet 맛보기 ; GRU
    참고문헌과 색인 수록
    불완전내용: 2. 파이썬으로 직접 구현하며 배우는 순환 신경망과 자연어 처리 -- 3. 파이썬으로 직접 구현하며 배우는 순환 신경망과 자연어 처리 -- 4. 파이썬으로 직접 구현하며 배우는 강화 학습 알고리즘
    일본어 원작을 한국어로 번역
  • ·표준번호/부호 ISBN: 9791162241745 (2)  93000: \29000 ISBN: 9791162243596 (3)  93000: \38000 ISBN: 9791169211956 (4)  93000: \30000 
  • ·분류기호 한국십진분류법-> 004.73  듀이십진분류법-> 006.3  
  • ·주제명 파이썬[Python]딥 러닝[deep learning]기계 학습[機械學習]
권별정보 자료위치출력 관심도서 보기 관심도서 담기

※ 좌우로 스크롤하시면 내용이 보입니다.

권별정보 안내
신청 편/권차 편제 저작자 발행년도 등록번호 청구기호 자료있는 곳 자료상태 예약자 반납예정일 매체구분
2 파이썬으로 직접 구현하며 배우는 순환 신경망과 자연어 처리 지은이: 사이토 고키 ;옮긴이: 개앞맵시 2019 SE0000448738 004.73-17-1-2 일반자료실(서고) 서고 비치(온라인 신청 후 이용) 0 - 인쇄자료(책자형) 
2 파이썬으로 직접 구현하며 배우는 순환 신경망과 자연어 처리 지은이: 사이토 고키 ;옮긴이: 개앞맵시 2019 SE0000529308 004.73-17-1-2=2 일반자료실(서고) 서고 비치(온라인 신청 후 이용) 0 - 인쇄자료(책자형) 
3 파이썬으로 직접 구현하며 배우는 딥러닝 프레임워크 지은이: 사이토 고키 ; 옮긴이: 개앞맵시 2020 SE0000551277 004.73-17-1-3 일반자료실(서고) 서고 비치(온라인 신청 후 이용) 0 - 인쇄자료(책자형) 
4 파이썬으로 직접 구현하며 배우는 강화 학습 알고리즘 지은이: 사이토 고키 ;옮긴이: 개앞맵시 2024 SE0000740187 004.73-17-1-4 일반자료실(서고) 서고 비치(온라인 신청 후 이용) 0 - 인쇄자료(책자형) 
4 파이썬으로 직접 구현하며 배우는 강화 학습 알고리즘 지은이: 사이토 고키 ;옮긴이: 개앞맵시 2024 SE0000740188 004.73-17-1-4=2 일반자료실(서고) 서고 비치(온라인 신청 후 이용) 0 - 인쇄자료(책자형) 
※ 신청 종류
- 대출예약신청:
자료상태가 ‘대출중’인 경우 해당 도서를 예약하여 도서 반납 시 우선적으로 대출받을 수 있는 서비스
- 청사대출신청:
정부세종청사(6-3동, 2-1동)에 위치한 무인예약도서대출반납기에서 도서 수령‧반납이 가능한 서비스
- 무인대출신청:
도서관 1문(정문)에 위치한 무인예약도서대출기에서 도서 수령이 가능한 서비스
- 서고자료신청:
서고에 보관된 자료에 대한 열람신청 서비스 이용방법: 로그인 → 자료검색 → [상세정보] 클릭 → 권별정보에서 자료 선택 →[서고자료신청] → 자료비치완료 문자 수신 → 해당 자료실에서 자료 수령
서가 둘러보기
서가둘러보기 로딩중

목차


목차

지은이ㆍ옮긴이 소개-4
추천사-5
옮긴이의 말-8
들어가며-10
감사의 말-18

제1고지 미분 자동 계산 
1단계 상자로서의 변수 
1.1 변수란-39
1.2 Variable 클래스 구현-40
1.3 【보충】 넘파이의 다차원 배열-42
2단계 변수를 낳는 함수 
2.1 함수란-45
2.2 Function 플래스 구현-46
2.3 Function 플래스 이용-47
3단계 함수 연결 
3.1 Exp 함수 구현-51
3.2 함수 연결-52
4단계 수치 미분
4.1 미분이란-56
4.2 수치 미분 구현-56
4.3 함성 함수의 미분-58
4.4 수치 미분의 문제점-59
5단계 역전파 이론 
5.1 연쇄 법칙-61
5.2 역전파 원리 도출-62
5.3 계산 그래프로 살펴보기-64
6단계 수동 역전파 
6.1 Variable 클래스 추가 구현-67
6.2 Function 클래스 추가 구현-68
6.3 Square와 Exp 클래스 추가 구현-69
6.4 역전파 구현-70
7단계 역전파 자동화
7.1 역전파 자동화의 시작-74
7.2 역전파 도전!-77
7.3 backward 메서드 추가-78
8단계 재귀에서 반복문으로 
8.1 현재의 Variable 클래스-81
8.2 반복문을 이용한 구현-82
8.3 동작 확인-83
9단계 함수를 더 편리하게
9.1 파이썬 함수로 이용하기-85
9.2 backward 메서드 간소화-87
9.3 ndarray만 취급하기-88
10단계 테스트 
10.1 파이썬 단위 테스트-93
10.2 square 함수의 역전파 테스트-95
10.3 기울기 확인을 이용한 자동 테스트-96
10.4 테스트 정리-97
칼럼 자동 미분-100

제2고지 자연스러운 코드로 
11단계 가변 길이 인수(순전파 편)
11.1 Function 클래스 수정-106
11.2 Add 클래스 구현-108
12단계 가변 길이 인수(개선 편)
12.1 첫 번째 개선: 함수를 사용하기 쉽게-109
12.2 두 번째 개선: 함수를 구현하기 쉽도록-111
12.3 add 함수 구현-113
13단계 가변 길이 인수(역전파 편)
13.1 가변 길이 인수에 대응한 Add 클래스의 역전파-115
13.2 Variable 클래스 수정-116
13.3 square 클래스 구현-118
14단계 같은 변수 반복 사용
14.1 문제의 원인-122
14.2 해결책-123
14.3 미분값 재설정-125
15단계 복잡한 계산 그래프(이론 편) 
15.1 역전파의 올바른 순서-128
15.2 현재의 DeZero-130
15.3 함수 우선순위-133
16단계 복잡한 계산 그래프(구현 편)
16.1 세대 추가-135
16.2 세대 순으로 꺼내기-137
16.3 Variable 클래스의 backward-139
16.4 동작 확인-140
17단계 메모리 관리와 순환 참조
17.1 메모리 관리-143
17.2 참조 카운트 방식의 메모리 관리-144
17.3 순환 참조-146
17.4 weakref 모듈-148
17.5 동작 확인-150
18단계 메모리 절약 모드
18.1 필요 없는 미분값 삭제-151
18.2 Function 클래스 복습-154
18.3 Config 클래스를 활용한 모드 전환-155
18.4 모드 전환-156
18.5 with 문을 활용한 모드 전환-157
19단계 변수 사용성 개선
19.1 변수 이름 지정-161
19.2 nderray 인스턴스 변수-162
19.3 len 함수와 print 함수-164
20단계 연산자 오버로드(1) 
20.1 Mul 클래스 구현-167
20.2 연산자 오버로드-170
21단계 연산자 오버로드(2)
21.1 ndarray와 함께 사용하기-173
21.2 float, int와 함께 사용하기-175
21.3 문제점 1: 첫 번째 인수가 float나 int인 경우-176
21.4 문제점 2: 좌항이 ndarray 인스턴스인 경우-178
22단계 연산자 오버로드(3) 
22.1 음수(부호 변환)-180
22.2 뺄셈-181
22.3 나눗셈-183
22.4 거듭제곱-184
23단계 패키지로 정리
23.1 파일 구성-188
23.2 코어 클래스로 옮기기-188 
23.3 연산자 오버로드-190
23.4 실제_init_py 파일-192
23.5 dezero 임포트하기-193
24단계 복잡한 함수의 미분 
24.1 Sphere 함수-196
24.2 matyas 함수-197
24.3 Goldstein-Price 함수-198

제3고지 고차 미분 계산 
25단계 계산 그래프 시각화(1) 
25.1 Graphviz 설치하기-209
25.2 DOT 언어로 그래프 작성하기-211
25.3 노드에 속성 지정하기-212
25.4 노드 연결하기-213
26단계 계산 그래프 시각화(2) 
26.1 시각화 코드 예-215
26.2 계산 그래프에서 DOT 언어로 변환하기-217
26.3 이미지 변환까지 한 번에-220
26.4 동작 확인-222
27단계 테일러 급수 미분
27.1 sin 함수 구현-225
27.2 테일러 급수 이론-226
27.3 테일러 급수 구현-228
27.4 계산 그래프 시각화-229
28단계 함수 최적화 
28.1 로젠브록 함수-233
28.2 미분 계산하기-234
28.3 경시하강법 구현-235
29단계 뉴턴 방법으로 푸는 최적화(수동 계산) 
29.1 뉴턴 방법을 활용한 최적화 이론-240
29.2 뉴턴 방법을 활용한 최적화 구현-244
30단계 고차 미분(준비 편) 
30.1 확인 1: Variable 인스턴스 변수-247
30.2 확인 2: Function 클래스-249
30.3 확인 3: Variable 클래스의 역전파-251
31단계 고차 미분(이론 편) 
31.1 역전파 계산-255
31.2 역전파로 계산 그래프 만들기-257
32단계 고차 미분(구현 편) 
32.1 새로운 DeZero로!-261
32.2 함수 클래스의 역전파-262
32.3 역전파를 더 효율적으로(모드 추가)-263
32.4 _int_py 변경-265
33단계 뉴턴 방법으로 푸는 최적화(자동 계산) 
33.1 2차 미분 계산하기-267
33.2 뉴턴 방법을 활용한 최적화-269
34단계 sin 함수 고차 미분 
34.1 sin 함수 구현-271
34.2 cos 함수 구현-272
34.3 sin 함수 고차 미분-273
35단계 고차 미분 계산 그래프
35.1 tanh 함수 미분-278
35.2 tanh 함수 구현-279
35.3 고차 미분 계산 그래프 시각화-279
36단계 고차 미분 이외의 용도 
36.1 double backprop의 용도-287
36.2 딥러닝 연구에서의 사용 예-289
칼럼 뉴턴 방법과 double backprop 보충 학습-291

제4고지 신경망 만들기 
37단계 텐서를 다루다
37.1 원소별 계산-299
37.2 텐서 사용 시의 역전파-301
37.3 【보충】텐서 사용 시의 역전파-303
38단계 형상 변환 함수
38.1 reshape 함수 구현-307
38.2 Variable에서 reshape 사용하기-311
38.3 행렬의 전치-312
38.4 【보충】실제 transpose 함수-314
39단계 합계 함수 
39.1 sum 함수의 역전파-317
39.2 sum 함수 구현-319
39.3 axis와 keepdims-321
40단계 브로드캐스트 함수 
40.1 broadcast_to 함수와 sum_to 함수(넘파이 버전)-325
40.2 broadcast_to 함수와 sum_to 함수(DaZero 버전)-328
40.3 브로드캐스트 대응-330
41단계 행렬의 곱 
41.1 벡터의 내적과 행렬의 곱-333
41.2 행렬의 형상 체크-335
41.3 행렬 곱의 역전파-335
42단계 선형 회귀 
42.1 토이 데이터셋-341
42.2 선형 회귀 이론-342
42.3 선형 회귀 구현-344
42.4 【보충】 DeZero의 mean_squared_error 함수-347
43단계 신경망 
43.1 DeZero의 linear 함수-351
43.2 비선형 데이터셋-354
43.3 활성화 함수와 신경망-355
43.4 신경망 구현-356
44단계 매개변수를 모아두는 계층 
44.1 Parameter 클래스 구현-361
44.2 Layer 클래스 구현-363
44.3 Linear 클래스 구현-366
44.4 Layer를 이용한 신경망 구현-368
45단계 계층을 모아두는 계층 
45.1 Layer 클래스 확장-371
45.2 model 클래스-374
45.3 Model을 사용한 문제 해결-376
45.4 MLP 클래스-378
46단계 Optimizer로 수행하는 매개변수 갱신 
46.1 Optimizer 클래스-381
46.2 SGD 클래스 구현-382
46.3 SGD 클래스를 사용한 문제 해결-383
46.4 SGD 이외의 최적화 기법-384
47단계 소프트맥스 함수와 교차 엔트로피 오차 
47.1 슬라이스 조작 함수-387
47.2 소프트맥스 함수-390
47.3 교차 엔트로피 오차-393
48단계 다중 클래스 분류 
48.1 스파이럴 데이터셋-397
48.2 학습 코드-399
49단계 Dataset 클래스와 전처리
49.1 Dataset 클래스 구현-403
49.2 큰 데이터셋의 경우-405
49.3 데이터 이어 붙이기-406
49.4 학습 코드-407
49.5 데이터셋 전처리-409
50단계 미니배치를 뽑아주는 DataLoader 
50.1 반복자란-411
50.2 DataLoader 사용하기-415
50.3 accuracy 함수 구현하기-416
50.4 스파이럴 데이터셋 학습 코드-417
51단계 MNIST 학습 
51.1 MNIST 데이터셋-422
51.2 MNIST 학습하기-424
51.3 모델 개선하기-426
칼럼 딥러닝 프레임워크-428

제5고지 DeZero의 도전 
52단계 GPU 지원
52.1 쿠파이 설치 및 사용 방법-435
52.2 쿠다 모듈-438
52.3 Variable/Layer/DataLoader 클래스 추가 구현-439
52.4 함수 추가 구현-442
52.5 GPU로 MNIST 학습하기-444
53단계 모델 저장 및 읽어오기 
53.1 넘파이의 save 함수와 load 함수-447
53.2 Layer 클래스의 매개변수를 평평하게-450
53.3 Layer 클래스의 save 함수와 load 함수-451
54단계 드롭아웃과 테스트 모드 
54.1 드롭아웃이란-455
54.2 역 드롭아웃-458
54.3 테스트 모드 추가-458
54.4 드롭아웃 구현-459
55단계 CNN 메커니즘(1)
55.1 CNN 신경망의 구조-461 
55.2 합성곱 연산-462
55.3 패딩-464
55.4 스트라이드-465
55.5 출력 크기 계산 방법-466
56단계 CNN 메커니즘(2) 
56.1 3차원 텐서-469
56.2 블록으로 생각하기-470
56.3 미니배치 처리-472
56.4 풀링층-473
57단계 conv2d 함수와 pooling 함수
57.1 im2col에 의한 전개-477
57.2 comv2d 함수 구현-479
57.3 Comv2d 계층 구현-484
57.4 pooling 함수 구현-485
58단계 대표적인 CNN(VGG16)
58.1 VGG16구현-489
58.2 학습된 가중치 데이터-492
58.3 학습된 VGG16 사용하기-495
59단계 RNN을 활용한 시계열 데이터 처리 
59.1 RNN 계층 구현-500
59.2 RNN 모델 구현-502
59.3 '연결'을 끊어주는 메서드-506
59.4 사인파 예측-507
60단계 LSTM과 데이터 로더
60.1 시계열 데이터용 데이터 로더-513
60.2 LSTM 계층 구현-515
칼럼 앞으로 앞으로-521

부록 A 인플레이스 연산(14단계 보충) 
A.1 문제 확인-525
A.2 복사와 덮어 쓰기-526
A.3 DeZero의 역전파에서는-527
부록 B get_item 함수 구현(47단계 보충)-529
부록 C 구글 콜랩에서 실행-533

마치며-537
참고문헌-539
찾아보기-544
DeZero API-550