일반자료 : 국립세종도서관
상세검색 닫기
자료유형
본문언어
출판년도 ~
정렬
상세검색 +

자료검색

일반자료

글씨 글씨 확대 글씨 축소
파이썬을 활용한 비지도 학습 : 비구조 데이터로부터 숨겨진 패턴과 관계 찾기 / 벤자민 존스턴,애런 존스,크리스토퍼 크루거 지음 ;조경빈 옮김
파이썬을 활용한 비지도 학습 : 비구조 데이터로부터 숨겨진 패턴과 관계 찾기 책표지
  • ·표제/책임표시사항 파이썬을 활용한 비지도 학습 : 비구조 데이터로부터 숨겨진 패턴과 관계 찾기 / 벤자민 존스턴,애런 존스,크리스토퍼 크루거 지음 ;조경빈 옮김
  • ·발행사항 서울 : 에이콘출판사, 2020
  • ·형태사항 526 p. :삽화, 도표 ;24 cm
  • ·주기사항 원표제:Applied unsupervised learning with Python :discover hidden patterns and relationships in unstructured data with Python
    색인수록
    원저자명: Benjamin Johnston, Aaron Jones, Christopher Kruger
    영어 원작을 한국어로 번역
  • ·표준번호/부호 ISBN: 9791161753652  93000: \35000 
  • ·분류기호 한국십진분류법-> 005.133  듀이십진분류법-> 005.133  
  • ·주제명 파이썬[Python]컴퓨터 프로그래밍[computer programming]
권별정보 자료위치출력 관심도서 보기 관심도서 담기

※ 좌우로 스크롤하시면 내용이 보입니다.

권별정보 안내
신청 편/권차 편제 저작자 발행년도 등록번호 청구기호 자료있는 곳 자료상태 예약자 반납예정일 매체구분
벤자민 존스턴,애런 존스,크리스토퍼 크루거 지음 ;조경빈 옮김 2020 SE0000477357 005.133-19-44 일반자료실(서고) 서고 비치(온라인 신청 후 이용) 0 - 인쇄자료(책자형) 
※ 신청 종류
- 대출예약신청:
자료상태가 ‘대출중’인 경우 해당 도서를 예약하여 도서 반납 시 우선적으로 대출받을 수 있는 서비스
- 청사대출신청:
정부세종청사(6-3동, 2-1동)에 위치한 무인예약도서대출반납기에서 도서 수령‧반납이 가능한 서비스
- 무인대출신청:
도서관 1문(정문)에 위치한 무인예약도서대출기에서 도서 수령이 가능한 서비스
- 서고자료신청:
서고에 보관된 자료에 대한 열람신청 서비스 이용방법: 로그인 → 자료검색 → [상세정보] 클릭 → 권별정보에서 자료 선택 →[서고자료신청] → 자료비치완료 문자 수신 → 해당 자료실에서 자료 수령
서가 둘러보기
서가둘러보기 로딩중

목차


목차

지은이 소개-5
옮긴이 소개-6
옮긴이의 말-7
들어가며-16

1장 클러스터링 소개-25
    소개-26
    비지도 학습과 지도 학습의 차이-27
    클러스터링-28
        클러스터 식별-29
        2차원 데이터-30
        연습 1: 데이터에서 클러스터 인식-31
    k-평균 클러스터링 소개-35
        수학이 필요 없는 k-평균 연습-35
        k-평균 클러스터링 심화 연습-36
        대안 거리 메트릭-맨해튼 거리-37
        더 깊은 차원-38
        연습 2: 파이썬으로 유클리드 거리 계산-39
        연습 3: 거리 개념으로 클러스터 구성-40
        연습 4: 직접 k-평균 구현-41
        연습 5: 최적화를 통한 k-평균 구현-44
        클러스터링 성능: 실루엣 점수-48
        연습 6: 실루엣 점수 계산-49
        활동 1: k-평균 클러스터링 구현-51
    요약-54

2장 계층적 클러스터링-55
    소개-56
        클러스터링 다시 살펴보기-56
        k-평균 다시 살펴보기-57
    계층 구조-58
    계층적 클러스터링 소개-59
        계층적 클러스터링 수행 단계-61
        계층적 클러스터링 연습 예제-61
        연습 7: 계층 구성-65
    연결-68
        활동 2: 연결 기준 적용-69
    응집 vs 분산 클러스터링-72
        연습 8: scikit-learn을 사용한 응집 클러스터링 구현-73
        활동 3: 계층적 클러스터링과 k-평균 비교-76
    k-평균 vs 계층적 클러스터링-79
    요약-80

3장 이웃 접근과 DBSCAN-81
    소개-82
        이웃으로서의 클러스터-83
    DBSCAN 소개-85
        DBSCAN 심화 학습-86
        DBSCAN 알고리즘 연습-87
        연습 9: 이웃 반경 크기의 영향 평가-88
        DBSCAN 속성 - 이웃 반경-92
        활동 4: DBSCAN 처음부터 구현-93
        DBSCAN 속성-최소 지점 수-95
        연습 10: 최소 지점 수의 영향 평가-96
        활동 5: DBSCAN과 k-평균 그리고 계층적 클러스터링 비교-100
    DBSCAN 대 k-평균과 계층적 클러스터링-101
    요약-102

4장 차원 축소와 PCA-105
    소개-106
        차원 축소란 무엇인가?-106
        차원 축소 적용-108
        차원의 저주-110
    차원 축소 기법 개요-112
        차원 축소와 비지도 학습-114
    PCA-115
        평균-115
        표준편차-116
        공분산-116
        공분산 행렬-116
        연습 11: 통계의 기본 개념 이해-117
        고윳값 및 고유 벡터-122
        연습 12: 고윳값 및 고유 벡터 계산-123
        PCA 처리 절차-127
        연습 13: PCA 수동 실행-128
        연습 14: Scikit-Learn PCA-135
        활동 6: 수동 PCA와 scikit-learn 비교-140
        압축된 데이터셋 복원-143
        연습 15: 수동 PCA로 분산 감소 시각화-143
        연습 16: 분산 감소 시각화-150
        연습 17: Matplotlib에서 3D 도표 그리기-154
        활동 7: 확장된 아이리스 데이터셋을 사용한 PCA-156
    요약-159

5장 오토인코더-161
    소개-162
    인공 신경망 기초-164
        뉴런-165
        Sigmoid 함수-166
        정류 선형 단위-167
        연습 18: 인공 신경망의 뉴런 모델링-167
        활동 8: ReLU 활성화 함수를 사용한 뉴런 모델링-172
        신경망: 구조 정의-173
        연습 19: Keras 모델 정의-175
        신경망: 학습-177
        연습 20: Keras 신경망 훈련-179
        활동 9: MNIST 신경망-189
    오토인코더-190
        연습 21: 간단한 오토인코더-191
        활동 10: 간단한 MNIST 오토인코더-197
        연습 22: 다중 계층 오토인코더-199
        컨볼루셔널 신경망-204
        연습 23: 컨볼루셔널 오토인코더-205
        활동 11: MNIST 컨볼루셔널 오토인코더-211
    요약-214

6장 t-분포 확률적 이웃 임베딩-215
    소개-216
    확률적 이웃 임베딩-218
    t-분포 확률적 이웃 임베딩-220
        연습 24: t-SNE MNIST-220
        활동 12: 와인 t-SNE-232
    t-SNE 도표 해석-234
        퍼플렉서티-234
        연습 25: t-SNE MNIST와 퍼플렉서티-235
        활동 13: t-SNE 와인과 퍼플렉서티-240
        이터레이션-242
        연습 26: t-SNE MNIST와 반복-242
        활동 14: t-SNE 와인과 이터레이션-247
        시각화에 대한 최종 의견-248
    요약-249

7장 토픽 모델링-251
    소개-252
        토픽 모델-253
        연습 27: 환경 설정-254
        토픽 모델 개요-255
        비즈니스 활용-260
        연습 28: 데이터 로딩-262
    텍스트 데이터 정리-265
        데이터 정리 기법-266
        연습 29: 단계별 데이터 정리-267
        연습 30: 데이터 정리 마무리-272
        활동 15: 트위터 데이터 로딩 및 정리-275
    잠재 디리클레 할당-277
        변분 추론-279
        백오브워즈-281
        연습 31: 카운트 벡터라이저를 사용한 백오브워즈 모델 생성-282
        퍼플렉서티-283
        연습 32: 주제의 수 선택-284
        연습 33: 잠재 디리클레 할당 실행-287
        연습 34: LDA 시각화-292
        연습 35: 4개 주제 시도-296
        활동 16: 잠재 디리클레 할당과 건강 트윗-300
        백오브워즈 추가 사항-302
        연습 36: TF-IDF를 사용한 백오브워즈 생성-302
    음수 미포함 행렬 분해-304
        프로베니우스 놈-305
        증배 갱신-305
        연습 37: 음수 미포함 행렬 분해-307
        연습 38: NMF 시각화-310
        활동 17: 음수 미포함 행렬 분해-312
    요약-313

8장 장바구니 분석-315
    소개-316
    장바구니 분석-316
        활용 사례-319
        중요한 확률 지표-321
        연습 39: 샘플 거래 데이터 생성-321
        지지도-323
        신뢰도-324
        향상도와 레버리지-325
        확신-326
        연습 40: 지표 계산-327
    거래 데이터의 특징-329
        연습 41: 데이터 불러오기-331
        데이터 정리 및 형식화-333
        연습 42: 데이터 정리 및 포매팅-334
        데이터 인코딩-339
        연습 43: 데이터 인코딩-341
        활동 18: 전체 온라인 소매 데이터의 로딩과 준비-343
    Apriori 알고리즘-345
        계산 수정-348
        연습 44: Apriori 알고리즘 실행-349
        활동 19: 전체 온라인 소매 데이터셋에 Apriori 적용-355
    연관 규칙-357
        연습 45: 연관 규칙 도출-358
        활동 20: 전체 온라인 소매 데이터셋의 연관 규칙 찾기-365
    요약-366

9장 핫스팟 분석-367
    소개-368
        공간 통계-369
        확률 밀도 함수-369
        산업에 핫스팟 분석 사용-371
    커널 밀도 추정-372
        대역폭 값-373
        연습 46: 대역폭 값의 효과-374
        최적의 대역폭 선택-378
        연습 47: 그리드 검색을 사용한 최적 대역폭 선택-379
        커널 함수-382
        연습 48: 커널 함수의 효과-385
        커널 밀도 추정 도출-387
        연습 49: 커널 밀도 추정의 도출 시뮬레이션-387
        활동 21: 1차원에서의 밀도 추정-392
    핫스팟 분석-394
        연습 50: Seaborn으로 데이터 로드 및 모델링-395
        연습 51: 베이스맵 작업-403
        활동 22: 런던에서의 범죄 분석-410
    요약-412

부록-413

찾아보기-522