최신일반자료 : 국립세종도서관
상세검색 닫기
자료유형
소장자료 상세검색을 위한 표
출판년도 ~
정렬
상세검색 +

자료검색

최신일반자료

글씨 확대 축소
파이썬을 활용한 비지도 학습 : 비구조 데이터로부터 숨겨진 패턴과 관계 찾기 / 벤자민 존스턴,애런 존스,크리스토퍼 크루거 지음 ;조경빈 옮김
표지이미지
  • ·표제/책임표시사항 파이썬을 활용한 비지도 학습 : 비구조 데이터로부터 숨겨진 패턴과 관계 찾기 / 벤자민 존스턴,애런 존스,크리스토퍼 크루거 지음 ;조경빈 옮김
  • ·발행사항 서울 : 에이콘출판사, 2020
  • ·형태사항 526 p. :삽화, 도표 ;24 cm
  • ·주기사항 원표제:Applied unsupervised learning with Python :discover hidden patterns and relationships in unstructured data with Python
    색인수록
    원저자명: Benjamin Johnston, Aaron Jones, Christopher Kruger
    영어 원작을 한국어로 번역
  • ·표준번호/부호 ISBN: 9791161753652  93000: \35000 
  • ·분류기호 한국십진분류법-> 005.133  듀이십진분류법-> 005.133  
  • ·주제명 파이썬[Python]  컴퓨터 프로그래밍[computer programming]  
icon 권별정보 자료위치출력

※ 좌우로 스크롤하시면 내용이 보입니다.

권별정보 안내
신청 편/권차 편제 저작자 발행년도 등록번호 청구기호 자료이용하는곳 자료상태 예약자 반납예정일 매체구분 바구니
벤자민 존스턴,애런 존스,크리스토퍼 크루거 지음 ;조경빈 옮김 2020 SE0000477357 005.133-19-44 일반자료실(2층) 대출 가능 0 - 인쇄자료(책자형) 
※ 좌측의[ 라디오버튼 아이콘 ]버튼은 예약/신청을 위한 선택용도이고, 우측의[ 체크박스 아이콘 ]클릭은 바구니담기 용도입니다. ※ 청사대출/서고자료 신청은 1명만 가능하고, 어린이·청소년 자료는 청사대출신청에서 제외됩니다.
  • 대출예약신청 안내:
    자료가 “대출중”인 경우 해당 자료를 예약하여 자료 반납시 우선적으로 대출받을 수 있는 서비스
    (예약자가 대출안내 문자 확인 후 2일 이내 대출하지 않을 경우 자동 취소)
  • 서고자료신청 안내:
    서고 및 대출지원서고 자료에 대한 대출신청 서비스
    방법 : 해당자료 선택→서고자료신청 클릭→자료비치완료 문자발송(약20분)→자료 수령(해당 자료실)
    자료신청시간 : 09:00~17:00 (신청자가 비치완료 문자 확인 후 당일 대출하지 않을 경우 자동 취소)
  • 청사대출신청 안내:
    정부청사(6-3동, 2-1동)에 위치한 무인대출반납기에서 자료 수령·반납이 가능한 서비스
icon 서가 둘러보기

목차


1장. 클러스터링 소개 
__소개
__비지도 학습과 지도 학습의 차이
__클러스터링
____클러스터 식별 
____2차원 데이터
____연습 1: 데이터에서 클러스터 인식
__k-평균 클러스터링 소개
____수학이 필요 없는 k-평균 연습
____k-평균 클러스터링 심화 연습
____대안 거리 메트릭-맨해튼 거리
____더 깊은 차원
____연습 2: 파이썬으로 유클리드 거리 계산
____연습 3: 거리 개념으로 클러스터 구성
____연습 4: 직접 k-평균 구현
____연습 5: 최적화를 통한 k-평균 구현
____클러스터링 성능: 실루엣 점수
____연습 6: 실루엣 점수 계산
____활동 1: k-평균 클러스터링 구현
__요약

2장. 계층적 클러스터링 
__소개
____클러스터링 다시 살펴보기
____k-평균 다시 살펴보기
__계층 구조
__계층적 클러스터링 소개
____계층적 클러스터링 수행 단계
____계층적 클러스터링 연습 예제
____연습 7: 계층 구성
__연결
____활동 2: 연결 기준 적용
__응집 vs 분산 클러스터링
____연습 8: scikit-learn을 사용한 응집 클러스터링 구현
____활동 3: 계층적 클러스터링과 k-평균 비교
__k-평균 vs 계층적 클러스터링
__요약

3장. 이웃 접근과 DBSCAN 
__소개
____이웃으로서의 클러스터
__DBSCAN 소개
____DBSCAN 심화 학습
____DBSCAN 알고리즘 연습
____연습 9: 이웃 반경 크기의 영향 평가
____DBSCAN 속성 - 이웃 반경
____활동 4: DBSCAN 처음부터 구현
____DBSCAN 속성-최소 지점 수
____연습 10: 최소 지점 수의 영향 평가
____활동 5: DBSCAN과 k-평균 그리고 계층적 클러스터링 비교
__DBSCAN 대 k-평균과 계층적 클러스터링
__요약

4장. 차원 축소와 PCA 
__소개
____차원 축소란 무엇인가?
____차원 축소 적용
____차원의 저주 
__차원 축소 기법 개요
____차원 축소와 비지도 학습
__PCA
____평균
____표준편차
____공분산
____공분산 행렬
____연습 11: 통계의 기본 개념 이해
____고윳값 및 고유 벡터
____연습 12: 고윳값 및 고유 벡터 계산
____PCA 처리 절차
____연습 13: PCA 수동 실행
____연습 14: Scikit-Learn PCA
____활동 6: 수동 PCA와 scikit-learn 비교
____압축된 데이터셋 복원
____연습 15: 수동 PCA로 분산 감소 시각화
____연습 16: 분산 감소 시각화
____연습 17: Matplotlib에서 3D 도표 그리기
____활동 7: 확장된 아이리스 데이터셋을 사용한 PCA
__요약

5장. 오토인코더
__소개
__인공 신경망 기초
____뉴런
____Sigmoid 함수
____정류 선형 단위
____연습 18: 인공 신경망의 뉴런 모델링
____활동 8: ReLU 활성화 함수를 사용한 뉴런 모델링
____신경망: 구조 정의
____연습 19: Keras 모델 정의
____신경망: 학습
____연습 20: Keras 신경망 훈련
____활동 9: MNIST 신경망
__오토인코더
____연습 21: 간단한 오토인코더
____활동 10: 간단한 MNIST 오토인코더
____연습 22: 다중 계층 오토인코더
____컨볼루셔널 신경망
____연습 23: 컨볼루셔널 오토인코더
____활동 11: MNIST 컨볼루셔널 오토인코더
__요약

6장. t-분포 확률적 이웃 임베딩 
__소개
__확률적 이웃 임베딩
__t-분포 확률적 이웃 임베딩
____연습 24: t-SNE MNIST
____활동 12: 와인 t-SNE
__t-SNE 도표 해석
____퍼플렉서티
____연습 25: t-SNE MNIST와 퍼플렉서티
____활동 13: t-SNE 와인과 퍼플렉서티
____이터레이션
____연습 26: t-SNE MNIST와 반복
____활동 14: t-SNE 와인과 이터레이션
____시각화에 대한 최종 의견
__요약

7장. 토픽 모델링 
__소개
____토픽 모델
____연습 27: 환경 설정
____토픽 모델 개요
____비즈니스 활용
____연습 28: 데이터 로딩
__텍스트 데이터 정리
____데이터 정리 기법
____연습 29: 단계별 데이터 정리
____연습 30: 데이터 정리 마무리
____활동 15: 트위터 데이터 로딩 및 정리
__잠재 디리클레 할당
____변분 추론
____백오브워즈
____연습 31: 카운트 벡터라이저를 사용한 백오브워즈 모델 생성
____퍼플렉서티
____연습 32: 주제의 수 선택
____연습 33: 잠재 디리클레 할당 실행
____연습 34: LDA 시각화
____연습 35: 4개 주제 시도
____활동 16: 잠재 디리클레 할당과 건강 트윗
____백오브워즈 추가 사항
____연습 36: TF-IDF를 사용한 백오브워즈 생성
__음수 미포함 행렬 분해
____프로베니우스 놈
____증배 갱신
____연습 37: 음수 미포함 행렬 분해
____연습 38: NMF 시각화
____활동 17: 음수 미포함 행렬 분해
__요약

8장. 장바구니 분석 
__소개
__장바구니 분석
____활용 사례
____중요한 확률 지표
____연습 39: 샘플 거래 데이터 생성
____지지도
____신뢰도
____향상도와 레버리지
____확신
____연습 40: 지표 계산
__거래 데이터의 특징
____연습 41: 데이터 불러오기
____데이터 정리 및 형식화
____연습 42: 데이터 정리 및 포매팅
____데이터 인코딩
____연습 43: 데이터 인코딩
____활동 18: 전체 온라인 소매 데이터의 로딩과 준비
__Apriori 알고리즘
____계산 수정
____연습 44: Apriori 알고리즘 실행
____활동 19: 전체 온라인 소매 데이터셋에 Apriori 적용
__연관 규칙
____연습 45: 연관 규칙 도출
____활동 20: 전체 온라인 소매 데이터셋의 연관 규칙 찾기
__요약

9장. 핫스팟 분석 
__소개
____공간 통계
____확률 밀도 함수
____산업에 핫스팟 분석 사용
__커널 밀도 추정
____대역폭 값
____연습 46: 대역폭 값의 효과
____최적의 대역폭 선택
____연습 47: 그리드 검색을 사용한 최적 대역폭 선택
____커널 함수
____연습 48: 커널 함수의 효과
____커널 밀도 추정 도출
____연습 49: 커널 밀도 추정의 도출 시뮬레이션
____활동 21: 1차원에서의 밀도 추정
__핫스팟 분석
____연습 50: Seaborn으로 데이터 로드 및 모델링
____연습 51: 베이스맵 작업
____활동 22: 런던에서의 범죄 분석
__요약

부록