파이썬을 활용한 비지도 학습
도서명:파이썬을 활용한 비지도 학습
저자/출판사:벤자민,존스턴,애런,존스,크리스토퍼,크루거/에이콘출판
쪽수:528쪽
출판일:2019-11-29
ISBN:9791161753652
목차
1장. 클러스터링 소개
__소개
__비지도 학습과 지도 학습의 차이
__클러스터링
____클러스터 식별
____2차원 데이터
____연습 1: 데이터에서 클러스터 인식
__k-평균 클러스터링 소개
____수학이 필요 없는 k-평균 연습
____k-평균 클러스터링 심화 연습
____대****거리 메트릭-맨해튼 거리
____더 깊은 차원
____연습 2: 파이썬으로 유클리드 거리 계산
____연습 3: 거리 개념으로 클러스터 구성
____연습 4: 직접 k-평균 구현
____연습 5: 최적화를 통한 k-평균 구현
____클러스터링 성능: 실루엣 점수
____연습 6: 실루엣 점수 계산
____활동 1: k-평균 클러스터링 구현
__요약
2장. 계층적 클러스터링
__소개
____클러스터링 다시 살펴보기
____k-평균 다시 살펴보기
__계층 구조
__계층적 클러스터링 소개
____계층적 클러스터링 수행 단계
____계층적 클러스터링 연습 예제
____연습 7: 계층 구성
__연결
____활동 2: 연결 기준 적용
__응집 vs 분산 클러스터링
____연습 8: scikit-learn을 사용한 응집 클러스터링 구현
____활동 3: 계층적 클러스터링과 k-평균 비교
__k-평균 vs 계층적 클러스터링
__요약
3장. 이웃 접근과 DBSCAN
__소개
____이웃으로서의 클러스터
__DBSCAN 소개
____DBSCAN 심화 학습
____DBSCAN 알고리즘 연습
____연습 9: 이웃 반경 크기의 영향 평가
____DBSCAN 속성 - 이웃 반경
____활동 4: DBSCAN 처음부터 구현
____DBSCAN 속성-최소 지점 수
____연습 10: 최소 지점 수의 영향 평가
____활동 5: DBSCAN과 k-평균 그리고 계층적 클러스터링 비교
__DBSCAN 대 k-평균과 계층적 클러스터링
__요약
4장. 차원 축소와 PCA
__소개
____차원 축소란 무엇인가?
____차원 축소 적용
____차원의 저주
__차원 축소 기법 개요
____차원 축소와 비지도 학습
__PCA
____평균
____표준편차
____공분산
____공분산 행렬
____연습 11: 통계의 기본 개념 이해
____고윳값 및 고유 벡터
____연습 12: 고윳값 및 고유 벡터 계산
____PCA 처리 절차
____연습 13: PCA 수동 실행
____연습 14: Scikit-Learn PCA
____활동 6: 수동 PCA와 scikit-learn 비교
____압축된 데이터셋 복원
____연습 15: 수동 PCA로 분산 감소 시각화
____연습 16: 분산 감소 시각화
____연습 17: Matplotlib에서 3D 도표 그리기
____활동 7: 확장된 아이리스 데이터셋을 사용한 PCA
__요약
5장. 오토인코더
__소개
__인공 신경망 기초
____뉴런
____Sigmoid 함수
____정류 선형 단위
____연습 18: 인공 신경망의 뉴런 모델링
____활동 8: ReLU 활성화 함수를 사용한 뉴런 모델링
____신경망: 구조 정의
____연습 19: Keras 모델 정의
____신경망: 학습
____연습 20: Keras 신경망 훈련
____활동 9: MNIST 신경망
__오토인코더
____연습 21: 간단한 오토인코더
____활동 10: 간단한 MNIST 오토인코더
____연습 22: 다중 계층 오토인코더
____컨볼루셔널 신경망
____연습 23: 컨볼루셔널 오토인코더
____활동 11: MNIST 컨볼루셔널 오토인코더
__요약
6장. t-분포 확률적 이웃 임베딩
__소개
__확률적 이웃 임베딩
__t-분포 확률적 이웃 임베딩
____연습 24: t-SNE MNIST
____활동 12: 와인 t-SNE
__t-SNE 도표 해석
____퍼플렉서티
____연습 25: t-SNE MNIST와 퍼플렉서티
____활동 13: t-SNE 와인과 퍼플렉서티
____이터레이션
____연습 26: t-SNE MNIST와 반복
____활동 14: t-SNE 와인과 이터레이션
____시각화에 대한 최종 의견
__요약
7장. 토픽 모델링
__소개
____토픽 모델
____연습 27: 환경 설정
____토픽 모델 개요
____비즈니스 활용
____연습 28: 데이터 로딩
__텍스트 데이터 정리
____데이터 정리 기법
____연습 29: 단계별 데이터 정리
____연습 30: 데이터 정리 마무리
____활동 15: 트위터 데이터 로딩 및 정리
__잠재 디리클레 할당
____변분 추론
____백오브워즈
____연습 31: 카운트 벡터라이저를 사용한 백오브워즈 모델 생성
____퍼플렉서티
____연습 32: 주제의 수 선택
____연습 33: 잠재 디리클레 할당 실행
____연습 34: LDA 시각화
____연습 35: 4개 주제 시도
____활동 16: 잠재 디리클레 할당과 건강 트윗
____백오브워즈 추가 사항
____연습 36: TF-IDF를 사용한 백오브워즈 생성
__음수 미포함 행렬 분해
____프로베니우스 놈
____증배 갱신
____연습 37: 음수 미포함 행렬 분해
____연습 38: NMF 시각화
____활동 17: 음수 미포함 행렬 분해
__요약
8장. 장바구니 분석
__소개
__장바구니 분석
____활용 사례
____중요한 확률 지표
____연습 39: 샘플 거래 데이터 생성
____지지도
____신뢰도
____향상도와 레버리지
____확신
____연습 40: 지표 계산
__거래 데이터의 특징
____연습 41: 데이터 불러오기
____데이터 정리 및 형식화
____연습 42: 데이터 정리 및 포매팅
____데이터 인코딩
____연습 43: 데이터 인코딩
____활동 18: 전체 온라인 소매 데이터의 로딩과 준비
__Apriori 알고리즘
____계산 수정
____연습 44: Apriori 알고리즘 실행
____활동 19: 전체 온라인 소매 데이터셋에 Apriori 적용
__연관 규칙
____연습 45: 연관 규칙 도출
____활동 20: 전체 온라인 소매 데이터셋의 연관 규칙 찾기
__요약
9장. 핫스팟 분석
__소개
____공간 통계
____확률 밀도 함수
____산업에 핫스팟 분석 사용
__커널 밀도 추정
____대역폭 값
____연습 46: 대역폭 값의 효과
____최적의 대역폭 선택
____연습 47: 그리드 검색을 사용한 최적 대역폭 선택
____커널 함수
____연습 48: 커널 함수의 효과
____커널 밀도 추정 도출
____연습 49: 커널 밀도 추정의 도출 시뮬레이션
____활동 21: 1차원에서의 밀도 추정
__핫스팟 분석
____연습 50: Seaborn으로 데이터 로드 및 모델링
____연습 51: 베이스맵 작업
____활동 22: 런던에서의 범죄 분석
__요약
부록