#비지도 학습
Explore tagged Tumblr posts
Link
0 notes
Text
처음 만나는 인공지능 김대수
CHAPTER 01 인공지능 개요와 발달사 1.1 인공지능이란 무엇인가? 1.2 인공지능의 도전과 한계 1.3 인간 두뇌 능력의 근원 1.4 인간의 지능과 인공지능 1.5 인공지능의 시작과 발전 1.6 인간 두뇌 영역에 도전하는 인공지능 가까운 곳에서 인공지능 경험하기 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 02 인공지능 기술과 최근 응용 동향 2.1 인공지능의 도우미와 소프트웨어 공개 동향 2.2 인공지능 기술 경쟁과 인공지능 교육 2.3 인공지능의 생활 속의 다양한 응용 2.4 인공지능의 타 학문 분야에의 응용 2.5 인공지능과 일자리 문제 가까운 곳에서 인공지능 경험하기 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 03 인공지능 연구와 구현 3.1 인공지능의 분류 체계 3.2 인공지능의 연구 분야 3.3 인공지능의 시대별 연구 요약 3.4 세계가 깜짝 놀란 5개의 인공지능 시스템 3.5 앨런 튜링과 인공지능 테스트 3.6 인공지능에서의 문제 해결과 코딩 3.7 인공지능과 소프트웨어 가까운 곳에서 인공지능 경험하기 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 04 인공지능의 미래와 윤리 4.1 인공지능의 수준별 분류 4.2 약한 인공지능의 선두주자 알파고 4.3 인공지능의 미래와 기술적 특이점 4.4 슈퍼 인공지능 시대의 도래와 지능의 폭발 4.5 인공지능 윤리 강령 가까운 곳에서 인공지능 경험하기 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 05 인공지능과 4차 산업혁명 5.1 4차 산업혁명의 시작 5.2 인공지능과 4차 산업혁명 5.3 지능형 로봇과 인공지능 5.4 사물인터넷 5.5 자율자동차와 드론 5.6 4차 산업혁명의 미래 기술 가까운 곳에서 인공지능 경험하기 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 06 인공지능을 위한 수학과 프로그래밍 6.1 인공지능을 위한 수학적 바탕 6.2 인공지능과 함수 6.3 미분과 델타 규칙 6.4 벡터의 개념과 표현 6.5 행렬과 행렬의 연산 6.6 확률, 통계, 회귀직선 6.7 인공지능용 프로그래밍 언어들 6.8 Python 다운로드 및 프로그램 실행 예 가까운 곳에서 인공지능 경험하기 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 07 규칙기반 인공지능 7.1 인공지능에 쓰이는 논리와 추론 7.2 인공지능에서의 탐색 기법 7.3 인공지능과 알고리즘 7.4 규칙기반 전문가 시스템 7.5 인공지능과 관련된 흥미로운 문제들 가까운 곳에서 인공지능 경험하기 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 08 머신러닝의 학습과 분류 8.1 머신러닝의 개요 8.2 머신러닝의 학습 방법 8.3 머신러닝의 비지도 학습 8.4 강화 학습 8.5 베이지안 네트워크와 은닉 마르코프 모델 가까운 곳에서 인공지능 경험하기 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 09 신경망 개념과 응용 9.1 신경망의 개요 9.2 초기의 신경망 9.3 다층 퍼셉트론 9.4 신경망을 이용한 문자인식과 음성인식 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 10 딥러닝 기반의 심층신경망과 활용 10.1 딥러닝과 심층신경망 10.2 딥러닝 심층신경망의 종류 10.3 딥러닝의 활용과 동향 10.4 딥러닝을 지원하는 하드웨어 10.5 머신러닝과 딥러닝을 지원하는 소프트웨어들 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 11 인공지능의 패턴인식 11.1 인공지능에서의 패턴인식 11.2 21세기의 황금어장 음성인식 기술 11.3 신경망과 딥러닝을 이용한 영상인식 11.4 인공지능의 자연어 처리 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제 CHAPTER 12 인공지능과 데이터 사이언스 12.1 데이터 사이언스 개요 12.2 데이터의 수집, 관리, 분석, 보고 12.3 데이터 분석 단계 - 분류와 클러스터링 12.4 빅데이터 12.5 데이터 마이닝과 데이터 사이언스의 미래 생각하고 토론하기 인공지능 실습하기 참고문헌 연습문제
1 note
·
View note
Photo

핸즈온 비지도 학습 오늘부터 비지도학습 스터디 시작 오라일리 책 표지 동물을 멸종위기 에 처한 동물들이 라고 하네요 이번 표지는 애기웡뱃 https://www.instagram.com/p/CDzvAcGlEga/?igshid=19l1wbs2d6qru
0 notes
Text
자바를 활용한 딥러닝 조시 패터슨 외
CHAPTER 1 머신러닝 복습하기 1.1 학습하는 기계 1.2 문제 정의하기 1.3 머신러닝 속의 수학 : 선형대수 1.4 머신러닝 속의 수학 : 통계 1.5 머신러닝은 어떻게 작동하는가? 1.6 로지스틱 회귀 1.7 모델 평가하기 1.8 머신러닝 이해하기 CHAPTER 2 신경망과 딥러닝의 기초 2.1 신경망 2.2 신경망 학습 2.3 활성화함수 2.4 손실함수 2.5 하이퍼파리미터 CHAPTER 3 심층 신경망의 기본 원칙 3.1 딥러닝 정의 3.2 심층 신경망의 공통 설계와 원리 3.3 심층 신경망 구축하기 CHAPTER 4 주요 심층 신경망 구조 4.1 비지도 사전학습 신경망 4.2 합성곱 신경망 4.3 순환 신경망 4.4 재귀 신경망 4.5 요약 및 논의 CHAPTER 5 심층 신경망 구축하기 5.1 심층 신경망을 올바른 문제에 일치시키기 5.2 DL4J 도구 모음 5.3 DL4J API의 기본 개념 5.4 다층 퍼셉트론 신경망으로 CSV 데이터 모델링하기 5.5 합성곱 신경망을 활용한 손글씨 이미지 모델링 5.6 순환 신경망을 활용한 시퀀스 데이터 모델링 5.7 이상 탐지를 하는 오토인코딩 장치 사용 5.8 VAE를 사용하여 MNIST 숫자 재구성 5.9 자연어 처리에서의 딥러닝 애플리케이션 CHAPTER 6 심층 신경망 튜닝하기 6.1 심층 신경망 튜닝의 기본 개념 6.2 신경망 구조와 입력 데이터 매칭시키기 6.3 출력 계층과 모델의 목표 연관짓기 6.4 계층 수, 파라미터 수, 메모리 다루기 6.5 가중치 초기화 전략 6.6 활성화함수 사용하기 6.7 손실함수 적용하기 6.8 학습률 이해하기 6.9 희소성이 학습에 주는 영향 6.10 최적화 기법 적용하기 6.11 병렬화와 GPU로 더 빠르게 학습하기 6.12 미니배치 크기와 에포크 조절하기 6.13 규제 사용하기 6.14 분류 불균형 다루기 6.15 과대적합 다루기 6.16 training UI에서 신경망 통계 보기 CHAPTER 7 심층 신경망 구조별 튜닝하기 7.1 합성곱 신경망 7.2 순환 신경망 7.3 제한된 볼츠만 머신 7.4 심층 신뢰 신경망 CHAPTER 8 벡터화 8.1 머신러닝에서 벡터화하는 법 8.2 ETL과 벡터화에 DataVec 사용하기 8.3 이미지 데이터 벡터화 8.4 순차 데이터 벡터화 8.5 텍스트 벡터화 8.6 그래프로 작업하기 CHAPTER 9 스파크에서 딥러닝과 DL4J 사용하기 9.1 하둡과 스파크에서 DL4J 사용하는 방법 9.2 스파크 실행 구성 및 튜닝하기 9.3 스파크와 DL4J용 메이븐 POM 작성하기 9.4 하둡 및 스파크 문제 해결 9.5 스파크에서 DL4J 병렬 처리 9.6 스파크에서 DL4J API 사용하는 법 9.7 스파크 다층 퍼셉트론 예제 9.8 LSTM으로 스파크에서 셰익스피어 텍스트 생성하기 9.9 스파크에서 합성곱 신경망으로 MNIST 모델링하기 부록 A 인공지능이란? 부록 B RL4J 및 강화학습 부록 C 반드시 알아야 하는 숫자들 부록 D 신경망과 역전파 : 수학적 접근 부록 E ND4J API 활용하기 부록 F DataVec 활용하기 부록 G DL4J 소스로 작업하기 부록 H DL4J 프로젝트 설정 부록 I DL4J 프로젝트에 알맞게 GPU 설정하기 부록 J DL4J 설치 시 문제 해결
2 notes
·
View notes
Text
인공지능 천인국
CHAPTER 01 인공지능 소개 01 인공지능의 시대 02 인공지능의 정의 인공지능 vs 기계학습 vs 딥러닝 03 튜링 테스트 ELIZA 중국인 방(The Chinese room) 유진 구스트만 튜링 테스트의 문제점 04 인공지능의 역사 인공지능의 태동(1943-1956) 황금기(1956-1974) 첫 번째 AI 겨울(1974-1980) 전성 시대(1980-1987) 두 번째 AI 겨울(1987-1993) AI의 부활(1993-2011) 딥러닝, 빅데이터 및 인공지능(2011-현재) 05 인공지능은 어디에 필요할까? 자율주행 자동차 광고 챗봇(chatbot) 의료 분야 경영 분야 06 파이썬 설치 아나콘다 다운로드하기 아나콘다 설치하기 스파이더 스파이더의 실행 스파이더의 대화형 모드와 스크립트 모드 스크립트 모드 실습 CHAPTER 02 탐색 01 탐색 02 상태 공간의 예 03 탐색 트리 04 기본적인 탐색 기법 05 맹목적 탐색 #1: 깊이 우선 탐색(DFS) 06 맹목적 탐색 #2: 너비 우선 탐색(BFS) 07 DFS와 BFS 프로그램 보드를 어떻게 표현할 것인가? Open과 closed 리스트는 무엇으로 구현할 것인가? 자식 노드들은 어떻게 생성할 것인가? 전체 소스 08 경험적 탐색 방법 09 언덕 등반 기법(Hill-Climbing) 알고리즘 지역 최소 문제 10 최고 우선 탐색 11 A* 알고리즘 12 A* 알고리즘의 파이썬 구현 CHAPTER 03 게임트리 01 게임 프로그램 게임 정의 Tic-Tac-Toe에 대한 게임 트리 02 미니맥스 알고리즘 틱택토 게임에 미니맥스 알고리즘 적용 미니맥스 알고리즘의 의사코드 03 틱택토 게임 프로그래밍 04 알파베타 가지치기 알파베타 알고리즘 알파베타 알고리즘 실습 05 불완전한 결정 CHAPTER 04 전문가 시스템 01 전문가 시스템 전문가 시스템의 역사 02 전문가 시스템의 구성 요소 지식 베이스 추론 엔진 사용자 인터페이스 03 지식과 인공지능 데이터, 정보, 지식 04 규칙 규칙에 AND나 OR를 사용할 수 있다. 05 전문가 시스템에서의 추론 순방향 추론 역방향 추론 06 충돌 해법 07 전문가 시스템의 장점과 약점 CHAPTER 05 지식 표현 01 지식 표현(Knowledge Representation) 02 규칙 03 의미망 04 프레임 프레임의 장점 프레임과 객체 지향 프로그래밍 프레임과 상속 05 논리(Logic) 06 명제 논리 명제 논리에서의 추론 모더스 포넌스(Modus Ponens) 부정 논법(Modus Tollens) 삼단논법(syllogism) 07 술어 논리 08 술어 논리에서 추론 정형식 도출(resolution) 도출에 의한 증명 09 프롤로그(Prolog) CHAPTER 06 퍼지 논리 01 퍼지 논리란? 퍼지 논리를 사용할 수 있는 분야 02 크리스프 집합과 퍼지 집합 크리스프 집합 퍼지 집합 퍼지 집합의 표기 방법 03 퍼지 집합에서의 연산자 집중화 연산자 CON과 DIL 04 퍼지 추론 퍼지 규칙 퍼지 추론의 기본 퍼지 추론의 과정 규칙이 여러 개 있는 경우 CHAPTER 07 불확실성 01 불확실성 불확실성의 예 불확실성은 왜 발생하는 것인가 인공지능 시스템에서의 불확실성 처리 02 확률을 이용한 불확실성 처리 사전 확률과 사후 확률 베이즈 정리 03 베이즈 정리와 추론 증거와 가설이 여러 개일 때 베이즈 정리의 단점 04 확신도 확신도의 정의 불확실한 증거를 가진 규칙에서의 확신도 규칙이 여러 개의 전제를 가지는 경우 CHAPTER 08 유전자 알고리즘 01 자연계에서의 진화 02 유전자 알고리즘 염색체, 인코딩, 평가 함수 유전자 알고리즘의 순서도 선택 연산자 교차 연산자 돌연변이 연산자 유전자 알고리즘 03 유전자 알고리즘의 예제 04 유전자 알고리즘 프로그램 05 유전자 알고리즘의 장단점 06 유전자 프로그래밍 어떻게 프로그램을 표현할 것인가? 기본 연산들 GP 알고리즘 CHAPTER 09 기계학습의 소개 01 기계학습이란? 기계학습은 어디에 이용되는가? 기계학습의 역사 02 기계학습의 종류 03 기계학습의 용어들 특징(feature) 레이블(label) 샘플 학습과 예측 학습 데이터와 테스트 데이터 04 지도 학습 회귀(regression) 분류(classification) 05 비지도 학습 06 강화 학습 07 기계학습의 실용적인 가치 08 넘파이(Numpy) 리스트 vs 넘파이 배열 인덱��과 슬라이싱 논리적인 인덱싱 2차원 배열 arange() 함수 linspace() 함수 reshape() 함수 난수를 생성해보자. 난수 생성하기 정규분포 난수 생성 CHAPTER 10 선형 회귀 01 선형 회귀 선형 회귀 소개 선형 회귀의 원리 학습과 손실 02 선형 회귀에서 손실 함수 최소화 방법 경사 하강법(gradient descent method) 선형 회귀에서 경사 하강법 경사 하강법 구현 03 선형 회귀 예제 선형 회귀를 그래프로 그려보자. 04 과잉 적합 vs 과소 적합 CHAPTER 11 kNN 알고리즘과 K-means 알고리즘 01 kNN 알고리즘 02 kNN 알고리즘 kNN 알고리즘 수정된 kNN 알고리즘 03 sklearn을 이용한 kNN 알고리즘 실습 특징과 레이블 kNN 학습하기 새로운 데이터로 예측해보기 04 비지도 학습(K-means 클러스터링) K-means 클러스터링의 예 K-means 알고리즘 05 sklearn을 이용한 K-means 클러스터링 라이브러리를 포함시킨다. 데이터를 준비한다. 데이터 시각화 클러스터 만들기 06 k를 결정하는 방법 팔꿈치 방법의 구현 CHAPTER 12 신경망 I(퍼셉트론) 01 신경망 신경망의 장점 뉴런의 수학적인 모델 02 퍼셉트론 퍼셉트론은 논리 연산을 학습할 수 있을까? 03 퍼셉트론 학습 알고리즘 퍼셉트론 학습 알고리즘 예제 04 sklearn으로 퍼셉트론 실습하기 05 퍼셉트론 프로그래밍 06 선형 분류 가능 문제 XOR 연산 학습 선형 분류 가능 문제 다층 퍼셉트론으로 XOR 문제를 해결 CHAPTER 13 신경망 II(MLP) 01 다층 퍼셉트론 활성화 함수 02 역전파 학습 알고리즘 출력 노드 값 계산 손실 함수란 무엇인���? 경사 하강법 03 역전파 알고리즘의 유도 역전파 알고리즘 역전파 알고리즘 상세 설명 체인룰을 사용하자. 출력 노드의 경우 결론을 내려보자. 04 구글의 플레이그라운드를 이용한 실습 에포크 학습률 활성화 함수 선택 문제 유형 학습 데이터와 테스트 데이터의 비율 입력 특징 선택 은닉층 추가하기 학습 시작 은닉층 없이 분류 실습 은닉층을 추가한 실습 05 넘파이를 이용하여 MLP 구현 06 구글의 텐서플로우 아나콘다에서 텐서플로우 설치하기 Keras Keras 예제 #1 Keras 예제 #2 CHAPTER 14 신경망 III(딥러닝) 01 딥러닝 은닉층의 역할 02 그래디언트 소멸 문제 새로운 활성화 함수 03 손실 함수 문제 소프트맥스(softmax) 활성화 함수 교차 엔트로피 손실 함수 04 가중치 초기화 문제 가중치 초기화 방법 05 미니 배치 06 데이터 정규화 07 데이터 인코딩 기법 08 학습률과 모멘텀 09 과잉 적합의 처리 드롭 아웃 10 앙상블 11 Keras를 이용한 MNIST 숫자 인식 숫자 데이터 가져오기 모델 구축하기 학습시키기 CHAPTER 15 신경망 IV(컨볼루션 신경망) 01 영상 인식이란? 02 전통적인 영상 인식 시스템의 구조 03 영상 인식과 DNN 04 컨볼루션 신경망(CNN) 컨볼루션이란? 05 풀링 또는 서브 샘플링 컨볼루션 계층 06 DNN을 이용한 영상 분류 완전 연결 신경망 이용 07 CNN을 이용한 영상 분류
1 note
·
View note
Text
한국어 임베딩 이기창
1장. 서론 1.1 임베딩이란 1.2 임베딩의 역할 1.2.1 단어/문장 간 관련도 계산 1.2.2 의미/문법 정보 함축 1.2.3 전이 학습 1.3 임베딩 기법의 역사와 종류 1.3.1 통계 기반에서 뉴럴 네트워크 기반으로 1.3.2 단어 수준에서 문장 수준으로 1.3.3 룰 → 엔드투엔드 → 프리트레인/파인 튜닝 1.3.4 임베딩의 종류와 성능 1.4 개발 환경 1.4.1 환경 소개 1.4.2 AWS 구성 1.4.3 코드 실행 1.4.4 버그 리포트 및 Q&A 1.4.5 이 책이 도움받고 있는 오픈소스들 1.5 이 책이 다루는 데이터와 주요 용어 1.6 이 장의 요약 1.7 참고 문헌 2장. 벡터가 어떻게 의미를 가지게 되는가 2.1 자연어 계산과 이해 2.2 어떤 단어가 많이 쓰였는가 2.2.1 백오브워즈 가정 2.2.2 TF-IDF 2.2.3 Deep Averaging Network 2.3 단어가 어떤 순서로 쓰였는가 2.3.1 통계 기반 언어 모델 2.3.2 뉴럴 네트워크 기반 언어 모델 2.4 어떤 단어가 같이 쓰였는가 2.4.1 분포 가정 2.4.2 분포와 의미 (1): 형태소 2.4.3 분포와 의미 (2): 품사 2.4.4 점별 상호 정보량 2.4.5 Word2Vec 2.5 이 장의 요약 2.6 참고 문헌 3장. 한국어 전처리 3.1 데이터 확보 3.1.1 한국어 위키백과 3.1.2 KorQuAD 3.1.3 네이버 영화 리뷰 말뭉치 3.1.4 전처리 완료된 데이터 다운로드 3.2 지도 학습 기반 형태소 분석 3.2.1 KoNLPy 사용법 3.2.2 KoNLPy 내 분석기별 성능 차이 분석 3.2.3 Khaiii 사용법 3.2.4 은전한닢에 사용자 사전 추가하기 3.3 비지도 학습 기반 형태소 분석 3.3.1 soynlp 형태소 분석기 3.3.2 구글 센텐스피스 3.3.3 띄어쓰기 교정 3.3.4 형태소 분석 완료된 데이터 다운로드 3.4 이 장의 요약 3.5 참고 문헌 4장. 단어 수준 임베딩 4.1 NPLM 4.1.1 모델 기본 구조 4.1.2 NPLM의 학습 4.1.3 NPLM과 의미 정보 4.2 Word2Vec 4.2.1 모델 기본 구조 4.2.2 학습 데이터 구축 4.2.3 모델 학습 4.2.4 튜토리얼 4.3 FastText 4.3.1 모델 기본 구조 4.3.2 튜토리얼 4.3.3 한글 자소와 FastText 4.4 잠재 의미 분석 4.4.1 PPMI 행렬 4.4.2 행렬 분해로 이해하는 잠재 의미 분석 4.4.3 행렬 분해로 이해하는 Word2Vec 4.4.4 튜토리얼 4.5 GloVe 4.5.1 모델 기본 구조 4.5.2 튜토리얼 4.6 Swivel 4.6.1 모델 기본 구조 4.6.2 튜토리얼 4.7 어떤 단어 임베딩을 사용할 것인가 4.7.1 단어 임베딩 다운로드 4.7.2 단어 유사도 평가 4.7.3 단어 유추 평가 4.7.4 단어 임베딩 시각화 4.8 가중 임베딩 4.8.1 모델 개요 4.8.2 모델 구현 4.8.3 튜토리얼 4.9 이 장의 요약 4.10 참고 문헌 5장. 문장 수준 임베딩 5.1 잠재 의미 분석 5.2 Doc2Vec 5.2.1 모델 개요 5.2.2 튜토리얼 5.3 잠재 디리클레 할당 5.3.1 모델 개요 5.3.2 아키텍처 5.3.3 LDA와 깁스 샘플링 5.3.4 튜토리얼 5.4 ELMo 5.4.1 문자 단위 컨볼루션 레이어 5.4.2 양방향 LSTM, 스코어 레이어 5.4.3 ELMo 레이어 5.4.4 프리트레인 튜토리얼 5.5 트랜스포머 네트워크 5.5.1 Scaled Dot-Product Attention 5.5.2 멀티헤드 어텐션 5.5.3 Position-wise Feed-Forward Networks 5.5.4 트랜스포머의 학습 전략 5.6 BERT 5.6.1 BERT, ELMo, GPT 5.6.2 프리트레인 태스크와 학습 데이터 구축 5.6.3 BERT 모델의 구조 5.6.4 프리트레인 튜토리얼 5.7 이 장의 요약 5.8 참고 문헌 6장. 임베딩 파인 튜닝 6.1 프리트레인과 파인 튜닝 6.2 분류를 위한 파이프라인 만들기 6.3 단어 임베딩 활용 6.3.1 네트워크 개요 6.3.2 네트워크 구현 6.3.3 튜토리얼 6.4 ELMo 활용 6.4.1 네트워크 개요 6.4.2 네트워크 구현 6.4.3 튜토리얼 6.5 BERT 활용 6.5.1 네트워크 개요 6.5.2 네트워크 구현 6.5.3 튜토리얼 6.6 어떤 문장 임베딩을 사용할 것인가 6.7 이 장의 요약 6.8 참고 문헌 부록 부록 A. 선형대수학 기초 1.1 벡터, 행렬 연산 1.2 내적과 공분산 1.3 내적과 사영 1.4 내적과 선형변환 1.5 행렬 분해 기반 차원 축소 (1): 주성분 분석(PCA) 1.6 행렬 분해 기반 차원 축소 (2): 특이값 분해(SVD) 부록 B. 확률론 기초 2.1 확률변수와 확률 분포 2.2 베이지안 확률론 부록 C. 뉴럴 네트워크 기초 3.1 DAG로 이해하는 뉴럴 네트워크 3.2 뉴럴 네트워크는 확률모델이다 3.3 최대우도추정과 학습 손실 3.4 그래디언트 디센트 3.5 계산 노드별 역전파 3.6 CNN과 RNN 부록 D. 국어학 기초 4.1 통사 단위 4.2 문장 유형 4.3 품사 4.4 상과 시제 4.5 주제 4.6 높임 4.7 양태 4.8 의미역 4.9 피동 4.10 사동 4.11 부정 부록 E. 참고 문헌
1 note
·
View note