신간소개 2023. 6. 2. 18:22

 

 

  ● 저자: 김효실, 황중원

  ● 페이지: 252

  ● 판형: 188*257

  ● 도수: 2도

  ● 정가: 25,000원

  ● 발행일: 2023년 6월 13일

  ● ISBN: 979-11-982686-7-9 93000

 

 

 

 

 

 

[오탈자 사이트]  [예제 소스[질의응답]    

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

 

_도서 내용

이 책은 “사진을 올리면 강아지/고양이 종을 분류해주는 기능”을 AWS 클라우드 기반으로 서비스를 할 수 있게 만드는 과정을 보여주고 있다. 오픈 API를 활용하며 백엔드는 FastAPI, 프론트엔드는 Streamlit 기반으로 서비스를 구축하며, 마지막으로 AI/ML 파이프라인으로 전과정을 자동화해보는 경험을 할 수 있게 하였다. 초보자도 쉽게 따라할 수 있도록 생략된 과정 없이 자세하게 단계별로 설명하고 있다, 이 책으로 실습을 한번 경험해보 보면 인공지능 서비스를 어떻게 만들 수 있는지를 알 수 있게 되고 다양한 확장된 아이디어를 얻을 수 있다.

 

 

_대상 독자

_다음과 같은 선수 지식이 있는 독자

책에서 자세하게 코드 흐름은 알려주지만, 파이썬의 기초 문법을 숙지하면 훨씬 빠르게 학습할 수 있다.

 

_다음과 같은 목표를 갖고 있는 독자

서비스에 인공지능 기능을 추가해보고 싶은데, 무엇부터 해야 할지 막연하다.

딥러닝 책을 보면 수학, 코드, 모델 학습 등 모르는 얘기만 잔뜩 있어 포기한 경험이 있다.

인공지능 개발자가 되기 위해 기초적인 경험을 해보면서 성취감을 맛보고 싶다.

 

 

_목차

 

지은이의 글

베타테스터의 글

일러두기

 

1장 딥러닝 Open API를 이용한 강아지/고양이 종 분류 프로젝트

1.1 학습목표

1.2 사전 준비하기

1.2.1 AWS 클라우드 계정 생성

1.2.2 AWS 클라우드 액세스 키 발급

1.2.3 캐글 가입 및 데이터 다운로드

1.2.4 코랩 사용법

1.3 사전지식 쌓기

1.3.1 딥러닝

1.3.2 딥러닝 서비스

1.3.3 Open API 정의와 딥러닝 Open API 종류

1.4 구현하기

1.4.1 [스텝 1] AWS 웹화면에서 테스트하기

1.4.2 [스텝 2] AWS Open API 테스트하기

1.5 요약과 정리하기

 

2장 지도학습으로 딥러닝 모델 만들기 - 고양이 종 분류 프로젝트

2.1 학습목표

2.2 사전 준비하기

2.2.1 학습데이터 준비

2.2.2 Google Teachable Machine 사용 준비

2.3 사전지식 쌓기

2.3.1 , 커스텀 AI 분류 모델이 필요한가

2.3.2 분류 문제란 무엇인가

2.3.3 Google Teachable Machine 이해하기

2.3.4 Google Teachable Machine 모델 생성 과정

2.4 구현하기

2.4.1 [스텝 1] 각 데이터별로 학습시키기

2.4.2 [스텝 2] 학습된 결과를 비교하기

2.4.3 [스텝 3] AI모델을 추출하기

2.5 요약과 정리하기

 

3장 내 컴퓨터에서 AI/ML 서비스 구축하기

3.1 학습목표

3.2 사전 준비하기

3.2.1 파이썬 설치하기

3.2.2 FastAPI 설치하기

3.2.3 Streamlit 설치하기

3.3 사전지식 쌓기

3.3.1 딥러닝 모델을 서비스한다는 것의 의미

3.3.2 웹서비스를 구성하는 세 가지 기본 요소

3.3.3 RestAPI

3.3.4 FastAPI

3.3.5 Streamlit

3.4 구현하기

3.4.1 [스텝 1] 작업 파일 구성하기

3.4.2 [스텝 2] 프로토타입 설계하기

3.4.3 [스텝 3] 백엔드 만들기(FastAPI)

3.4.4 [스텝 4] 프런트엔드 만들기(Streamlit)

3.5 요약과 정리하기

 

4 AWS 클라우드에서 AI/ML 서비스 구축하기

4.1 학습목표

4.2 사전 준비하기

4.2.1 AWS 콘솔 로그인

4.2.2 소스코드 다운로드

4.3 사전지식 쌓기

4.3.1 AWS EC2

4.3.2 AWS S3

4.4 구현하기

4.4.1 [스텝 1] S3에 모델 아티펙트 업로드하기

4.4.2 [스텝 2] 생성한 EC2에 서빙 서버 구축하기

4.4.3 [스텝 3] 연동 테스트하기

4.5 요약과 정리하기

 

5 AI/ML Pipeline

5.1 학습목표

5.2 AI/ML Pipeline의 정의

5.3 AI/ML Pipeline의 필요성

5.4 AI/ML Pipeline의 구성요소

5.5 AWS SageMaket 스튜디오에서의 AI/ML Pipeline

5.5.1 SageMaker 프로젝트

5.5.2 SageMaker 프로젝트의 사용 시기

5.5.3 SageMaker 파이프라인

5.5.4 SageMaker 파이프라인 구조

5.5.5 IAM 액세스 관리

5.5.6 Pipeline 매개변수

5.5.7 Pipeline 스텝

5.5.8 Pipeline 정의하기

5.6 요약과 정리하기

 

6장 종합 프로젝트

6.1 학습목표

6.2 사전 준비하기

6.2.1 SageMaker 파이프라인 스텝 설계

6.2.2 소스코드 다운로드

6.2.3 AWS S3에 데이터 구성

6.3 사전지식 쌓기

6.3.1 ResNet18

6.3.2 전이 학습

6.3.3 온디맨드 인스턴스 및 요금(또는 제약사항)

6.4 구현하기

6.4.1 데이터 수집

6.4.2 데이터 검증

6.4.3 SageMaker 파이프라인 정의

6.4.4 API 테스트

6.4.5 서빙 서버 모니터링

6.4.6 서비스 사용을 위한 프런트엔드 애플리케이션과의 연동(interface)

6.5 요약과 정리하기

 

부록 A Anaconda의 설치 및 실행 방법

A.1 윈도우즈 버전

A.2 MacOS 버전

 

 

_주요 내용

 

“모델을 만들고 서비스해보고자 하는 독자에게 안성맞춤인 책”

“초보자가 쉽게 따라할 수 있는 딥러닝 서비스 만들기”

“군더더기를 쏙 뺀 딥러닝 실습 책”.

 

이 책을 통해 독자들은 다음과 같은 내용을 배울 수 있습니다.

1. 딥러닝 및 인공지능의 기본 개념과 원리를 이해한다.

2. Google Teachable Machine으로 고양이 종 분류 모델 생성을 통해 데이터 수집, 전처리, 모델

훈련 및 평가 과정을 직접 경험한다.

3. AWS 클라우드 서비스를 활용하여 딥러닝 서비스를 구축한다

 

딥러닝과 인공지능 학습 여정에 도움이 되고, 이 분야에서의 기본적인 지식과 경험을 쌓을 수 있습니다. 또한 아이디어를 실생활에 활용하고 서비스를 하는 데 힌트를 얻을 수 있습니다. 이 책과 함께 흥미진진한 딥러닝 서비스 구축 여정을 시작해보세요.

 

[5명의 베타테스터가 직접 따라해보았더니]

 

<파이썬 생활 밀착형 프로젝트>라는 책의 인연으로 베타테스터에 지원하게 되었습니다. 이 책은 순수하게 딥러닝 실습에 중점을 두었기에 제가 잘 따라갈 수 있을까 하는 걱정이 많았습니다. 그러나 걱정은 기우였습니다. 실습 전에 철저한 ‘사전 준비’ 코너가 있어 특별한 어려움 없이 따라갈 수 있었습니다. 1장과 2장을 통해 만든 모델을 어떻게 웹으로 서비스할 수 있는지에 대한 개념이 3장에서 딱 잡혔는데, 신기한 경험이었던 것 같습니다. 정말 내용이 심플하면서 모델을 만들고 서비스를 해보고자 하는 독자에게 안성맞춤으로 구성되어 있습니다.

_이민영(비전공 대학생 3학년)

 

첫 장부터 딥러닝 얘기를 하지는 않아 조금은 당황했습니다. AWS 가입 방법부터 활용법을 아주 자세하게 시작하고 코랩에서 이미지를 읽어 들이는 아주 단순한 작업부터 시작합니다. 그러면서 딥러닝 개념이 조금씩 양념처럼 나오지만 개념이 지루하지 않고 또 바로 실습으로 이어집니다. 딥러닝 초보자라 따라하다가 안 되는 부분도 더러 있었는데, 저자와 소통하면서 초보자가 쉽게 이해할 수 있도록 책에 조금이나마 기여했다는 게 정말 뿌듯합니다. 실습해보면서, “아~~ 모델을 이렇게 만들고 이렇게 서비스하는구나” “모델 만드는 게 이런 의미구나” 등의 전체 숲을 볼 수 있었습니다.

_박상철(개발자 취업 준비생)

 

이 책은 아주 간단한 서비스같지만, 여기에서 좀더 독자의 상상력과 노력이 더해진다면 정말 근사한 딥러닝 서비스를 만들 수 있으리라 생각합니다. 군더더기를 완전히 빼고 실습 위주로 깔끔해서 저에겐 안성맞춤이었습니다. 개념적으로는 뭔지 알겠는데, “그래서 뭘 어쩌라는거지?” 하며 힘들어 하는 분들에게 단비 같은 내용이 될 것 같습니다.

_김인수(2년차 주니어 웹 개발자)

 

간단한 것 같지만, 2장을 통해 학습하고 모델을 만들어내고 그 과정에서 알아야 할 내용들을 이후에 실습을 통해 정말 잘 전달해주신 것 같습니다. 이론적인 설명도 중간중간 곁들여 이해하는 데 많은 도움이 되었습니다.

_임영희(컴퓨터공학 전공 대학생 2학년)

 

마지막 장에서 백엔드 서비스와 프런트엔드 서비스를 종합한 AI/ML Pipeline AWS 클라우드에 직접 작성하고 테스트해 본 게 큰 도움이 되었습니다. 특히 파이프라인 자동화하는 부분이 인상적이었습니다.

_이순철(AI 기업 신입 개발자)

 

_저자 소개

지은이

김효실

컴퓨터공학과 빅데이터를 전공하였다. 서울대학교, 숭실대학교, LG전자, 삼성전자에서 전문강사로 활동하였으며, 국민대학교 겸임교수로 활동하였다.

다양한 산업군을 거치면서 고객들의 문제를 AI/ML로 해결하는 업무를 담당하고 있다. 프로그래머, 데이터사이언티스트, 강사, 겸임교수 등 다양한 경험에서 쌓인 지식을 쉽고, 재밌게 전파하는 사람이 되고 싶다.

그리고, 배움 앞에선 늙지 않는자가 되기 위해 오늘도 노력중이다.

 

황중원

컴퓨터공학을 전공했고 빅데이터와 AI(인공지능) 분야에서 실무 경험을 쌓고 있으며, 주로 자연어 처리, 추천, 컴퓨터비전 도메인에서 활동하였다. 빅데이터에서 AI로 넘어가는 산업계의 큰 흐름에서 쌓아오던 AI 분야의 지식으로 실제 비지니스에 필요한 서비스들을 만들어 런칭하고 있다.

새로운 기술 트랜드를 학습하는 데 관심이 많으며, 소위학습의 피라미드에서 처럼 습득한 지식을 공유하고 전파하여 자신의 것으로 만들고, 사회에 기여하는 것을 목표로 하고 있다.

 

 

_상세 이미지

                                                                                                _

posted by 로드북
:
오탈자 정보 2023. 6. 2. 18:21
posted by 로드북
:
자료실 2023. 6. 2. 18:20
posted by 로드북
:
신간소개 2020. 9. 7. 18:06

 

  ● 저자: 아다치 하루카

  ● 역자: 김태현

  ● 감수: 조휘용

  ● 페이지: 324

  ● 판형: 사륙배판형(188*257)

  ● 도수: 2도

  ● 정가: 25,000원

  ● 발행일: 2020년 9월 21일

  ● ISBN: 978-89-97924-74-5 93000

 

[예제 소스 다운로드] [오탈자 사이트]

 

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

[샘플원고]

sample_machindata.pdf
1.64MB

_도서 내용

이 책은 인공지능이 올바른 데이터를 입력 받아 의미 있는 결과를 도출하는 과정에서 필수적으로 거쳐야 할 데이터 전처리에 관한 입문서이다. 정형 데이터뿐만 아니라 이미지, 텍스트 데이터와 같은 비정형 데이터를 다루는 방법을 제공한다. 데이터를 처리하고 분석하기 위해 가장 많이 사용되는 파이썬 언어를 사용하고, NumPy, Pandas 등 라이브러리를 통해 어떠한 방법으로 데이터를 시각화하고, 의미를 도출할 수 있는지를 자세하게 배울 수 있다. 실습 위주의 책이며, 파이썬을 조금만 알아도 누구나 쉽게 따라해보면서 데이터 전처리에 대한 개념과 방법 등의 기초지식을 충분히 습득할 수 있다. 이것을 기초로 스스로 데이터 전처리 전문가가 되는 길을 찾을 수 있을 것이다.

 

_대상 독자

머신러닝이나 딥러닝을 학습하고 실무에서 모델을 작성해보고자 하는 입문자

인공지능 개발자가 되기 위해 고군분투 중인 취준생 개발자

 

_목차

 

지은이의 글

옮긴이의 글

감수자의 글

다운로드 및 개발환경 안내

일러두기

 

1장 데이터 분석, 활용을 시작하기 전에

1 데이터 기반 시대로

2 데이터 분석 프로젝트에 필요한 요소

3 데이터 분석 인재에게 필요한 스킬

컬럼 | 보충지식 1 BI로 무엇을 할 수 있나?

컬럼 | 보충지식 2 데이터처리가 빠른 툴은?

 

2장 데이터 분석의 프로세스와 환경

1 들어가며

2 비즈니스 이해

3 데이터 이해

4 데이터 준비

5 모델 작성

6 평가

7 배포/공유

8 데이터 분석 환경의 선택

9 주피터 노트북 사용 방법

 

3장 정형 데이터의 전처리 (1)

1 데이터 이해

2 데이터 준비

3 모델 작성

4 다시 데이터 준비로

5 다시 한번 모델 작성으로

컬럼 | 보충지식 1 데이터 결합

컬럼 | 보충지식 2 오버 샘플링

컬럼 | 보충지식 3 분할의 순도

[함께 해봐요 3-1] Pandas를 사용한 파일 업로드

[함께 해봐요 3-2] 데이터의 행수와 열수 확인

[함께 해봐요 3-3] 데이터형 확인

[함께 해봐요 3-4] 결손값의 포함 유무 확인

[함께 해봐요 3-5] 결손값의 개수 파악

[함께 해봐요 3-6] 데이터형이 수치인 항목의 통계량 계산

[함께 해봐요 3-7] age의 히스토그램 작성

[함께 해봐요 3-8] age balance 산포도 작성과 항목 관련성 확인

[함께 해봐요 3-9] 문자열 항목 중 job의 원 그래프 작성 (1)

[함께 해봐요 3-10] 문자열 항목 중 job의 원 그래프 작성 (2)

[함께 해봐요 3-11] y의 원 그래프 작성 및 데이터 분포 확인

[함께 해봐요 3-12] 목적변수 y에 대한 데이터 분포 확인

[함께 해봐요 3-13] 전처리를 위한 코드 입력

[함께 해봐요 3-14] 각 항목의 데이터형 재확인

[함께 해봐요 3-15] 결손값 제외

[함께 해봐요 3-16] 결손값 보완

[함께 해봐요 3-17] 특이값(이상치) 제외

[함께 해봐요 3-18] 값 두 개를 가지는 데이터 변환

[함께 해봐요 3-19] 다수의 값을 가지는 데이터 변환

[함께 해봐요 3-20] 분석 데이터 세트로 완성

[함께 해봐요 3-21] 더미 변수화한 데이터 결합

[함께 해봐요 3-22] CSV 파일로 결과 출력

[함께 해봐요 3-23] Pandas를 사용한 결합의 이미지 표현

[함께 해봐요 3-24] 데이터를 로드하는 코드 작성

[함께 해봐요 3-25] imbalanced-learn 패키지 설치 유무 확인

[함께 해봐요 3-26] 주티퍼랩에 설치된 패키지 확인

[함께 해봐요 3-27] imbalanced-learn 패키지 설치

[함께 해봐요 3-28] 불균형 데이터 세트에 대한 언더 샘플링

[함께 해봐요 3-29] 오버 샘플링 구현

[함께 해봐요 3-30] 결정 트리 알고리즘을 사용한 모델 검증

[함께 해봐요 3-31] 재현율과 적합도 확인

[함께 해봐요 3-32] 파라미터와 기본값 확인

[함께 해봐요 3-33] 그리드 서치를 사용한 모델의 성능 개선

더보기

[함께 해봐요 3-34] 가장 높은 성능일 때의 모델에 대한 파라미터 조합 확인

[함께 해봐요 3-35] 모델 완성 및 영향력 높은 변수 확인

[함께 해봐요 3-36] job 통합 및 새로운 특징량 생성

[함께 해봐요 3-37] month 통합 및 새로운 특징량 생성

[함께 해봐요 3-38] day 통합 및 새로운 특징량 생성

[함께 해봐요 3-39] duration 통합 및 새로운 특징량 생성

함께 해봐요 3-40] previous 통합 및 새로운 특징량 생성

[함께 해봐요 3-41] 더미변수를 만들기 위한 목록 삽입

[함께 해봐요 3-42] get_dummies를 사용한 더미변수 생성

[함께 해봐요 3-43] CSV 파일 내용 변경

[함께 해봐요 3-44] feature_selection을 통한 변수 사용 유무 확인

 

4장 정형 데이터의 전처리 (2)

1 고객의 특성 이해

2 고객의 그룹화

3 잠재적인 요구 추출

[함께 해봐요 4-1] 분석 데이터를 읽기 위한 코드 작성

[함께 해봐요 4-2] 각 항목의 데이터형 재확인

[함께 해봐요 4-3] 범위변환 테스트

[함께 해봐요 4-4] Z변환 테스트

[함께 해봐요 4-5] 각 변수의 평균과 표준편차 값 확인

[함께 해봐요 4-6] 계층형 클러스터링을 이용한 그룹 분할

[함께 해봐요 4-7] 고객별 그룹 확인

[함께 해봐요 4-8] k-Means법을 이용한 그룹 분할

[함께 해봐요 4-9] 클러스터 ID별 데이터 분포 확인

[함께 해봐요 4-10] 클러스터 ID별 데이터 세트와의 결합

[함께 해봐요 4-11] 그룹별 데이터 건수 확인

[함께 해봐요 4-12] 각 그룹의 통계량 계산 및 성질 파악

[함께 해봐요 4-13] PCA를 이용한 신규변수 작성

[함께 해봐요 4-14] 목적변수별 분포 확인

[함께 해봐요 4-15] 목적변수별 산포도 확인

 

5장 이미지 데이터의 전처리

1 데이터 이해

2 기계학습을 위한 데이터 준비

3 딥러닝을 위한 데이터 준비

컬럼 | 보충지식 1 중간층의 추출

[함께 해봐요 5-1] OpenCV 설치

[함께 해봐요 5-2] swiss-army-ant.jpg 읽기

[함께 해봐요 5-3] 배열에 저장된 픽셀값 확인

[함께 해봐요 5-4] 배열 크기 확인

[함께 해봐요 5-5] 컬러 이미지의 픽셀값 확인

[함께 해봐요 5-6] 그레이스케일 이미지로 변환

[함께 해봐요 5-7] 그레이스케일 이미지의 픽셀값 확인

[함께 해봐요 5-8] 이진화 이미지로 변환

[함께 해봐요 5-9] 이진화 이미지의 픽셀값 확인

[함께 해봐요 5-10] 데이터 프레임 형식으로 확인하는 픽셀값

[함께 해봐요 5-11] 신규 노트북 작성

[함께 해봐요 5-12] 설명변수와 목적변수의 세트 작성 (1)

[함께 해봐요 5-13] 설명변수와 목적변수의 세트 작성 (2)

[함께 해봐요 5-14] 이진화 이미지의 침식 처리

[함께 해봐요 5-15] 이진화 이미지의 팽창 처리

[함께 해봐요 5-16] 이진화 이미지의 오프닝 처리

[함께 해봐요 5-17] 이진화 이미지의 클로징 처리

[함께 해봐요 5-18] 그레이스케일 이미지의 히스토그램 작성

[함께 해봐요 5-19] 그레이스케일 이미지의 pixels_df에 대한 t-SNE 적용

[함께 해봐요 5-20] 목적변수별 데이터 분포 확인

[함께 해봐요 5-21] 그레이스케일 이미지의 설명변수와 목적변수의 세트 작성

[함께 해봐요 5-22] 데이터 세트의 분할

[함께 해봐요 5-23] 이미지 반전을 통한 이미지 수 증가

[함께 해봐요 5-24] 블러 처리를 통한 이미지 수 증가

[함께 해봐요 5-25] 명도 변경을 통한 이미지 수 증가

[함께 해봐요 5-26] 중간층 추출 (1)

[함께 해봐요 5-27] 중간층 추출 (2)

 

6장 시계열 데이터의 전처리

1 데이터 이해

2 데이터 준비

3 훈련 데이터 작성

[함께 해봐요 6-1] 분석 데이터 세트 로드

[함께 해봐요 6-2] 데이터의 행수와 열수 확인

[함께 해봐요 6-3] 데이터형 확인

[함께 해봐요 6-4] datetime형으로 데이터 변환

[함께 해봐요 6-5] 한 행 전과의 시간차() 계산

[함께 해봐요 6-6] 경과시간() 계산 (1)

[함께 해봐요 6-7] 결손값 개수 확인

[함께 해봐요 6-8] 각 항목의 통계량 계산

[함께 해봐요 6-9] Matplotlib을 사용한 데이터 시각화

[함께 해봐요 6-10] 전처리 대상의 데이터 읽기

[함께 해봐요 6-11] 결손값 표시

[함께 해봐요 6-12] NaN을 통한 결손값 보완

[함께 해봐요 6-13] 전후의 값 평균치로 보완하는 결손값

[함께 해봐요 6-14] 경과시간() 계산 (2)

[함께 해봐요 6-15] 6시간 단위로 만들기 위한 평균치 계산

[함께 해봐요 6-16] 두 개의 데이터 세트 결합

[함께 해봐요 6-17] event.csv 파일 읽기

[함께 해봐요 6-18] 데이터 집약 및 시간 축 작성 (1)

[함께 해봐요 6-19] 데이터 집약 및 시간 축 작성 (2)

[함께 해봐요 6-20] 특징량과 목적변수 결합

[함께 해봐요 6-21] 슬라이드 창을 사용한 특징량 추출

[함께 해봐요 6-22] 기계학습의 알고리즘 형태로 특징량 변형

[함께 해봐요 6-23] 특징량 세트와 목적변수 결합

[함께 해봐요 6-24] 새로운 노트북 작성 및 코드 입력

[함께 해봐요 6-25] 데이터 시각화

[함께 해봐요 6-26] 데이터 분할

[함께 해봐요 6-27] 데이터 정규화

[함께 해봐요 6-28] 훈련 데이터의 부분시계열 작성

[함께 해봐요 6-29] 부분시계열의 파형 거리(유사도) 측정

[함께 해봐요 6-30] 케라스 실행

[함께 해봐요 6-31] 오토 인코더 네트워크 작성

[함께 해봐요 6-32] 학습 조건 설정 및 학습 실행

[함께 해봐요 6-33] 오차의 수렴 상태 확인

[함께 해봐요 6-34] 출력값 추이 비교

[함께 해봐요 6-35] 이상 스코어 계산

 

7장 자연어 데이터의 전처리

1 데이터 이해

2 기계학습을 위한 데이터 준비

3 딥러닝을 위한 데이터 준비

4 주제 추출을 위한 데이터 준비

컬럼 | 보충지식 1 한글 형태소 분석 환경의 설정

컬럼 | 보충지식 2 2-gram 에지 리스트

[함께 해봐요 7-1] 업로드한 기사를 대상으로 하는 형태소 분석

[함께 해봐요 7-2] konlpy 설치 (1)

[함께 해봐요 7-3] Okt를 통한 형태소 분석

[함께 해봐요 7-4] 정규표현식을 사용한 URL 제거

[함께 해봐요 7-5] 명사인 단어 추출

[함께 해봐요 7-6] konlpy 설치 (2)

[함께 해봐요 7-7] 모든 기사에 대한 형태소 분석 작업 진행

[함께 해봐요 7-8] docterm에 저장한 단어 확인

[함께 해봐요 7-9] 첫 번째 기사의 단어 추출

[함께 해봐요 7-10] label에 저장된 기사 인덱스 확인

[함께 해봐요 7-11] 단어 문서 행렬 작성

[함께 해봐요 7-12] 작성한 단어 문서 행렬의 크기 확인

[함께 해봐요 7-13] 고빈도어와 저빈도어 삭제

[함께 해봐요 7-14] TF-IDF치를 계산한 단어 문서 행렬 작성

[함께 해봐요 7-15] 단어 문서 행렬의 크기 확인

[함께 해봐요 7-16] konlpy 설치 (3)

[함께 해봐요 7-17] 전체 기사에 대한 처리 실행

[함께 해봐요 7-18] 작성한 데이터 세트 크기와 값 확인

[함께 해봐요 7-19] 내림순으로 단어 정렬

[함께 해봐요 7-20] 일련번호를 부여한 사전 작성

[함께 해봐요 7-21] 리스트 길이 정리

[함께 해봐요 7-22] 부족한 패키지 설치

[함께 해봐요 7-23] 부족한 패키지 실행 (1)

[함께 해봐요 7-24] 부족한 패키지 실행 (2)

[함께 해봐요 7-25] 단어 문서 행렬과 label열 결합

[함께 해봐요 7-26] label 0인 문서의 유사도 계산

[함께 해봐요 7-27] 행렬 형식에서 리스트 형식으로 변환

[함께 해봐요 7-28] 동시 출현어 에지 리스트 작성

[함께 해봐요 7-29] 문장에서 2-gram 모델 작성

[함께 해봐요 7-30] 기사 데이터에서 2-gram 모델 작성

[함께 해봐요 7-31] 단어에 ID 부여 (1)

[함께 해봐요 7-32] 단어에 ID 부여 (2)

[함께 해봐요 7-33] 띄어쓰기한 단어에 ID 부여

[함께 해봐요 7-34] 2-gram 모델 작성

[함께 해봐요 7-35] 리스트 bigram에 저장

 

부록

1 주피터랩 로컬 환경 구축

2 이미지 인식 모델 작성

3 기사 분류 모델 작성

4 기사 주제 추출

5 다양한 시각화 툴

[함께 해봐요 A1-1] 주피터랩의 홈 디렉토리 변경

[함께 해봐요 A1-2] 변경 전 소스코드

[함께 해봐요 A1-3] 변경 후 소스코드

[함께 해봐요 A2-1] 학습에 사용하는 네트워크 작성

[함께 해봐요 A2-2] 학습 조건 설정 및 학습 실행

[함께 해봐요 A2-3] 오차 이력 그래프 작성 (1)

[함께 해봐요 A2-4] 정확도 이력 그래프 작성 (1)

[함께 해봐요 A2-5] 학습에 사용하는 네트워크 작성

[함께 해봐요 A2-6] 학습 조건 설정 및 학습 실행

[함께 해봐요 A2-7] 오차 이력 그래프 작성 (2)

[함께 해봐요 A2-8] 정확도 이력 그래프 작성 (2)

[함께 해봐요 A3-1] 명사인 단어만 추출한 데이터 세트 작성

[함께 해봐요 A3-2] [함께 해봐요 7-21] 수정 및 추가 (1)

[함께 해봐요 A3-3] [함께 해봐요 7-21] 수정 및 추가 (2)

[함께 해봐요 A3-4] 학습 조건 설정 및 실행

[함께 해봐요 A3-5] 오차 이력 그래프 작성 (3)

[함께 해봐요 A3-6] 정확도 이력 그래프 작성 (3)

[함께 해봐요 A4-1] 코드 추가 및 실행

[함께 해봐요 A4-2] 네트워크 그래프 작성

[함께 해봐요 A4-3] 작성한 네트워크에 대한 클러스트 계수와 매개 중심성 계산

[함께 해봐요 A4-4] 커뮤니티 추출

[함께 해봐요 A5-1] 워드 클라우드 설치

[함께 해봐요 A5-2] [함께 해봐요 A3-1] 수정 및 실행

[함께 해봐요 A5-3] 5회 이상 출현 단어 추출

 

3_연습문제 해답 289

5_연습문제 해답 298

6_연습문제 해답 306

7_연습문제 해답 313

 

찾아보기

 

_주요 내용

 

“Garbage In, Garbage Out”

전통적인 프로그램처럼 인공지능 또한 데이터가 입력되어 데이터가 출력되는 형태입니다. 프로그램도 데이터를 자료형의 형태로 제대로 입력해주어야 원하는 출력을 얻을 수 있듯이, 인공지능 또한 데이터를 전처리라는 과정을 통해 올바른 형태로 입력해주어야 학습된 결과가 제대로 출력되는 것은 모두 같은 원리입니다. 즉, 올바르지 못한 데이터를 제공한다면, 원하는 결과물을 절대 얻을 수 없습니다. 그만큼 데이터를 어떻게 다루느냐가 매우 중요합니다. 

이 책에서는 다양한 정형 데이터와 비정형 데이터를 대상으로 기본적인 전처리의 노하우를 배우고, 파이썬을 사용해 구현하는 방법을 소개했습니다. 전처리는 과제마다 별도로 설계, 구현해 나가기 때문에, 그 전부를 소개하기는 어렵습니다. 그러나, 이 책에서 설명한 내용은 실무에서도 문제 없이 사용할 수 있습니다.

 

각 장의 연습문제는 반드시 풀어보세요

전처리의 실력을 높이기 위해서는 반복해서 문제를 풀어보는 것이 가장 빠른 지름길입니다. 만약, 잘 안 풀리는 문제가 있어도 끈기 있게 도전해서 풀 수 있도록 학습하시길 바랍니다. 고민하고 고민하며 기어코 해결해내는 것만이 실력을 높이는 왕도입니다.

 

데이터 분석을 주업무로 해나가실 분이라면

머신러닝(딥러닝을 포함해서)의 알고리즘을 사용해 분석 모델을 작성하는 작업은, 현재도 급속하게 자동화가 진행되고 있습니다. 그러나, 모델을 작성하기 위해 투입하는 특징량은, 아직 당분간은 사람의 손을 빌리지 않으면 전처리하기 어려운 상황이 계속될 것 같습니다. 그렇기 때문에, 앞으로 데이터 분석을 주업무로 해 나가실 분들은, 전처리의 실력을 계속 갈고 닦아서 자신의 가치를 높이기를 기원합니다. 그리고 이 책이 거기에 조금이라도 도움이 된다면 행복하겠습니다.

 

 

[주요 특징]

바로바로 실습 가능한 실습문제 160개 수록

스스로 풀어보는 응용문제 35개와 해답 제공

 

저자에게 질문하며 함께 공부하는 백견불여일타 카페 운영 (café.naver.com/codefirst)

 

_저자 소개 

지은이 아다치 하루카

BULB 주식회사 소속의 데이터 과학자이다. SE나 데이터 IT 벤더 데이터 분석 등을 다양하게 경험하였다. 수많은 데이터 분석 프로젝트 외에도 실무자 교육도 틈틈이 병행하고 있으며, 개인 활동으로 기사와 책 쓰기 세미나 강의도 즐긴다. 저서로는 『텐서플로로 시작하는 딥러닝 입문』, 『초보자를 위한 신경망 딥러닝 입문』이 있다. 감수성이 예민한 시기에 고등 전문 학교에서 5 년을 보내버린 탓인지 주변에서 괴짜라는 평가를 받고 있다.

 

옮긴이 김태현

소프트웨어 엔지니어. 번역가.

애플리케이션 프로그래밍으로 시작했지만 일본으로 이주하면서 임베디드 소프트웨어 분야로 전업했다. 현재는 소프트웨어 개발뿐만 아니라 책 번역에도 힘을 쓰고 있다. 로드북에서 『Xcode4로 시작하는 아이폰 프로그래밍』 및 『데이터 시각화 입문』을 번역하였다.

 

감수 조휘용

https://github.com/airplane2230

대학원 진학 전부터 신경망에 관심을 가지고 이를 공부하기 시작했다. 신경망 기술이 많은 사회적 문제를 해결할 수 있다는 매력에 끌려 지금까지 공부하고 있으며, 대학원 과정에서 신경망 기술을 활용하여 수작업을 자동화하는 문제를 다루면서 그 믿음이 굳어졌다. 정보 격차에 관심이 많으며, 이를 해결하기 위해 개인 블로그 운영, 오픈소스 참여 등의 활동을 하고 있다. 로드북에서 『백견불여일타 딥러닝 입문 with 텐서플로우 2.x』를 집필했다.

 

_상세 이미지

 

                                                                                                _

posted by 로드북
:
오탈자 정보 2020. 9. 7. 18:05

2020년 9월 현재 1쇄 기준 예제소스 오타 올립니다. 여러 곳에 소스 오타가 있었습니다. 독자님들께 불편을 드려 죄송합니다.

전처리입문_예제_오탈자리스트_20210215.xlsx
0.02MB

posted by 로드북
:
자료실 2020. 9. 7. 18:04

Chapter 3, 4, 6, 7, A1-5 입니다.

chap3_4_6_7_A1-5.zip
3.09MB

Chapter 5장 소스입니다.

Chap5_Source.zip
0.45MB

Chapter 5장 data의 bees 폴더입니다.

bees.zip
9.59MB

Chapter 5장 data의 ants 폴더입니다. ants_1과 ants_2 파일을 다운 받아 ants 폴더 하나로 합치기 바랍니다.

ants_1.zip
5.03MB
ants_2.zip
4.98MB

posted by 로드북
:
신간소개 2020. 6. 1. 17:24

 

  ● 저자: 조휘용

  ● 페이지: 320

  ● 판형: 사륙배판형(188*257)

  ● 도수: 2

  ● 정가: 22,000원

  ● 발행일: 2020년 6월 8일

  ● ISBN: 978-89-97924-58-5 93000

 

[오탈자사이트 바로가기] [자료실 바로가기]

[강의자료 신청]

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

[샘플원고]

Sample_Deep Learning Basic.pdf
3.87MB

_도서 내용

텐서플로우 2.x 기반의 실습형 딥러닝 입문서다. 초급자용 실습예제 165개를 수록했고 실전 연습문제 15개를 스스로 풀어본다면 딥러닝 초급을 탈출하여 스스로 학습할 줄 아는 독자로 거듭날 수 있을 것이다. 다른 프로그래밍 입문서와 같이 딥러닝 학습 또한 반복 실습만이 입문 단계를 벗어나기 위한 가장 빠른 방법이다. 이 책이 제시하는 학습 방법인, 데이터를 수집하고 모델을 만들며 학습을 시키는 패턴을 꾸준하게 반복 학습하다 보면 다음 단계로 나아가는 길을 찾을 수 있을 것이다.

 

_대상 독자

딥러닝을 처음 공부하고자 하는 학생이나 개발자

선수지식: 파이썬 문법을 이해할 수 있어야 함

 

_목차 

지은이의 글

편집자이자 베타테스터의 글

일러두기

 

1장 준비하기

1.1 시작하며

1.2 케라스란

1.3 케라스 준비하기

1.4 무료 클라우드 사용하기

1.5 API 문서 활용하기

정리해봅시다

 

[함께 해봐요] 텐서플로우를 설치할 가상환경 만들어 보기

[함께 해봐요] 텐서플로우 CPU 버전 설치하기

[함께 해봐요] 텐서플로우 GPU 버전 설치와 테스트

[함께 해봐요] 구글 드라이브 연동하기

[함께 해봐요] 캐글 노트북에서 결과물 얻는 방법

 

2장 살펴보기

2.1 머신러닝 프로세스 간략히 살펴보기

2.2 용어 살펴보기

2.3 데이터셋 살펴보기

2.4 커뮤니티 살펴보기

정리해봅시다

 

[함께 해봐요] 임의로 클래스 확률을 지정하여 그린 ROC 곡선 (chapter02/roccurve.py)

 

3장 기본기 다지기

3.1 기본 연산 해보기

3.2 신경망

3.3 케라스에서의 개발 과정

정리해봅시다

실습해봅시다

 

더보기

[함께 해봐요] 텐서의 차원과 기본 연산 (basic_calc.ipynb)

[함께 해봐요] 즉시 실행 모드를 통한 연산 (basic_calc.ipynb)

[함께 해봐요] 텐서에서 넘파이로, 넘파이에서 텐서로 (basic_calc.ipynb)

[함께 해봐요] @tf.function (basic_calc.ipynb)

[함께 해봐요] OR 게이트 구현해보기 (perceptron.ipynb)

[함께 해봐요] 벡터의 내적 (perceptron.ipynb)

[함께 해봐요] XOR 게이트 구현해보기 + 다층 퍼셉트론 (perceptron.ipynb)

[함께 해봐요] 여러 가지 활성화 함수 (perceptron.ipynb)

[함께 해봐요] 경사하강법 실험해보기 (perceptron.ipynb)

 

4장 신경망 적용해보기

4.1 MNIST Fashion-MNIST

4.2 보스턴 주택 가격 예측

4.3 빙산인가? 선박인가?-1

‘나의 이해도를 측정하자’ 3번 문제

4.4 무슨 옷과 무슨 색?-1

정리해봅시다

실습해봅시다

번외_캐글을 통해 능력 향상시키기

 

[함께 해봐요] MNIST 데이터셋 다운받기 (mnist.ipynb)

[함께 해봐요] 데이터의 형태 확인하기 (mnist.ipynb)

[함께 해봐요] 데이터 그려보기 (mnist.ipynb)

[함께 해봐요] 검증 데이터 만들기 (mnist.ipynb)

[함께 해봐요] 모델 입력을 위한 데이터 전처리 (mnist.ipynb)

[함께 해봐요] 모델 입력을 위한 레이블 전처리 (mnist.ipynb)

[함께 해봐요] 모델 구성하기 (mnist.ipynb)

[함께 해봐요] 소프트맥스와 시그모이드 값의 비교 (mnist.ipynb)

[함께 해봐요] 학습과정 설정하기 (mnist.pynb)

[함께 해봐요] 모델 학습하기 (mnist.ipynb)

[함께 해봐요] history를 통해 확인해볼 수 있는 값 출력하기 (mnist.ipynb)

[함께 해봐요] 학습 결과 그려보기 (mnist.ipynb)

[함께 해봐요] 모델 평가하기 (mnist.ipynb)

[함께 해봐요] 학습된 모델을 통해 값 예측하기 (mnist.ipynb)

[함께 해봐요] 예측값 그려서 확인해보기 (mnist.ipynb)

[함께 해봐요] 모델 평가 방법 1?혼동행렬 (mnist.ipynb)

[함께 해봐요] 모델 평가 방법?2 분류 보고서 (mnist.ipynb)

[함께 해봐요] MNIST 데이터셋 다루기: 전체 코드 (mnist.ipynb)

[함께 해봐요] Fashion-MNIST 데이터셋 다운받기 (fashion-mnist.ipynb)

[함께 해봐요] 데이터 그려보기 (fashion-mnist.ipynb)

[함께 해봐요] 전처리 및 검증 데이터셋 만들기 (fashion-mnist.ipynb)

[함께 해봐요] 첫 번째 모델 구성하기 (fashion-mnist.ipynb)

[함께 해봐요] 학습 과정 설정 및 학습하기 (fashion-mnist.ipynb)

[함께 해봐요] 두 번째 모델 구성하기 (fashion-mnist.ipynb)

[함께 해봐요] 두 모델의 학습 과정 그려보기 (fashion-mnist.ipynb)

[함께 해봐요] 보스턴 주택 가격 데이터셋 다운받기 (boston.ipynb)

[함께 해봐요] 데이터 형태 확인하기 (boston.ipynb)

[함께 해봐요] 데이터 전처리 및 검증 데이터셋 만들기 (boston.ipynb)

[함께 해봐요] 모델 구성하기 (boston.ipynb)

[함께 해봐요] 학습하고 평가하기 (boston.ipynb)

[함께 해봐요] K-폴드 사용하기 (boston.ipynb)

[함께 해봐요] K-폴드 결과 확인하기 (boston.ipynb)

[함께 해봐요] 데이터 불러오기 (clothes1.ipynb)

[함께 해봐요] 이미지 제네레이터 정의 및 모델 구성하기 (clothes1.ipynb)

[함께 해봐요] 데이터 제네레이터 정의하기 (clothes1.ipynb)

[함께 해봐요] 제네레이터를 통해 모델 학습시키기 (clothes1.ipynb)

[함께 해봐요] 테스트 데이터 예측하기 (clothes1.ipynb)

 

5장 컨볼루션 신경망

5.1 일단 사용해보기

5.2 컨볼루션층과 풀링층

5.3 CIFAR-10 살펴보기

5.4 빙산인가? 선박인가?-2

‘나의 이해도를 측정하자’ 3번 문제

5.5 전이 학습

정리해봅시다

실습해봅시다

 

[함께 해봐요] 데이터 살펴보기 (fashion_mnist_cnn.ipynb)

[함께 해봐요] 모델 구성하기 (fashion_mnist_cnn.ipynb)

[함께 해봐요] 모델 학습시키기 (fashion_mnist_cnn.ipynb)

[함께 해봐요] 이미지 필터 사용해보기 (use_image_filter.ipynb)

[함께 해봐요] 이미지 필터 정의하기 (use_image_filter.ipynb)

[함께 해봐요] 이미지 필터 적용하기 (use_image_filter.ipynb)

[함께 해봐요] 이미지 필터를 적용한 최종 결과 (use_image_filter.ipynb)

[함께 해봐요] 풀링 연산 구현하기 (use_image_filter.ipynb)

[함께 해봐요] model.summary( ) 함수 사용하기

[함께 해봐요] plot_model( ) 함수 사용하기

[함께 해봐요] CIFAR-10 데이터셋 다운받기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 데이터 그려보기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 데이터셋 전처리 과정 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 모델 구성하기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 모델 학습하기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 학습 과정 그려보기 (cifar10_cnn.ipynb)

[함께 해봐요] 신경망 시각화해보기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 규제화 함수 사용해보기 (drop_the_overfitting_regularizer.ipynb)

[함께 해봐요] CIFAR-10 드롭아웃 사용해보기 (drop_the_overfitting_dropout.ipynb)

[함께 해봐요] CIFAR-10 배치 정규화 사용해보기 (drop_the_overfitting_BN.ipynb)

[함께 해봐요] 이미지 제네레이터를 사용하여 이미지 그려보기 (basic_image_generator.ipynb)

[함께 해봐요] 이미지 제네레이터를 사용하여 모델 학습하기 (basic_image_generator.ipynb)

[함께 해봐요] 전이 학습 사용해보기 (basic_transfer_learning.ipynb)

[함께 해봐요] 모델 동결 해제하기

[함께 해봐요] 전이 학습을 통해 학습하기 (basic_transfer_learning.ipynb)

 

6장 순환 신경망

6.1 Embedding

6.2 RNN

6.3 LSTM

6.4 Conv1D

6.5 BERT 가볍게 알아보기

정리해봅시다

실습해봅시다

 

[함께 해봐요] 토큰화 작업 수행하기 (use_embedding_layer.ipynb)

[함께 해봐요] 데이터셋 다운받기 (use_embedding_layer.ipynb)

[함께 해봐요] 데이터 형태 확인하기 (use_embedding_layer.ipynb)

[함께 해봐요] 첫 번째 데이터 확인하기 (use_embedding_layer.ipynb)

[함께 해봐요] IMDB 데이터셋에서 가장 빈번하게 사용되는 세 개의 단어

[함께 해봐요] 데이터를 동일한 길이로 맞추기 (use_embedding_layer.ipynb)

[함께 해봐요] Embedding층을 사용하여 모델 구성하기 (use_embedding_layer.ipynb)

[함께 해봐요] 모델 학습시키기 (use_embedding_layer.ipynb)

[함께 해봐요] 모델 평가하기 (use_embedding_layer.ipynb)

[함께 해봐요] 학습 과정 확인하기 (use_embedding_layer.ipynb)

[함께 해봐요] cos 함수를 이용하여 데이터 만들기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] 전처리 과정 수행하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] 데이터 형태 확인하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] SimpleRNN을 사용하여 모델 구성하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] 모델 학습시키기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] 예측 결과 그려보기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] IMDB 데이터셋 사용하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] SimpleRNN층의 출력값 변화 확인하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] reuters 데이터셋 다뤄보기 (use_LSTM_layer.ipynb)

[함께 해봐요] 데이터셋 전처리 과정

[함께 해봐요] LSTM 층을 사용하여 모델 구성하기 (use_LSTM_layer.ipynb)

[함께 해봐요] 모델 학습시키기 (use_LSTM_layer.ipynb)

[함께 해봐요] Conv1D 층을 사용하여 모델 구성하기 (use_Conv1D_layer.ipynb)

[함께 해봐요] 모델 학습시키기 (use_Conv1D_layer.ipynb)

[함께 해봐요] 데이터 생성하기 (use_Conv1D_layer.ipynb)

[함께 해봐요] 모델 구성 및 결과 확인하기 (use_Conv1D_layer.ipynb)

 

7장 초급을 향해서-1

7.1 케라스의 모델 구성 방법

7.2 함수형 API

7.3 빙산인가? 선박인가?-3

‘나의 이해도를 측정하자’ 1번 문제

7.4 무슨 옷과 무슨 색?-2

7.5 케라스 콜백

정리해봅시다

실습해봅시다

 

[함께 해봐요] Sequential( ) 모델 구성 (make_model_three_ways.ipynb)

[함께 해봐요] 서브클래싱 모델 구성 (make_model_three_ways.ipynb)

[함께 해봐요] 함수형 API 모델 구성하기 (make_model_three_ways.ipynb)

[함께 해봐요] MNIST 데이터셋 불러오기 및 전처리 (functional_api_MNIST.ipynb)

[함께 해봐요] 함수형 API를 활용한 모델 구성 및 학습 (functional_api_MNIST.ipynb)

[함께 해봐요] 다중 입출력을 위한 데이터 생성하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 다중 입출력 모델 구성하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 모델 구조 그려보기 (functional_api_multi_io.ipynb)

[함께 해봐요] 모델 구조 확인하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 다중 입출력 모델에서 학습 과정 설정하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 다중 입출력 모델 학습하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 잔차 연결을 사용하여 모델 구성하기 (residual_and_inception_module.ipynb)

[함께 해봐요] 인셉션 모듈을 사용하여 모델 구성하기 (residual_and_inception_module.ipynb)

[함께 해봐요] ResNet을 활용하여 모델 구성하기 (resnet_transfer.ipynb)

[함께 해봐요] 텐서플로우 허브 설치하기

[함께 해봐요] CIFAR-10 데이터셋 불러오기 (use_tensorflow_hub.ipynb)

[함께 해봐요] 전체 모델 구성하기 (use_tensorflow_hub.ipynb)

[함께 해봐요] 모델 학습시키기 (use_tensorflow_hub.ipynb)

[함께 해봐요] (clothes_classification/clothes3.csv)

[함께 해봐요] (clothes_classification/clothes3.csv)

[함께 해봐요] (clothes_classification/clothes3.csv)

[함께 해봐요] 케라스 콜백 사용 준비하기 (use_keras_callbacks.ipynb)

[함께 해봐요] ModelCheckpoint 콜백 사용하기 (use_keras_callbacks.ipynb)

[함께 해봐요] EarlyStopping 콜백 사용하기 (use_keras_callbacks.ipynb)

[함께 해봐요] ReduceLROnPlateau 콜백 사용하기 (use_keras_callbacks.ipynb)

[함께 해봐요] TensorBoard 콜백 사용하기 (use_keras_callbacks.ipynb)

[함께 해봐요] 텐서보드 실행하기 - 1

[함께 해봐요] 텐서보드 실행하기- 2

 

8장 초급을 향해서-2

8.1 커스터마이제이션

8.2 1×1 컨볼루션

8.3 초급 단계를 위해 한걸음 더

정리해봅시다

실습해봅시다

 

[함께 해봐요] Lambda 층 사용하기 (custom_keras_layer.ipynb)

[함께 해봐요] 커스텀 케라스층 사용하기 (custom_keras_layer.ipynb)

[함께 해봐요] Activation 함수에 직접 전달하는 방법 (custom_activation.ipynb)

[함께 해봐요] 커스텀 객체 목록을 사용하는 방법 - 1 (custom_activation.ipynb)

[함께 해봐요] 커스텀 객체 목록을 사용하는 방법 ? 2 (custom_activation.ipynb)

[함께 해봐요] RAdam 설치하기

[함께 해봐요] RAdam의 존재 알기 (custom_activation.ipynb)

[함께 해봐요] 커스텀 손실 함수 정의하기 (custom_loss.ipynb)

[함께 해봐요] 커스텀 손실 함수?MNIST 학습 (custom_loss.ipynb)

[함께 해봐요] 커스텀 평가지표 정의하여 사용하기 (custom_metrics.ipynb)

[함께 해봐요] 특정 시점에 학습률을 조정하는 커스텀 케라스 콜백 (custom_callback.ipynb)

[함께 해봐요] 커스텀 케라스 콜백을 사용하여 모델 학습시키기 (custom_callback.ipynb)

[함께 해봐요] 컨볼루션층만으로 구성한 모델 - 1 (MNIST_1×1_convolution.ipynb)

[함께 해봐요] 컨볼루션층만으로 구성한 모델 - 2 (MNIST_1×1_convolution.ipynb)

 

9장 케라스 튜너

9.1 탐색해야 할 하이퍼파라미터

9.2 케라스튜너 사용하기

9.3 케라스튜너 더 쉽게 사용하기

정리해봅시다

실습해봅시다

 

부록 A: 오토케라스(AutoKeras)

부록 B: tf.data

부록 C: 이렇게도 학습할 수 있어요!

 

[함께 해봐요] 간단한 구조의 CNN 모델 살펴보기 (keras_tuner_example.ipynb)

[함께 해봐요] 케라스 튜너 설치하기

[함께 해봐요] 케라스 튜너 모델 정의하기 (keras_tuner_example.ipynb)

[함께 해봐요] MNIST 데이터셋 준비하기 (keras_tuner_example.ipynb)

[함께 해봐요] RandomSearch 클래스 사용하기 (keras_tuner_example.ipynb)

[함께 해봐요] 탐색할 하이퍼파라미터 살펴보기 (keras_tuner_example.ipynb)

[함께 해봐요] 하이퍼파라미터 탐색하기 (keras_tuner_example.ipynb)

[함께 해봐요] 실험 결과 요약해보기 (keras_tuner_example.ipynb)

[함께 해봐요] 가장 좋은 성능의 모델 불러오기 (keras_tuner_example.ipynb)

[함께 해봐요] 모델 하이퍼파라미터 확인하기 (keras_tuner_example.ipynb)

[함께 해봐요] HyperResNet 사용하기 (keras_tuner_example.ipynb)

[함께 해봐요] (clothes_classification/tf_data_example.py)

[함께 해봐요] 데이터셋 불러오기 ()appendix/training_with_tensorflow2.0.ipynb

[함께 해봐요] 데이터셋 객체 정의하기 ()appendix/training_with_tensorflow2.0.ipynb

[함께 해봐요] 모델 구성하기 (appendix/training_with_tensorflow2.0.ipynb)

[함께 해봐요] 객체 정의하기 (appendix/training_with_tensorflow2.0.ipynb)

[함께 해봐요] 계산 발생 지정하기 (appendix/training_with_tensorflow2.0.ipynb)

[함께 해봐요] 학습 및 검증 스텝 정의하기 (appendix/training_with_tensorflow2.0.ipynb)

[함께 해봐요] 학습 진행하기 (appendix/training_with_tensorflow2.0.ipynb)

 

찾아보기

 

_주요 내용

 

입문 단계에서 포기하지 않고 다음 단계로 넘어갈 수 있게 해주는 책!

이 책을 학습한 후 점차 수학과 이론적 지식이 필요함을 느끼고, 프로세스나 기존에 제공되고 있는 서비스를 보았을 때 “과연 저기에 딥러닝을 적용하면 어떤 결과물이 나올까?”라는 생각을 하게 된다면 본격적으로 딥러닝 엔지니어, 연구자, 서비스 제공자로서의 삶이 시작된 것입니다.

 

“백견불여일타 공부법의 핵심은 반복입니다.

딥러닝도 다른 프로그래밍 입문서와 마찬가지로 반복 학습만이 입문 단계를 벗어나기 위한 가장 빠른 방법입니다. 이 책이 제시하는 학습 방법인, 데이터를 수집하고 모델을 만들며 학습을 시키는 패턴을 꾸준하게 반복 학습하다 보면 다음 단계로 나아가는 길을 찾을 수 있을 것입니다.

 

“연습문제를 직접 풀어보지 않으면 아무리 좋은 입문서라도 백약이 무효입니다.

직접 해보고 반복해서 학습해보는 것만이 낯설음을 익숙함으로 바꿀 수 있는 유일한 길입니다. 힌트까지 제공되니 반드시 혼자만의 힘으로 풀어보고 저자의 모범답안과 비교해보세요. 점핑업 되는 실력을 느낄 수 있을 것입니다.

 

 

[주요 특징]

초급자용 실습 예제 165개 수록!!

힌트와 미션이 주어지는 초급 탈출 실력 점핑용 연습문제 15개 수록!!

강의자료 제공!!

 

[이 책을 제대로 활용하는 방법]

이 책은 데이터를 모으고(이 책에서는 데이터가 주어지지만) 모델을 만들어 내며 학습을 시키고 결과를 내는 등의 일정 패턴을 반복적으로 학습합니다. 이러한 학습을 통해 필요한 라이브러리를 찾아내어 활용할 수 있는 능력을 갖추게 될 것입니다. 결국엔 데이터와 모델, 이 두 가지가 핵심입니다. 이 책에서 제시하는 단편적인 예제만으로는 실용적인 예제를 만들어낼 수 없습니다. 작은 미션들(여기서는 [함께 해봐요] 예제)에 익숙해지는 약간의 고통스런 과정이 필요하고, 그 다음에 얻은 지식을 바탕으로 자신이 원하는 무언가를 스스로 만들어낼 수 있도록 해주는 것이 이 책의 목표입니다.

 

무엇보다 이 책은 “백견불여일타”라는 시리즈 이름처럼 말 그대로 “그래, 그냥 해봐(Just do it)” 같은 책입니다. 중요한 것은 따라 하며 실행해보고 에러를 내뿜을 때 고민해보고 주변의 도움을 받아가며 배우는 과정을 통해 내가 부족한 지식이 무엇인지 깨닫게 된다는 점입니다.

_편집자 & 베타테스트

 

 

_편집자 코멘트

마지막까지 학습하면서 다양한 에러를 만나게 되었습니다. 단순한 구글 드라이브 마운트 문제부터 변수명 하나 잘못되어 고생했던 적도 있었는데, 그럴 때마다 ‘다른 독자들도 같은 실수를 할 수도 있겠구나!’ 하는 생각에 많은 부분을 보완하고 수정했지만, 분명 어딘가에서는 쉽게 넘어가지 못하는 부분도 있을 겁니다. 그땐 언제든지 백견불여일타 카페에서 도움을 얻으시기 바랍니다.

그리고 역시 하이라이트는 [실습해봅시다]였습니다. 몇가지 미션들을 풀어봄으로써 딥러닝을 이해하고 적용하는 데 큰 도움이 된 파트입니다. 편집자로서 다른 프로그래밍 도서의 문제보다 스스로 풀기가 힘들었지만, 본문의 내용과 검색을 통해 가능한 저자가 제공하는 답안을 보지 않고 풀어보려고 했습니다. 놀라운 것은 [실습해봅시다]를 직접 풀어보고 난 후 이해하기 힘들었던 내용도 선명하게 머릿속에서 정리가 되는 느낌이었습니다. 이런 부분은 이 책의 가장 큰 장점이 아닌가 싶습니다.

 

_저자 소개

지은이

조휘용

https://github.com/airplane2230

 

대학원 진학 전부터 신경망에 관심을 가지고 이를 공부하기 시작했다. 신경망 기술이 많은 사회적 문제를 해결할 수 있다는 매력에 끌려 지금까지 공부하고 있으며, 대학원 과정에서 신경망 기술을 활용하여 수작업을 자동화하는 문제를 다루면서 그 믿음이 굳어졌다. 정보 격차에 관심이 많으며, 이를 해결하기 위해 개인 블로그 운영, 오픈소스 참여 등의 활동을 하고 있고, 집필까지 하게 되었다. 

 

_상세이미지

                                                                                                _

posted by 로드북
: