신간소개 2023. 6. 2. 18:22

 

 

  ● 저자: 김효실, 황중원

  ● 페이지: 252

  ● 판형: 188*257

  ● 도수: 2도

  ● 정가: 25,000원

  ● 발행일: 2023년 6월 13일

  ● ISBN: 979-11-982686-7-9 93000

 

 

 

 

 

 

[오탈자 사이트]  [예제 소스[질의응답]    

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

 

_도서 내용

이 책은 “사진을 올리면 강아지/고양이 종을 분류해주는 기능”을 AWS 클라우드 기반으로 서비스를 할 수 있게 만드는 과정을 보여주고 있다. 오픈 API를 활용하며 백엔드는 FastAPI, 프론트엔드는 Streamlit 기반으로 서비스를 구축하며, 마지막으로 AI/ML 파이프라인으로 전과정을 자동화해보는 경험을 할 수 있게 하였다. 초보자도 쉽게 따라할 수 있도록 생략된 과정 없이 자세하게 단계별로 설명하고 있다, 이 책으로 실습을 한번 경험해보 보면 인공지능 서비스를 어떻게 만들 수 있는지를 알 수 있게 되고 다양한 확장된 아이디어를 얻을 수 있다.

 

 

_대상 독자

_다음과 같은 선수 지식이 있는 독자

책에서 자세하게 코드 흐름은 알려주지만, 파이썬의 기초 문법을 숙지하면 훨씬 빠르게 학습할 수 있다.

 

_다음과 같은 목표를 갖고 있는 독자

서비스에 인공지능 기능을 추가해보고 싶은데, 무엇부터 해야 할지 막연하다.

딥러닝 책을 보면 수학, 코드, 모델 학습 등 모르는 얘기만 잔뜩 있어 포기한 경험이 있다.

인공지능 개발자가 되기 위해 기초적인 경험을 해보면서 성취감을 맛보고 싶다.

 

 

_목차

 

지은이의 글

베타테스터의 글

일러두기

 

1장 딥러닝 Open API를 이용한 강아지/고양이 종 분류 프로젝트

1.1 학습목표

1.2 사전 준비하기

1.2.1 AWS 클라우드 계정 생성

1.2.2 AWS 클라우드 액세스 키 발급

1.2.3 캐글 가입 및 데이터 다운로드

1.2.4 코랩 사용법

1.3 사전지식 쌓기

1.3.1 딥러닝

1.3.2 딥러닝 서비스

1.3.3 Open API 정의와 딥러닝 Open API 종류

1.4 구현하기

1.4.1 [스텝 1] AWS 웹화면에서 테스트하기

1.4.2 [스텝 2] AWS Open API 테스트하기

1.5 요약과 정리하기

 

2장 지도학습으로 딥러닝 모델 만들기 - 고양이 종 분류 프로젝트

2.1 학습목표

2.2 사전 준비하기

2.2.1 학습데이터 준비

2.2.2 Google Teachable Machine 사용 준비

2.3 사전지식 쌓기

2.3.1 , 커스텀 AI 분류 모델이 필요한가

2.3.2 분류 문제란 무엇인가

2.3.3 Google Teachable Machine 이해하기

2.3.4 Google Teachable Machine 모델 생성 과정

2.4 구현하기

2.4.1 [스텝 1] 각 데이터별로 학습시키기

2.4.2 [스텝 2] 학습된 결과를 비교하기

2.4.3 [스텝 3] AI모델을 추출하기

2.5 요약과 정리하기

 

3장 내 컴퓨터에서 AI/ML 서비스 구축하기

3.1 학습목표

3.2 사전 준비하기

3.2.1 파이썬 설치하기

3.2.2 FastAPI 설치하기

3.2.3 Streamlit 설치하기

3.3 사전지식 쌓기

3.3.1 딥러닝 모델을 서비스한다는 것의 의미

3.3.2 웹서비스를 구성하는 세 가지 기본 요소

3.3.3 RestAPI

3.3.4 FastAPI

3.3.5 Streamlit

3.4 구현하기

3.4.1 [스텝 1] 작업 파일 구성하기

3.4.2 [스텝 2] 프로토타입 설계하기

3.4.3 [스텝 3] 백엔드 만들기(FastAPI)

3.4.4 [스텝 4] 프런트엔드 만들기(Streamlit)

3.5 요약과 정리하기

 

4 AWS 클라우드에서 AI/ML 서비스 구축하기

4.1 학습목표

4.2 사전 준비하기

4.2.1 AWS 콘솔 로그인

4.2.2 소스코드 다운로드

4.3 사전지식 쌓기

4.3.1 AWS EC2

4.3.2 AWS S3

4.4 구현하기

4.4.1 [스텝 1] S3에 모델 아티펙트 업로드하기

4.4.2 [스텝 2] 생성한 EC2에 서빙 서버 구축하기

4.4.3 [스텝 3] 연동 테스트하기

4.5 요약과 정리하기

 

5 AI/ML Pipeline

5.1 학습목표

5.2 AI/ML Pipeline의 정의

5.3 AI/ML Pipeline의 필요성

5.4 AI/ML Pipeline의 구성요소

5.5 AWS SageMaket 스튜디오에서의 AI/ML Pipeline

5.5.1 SageMaker 프로젝트

5.5.2 SageMaker 프로젝트의 사용 시기

5.5.3 SageMaker 파이프라인

5.5.4 SageMaker 파이프라인 구조

5.5.5 IAM 액세스 관리

5.5.6 Pipeline 매개변수

5.5.7 Pipeline 스텝

5.5.8 Pipeline 정의하기

5.6 요약과 정리하기

 

6장 종합 프로젝트

6.1 학습목표

6.2 사전 준비하기

6.2.1 SageMaker 파이프라인 스텝 설계

6.2.2 소스코드 다운로드

6.2.3 AWS S3에 데이터 구성

6.3 사전지식 쌓기

6.3.1 ResNet18

6.3.2 전이 학습

6.3.3 온디맨드 인스턴스 및 요금(또는 제약사항)

6.4 구현하기

6.4.1 데이터 수집

6.4.2 데이터 검증

6.4.3 SageMaker 파이프라인 정의

6.4.4 API 테스트

6.4.5 서빙 서버 모니터링

6.4.6 서비스 사용을 위한 프런트엔드 애플리케이션과의 연동(interface)

6.5 요약과 정리하기

 

부록 A Anaconda의 설치 및 실행 방법

A.1 윈도우즈 버전

A.2 MacOS 버전

 

 

_주요 내용

 

“모델을 만들고 서비스해보고자 하는 독자에게 안성맞춤인 책”

“초보자가 쉽게 따라할 수 있는 딥러닝 서비스 만들기”

“군더더기를 쏙 뺀 딥러닝 실습 책”.

 

이 책을 통해 독자들은 다음과 같은 내용을 배울 수 있습니다.

1. 딥러닝 및 인공지능의 기본 개념과 원리를 이해한다.

2. Google Teachable Machine으로 고양이 종 분류 모델 생성을 통해 데이터 수집, 전처리, 모델

훈련 및 평가 과정을 직접 경험한다.

3. AWS 클라우드 서비스를 활용하여 딥러닝 서비스를 구축한다

 

딥러닝과 인공지능 학습 여정에 도움이 되고, 이 분야에서의 기본적인 지식과 경험을 쌓을 수 있습니다. 또한 아이디어를 실생활에 활용하고 서비스를 하는 데 힌트를 얻을 수 있습니다. 이 책과 함께 흥미진진한 딥러닝 서비스 구축 여정을 시작해보세요.

 

[5명의 베타테스터가 직접 따라해보았더니]

 

<파이썬 생활 밀착형 프로젝트>라는 책의 인연으로 베타테스터에 지원하게 되었습니다. 이 책은 순수하게 딥러닝 실습에 중점을 두었기에 제가 잘 따라갈 수 있을까 하는 걱정이 많았습니다. 그러나 걱정은 기우였습니다. 실습 전에 철저한 ‘사전 준비’ 코너가 있어 특별한 어려움 없이 따라갈 수 있었습니다. 1장과 2장을 통해 만든 모델을 어떻게 웹으로 서비스할 수 있는지에 대한 개념이 3장에서 딱 잡혔는데, 신기한 경험이었던 것 같습니다. 정말 내용이 심플하면서 모델을 만들고 서비스를 해보고자 하는 독자에게 안성맞춤으로 구성되어 있습니다.

_이민영(비전공 대학생 3학년)

 

첫 장부터 딥러닝 얘기를 하지는 않아 조금은 당황했습니다. AWS 가입 방법부터 활용법을 아주 자세하게 시작하고 코랩에서 이미지를 읽어 들이는 아주 단순한 작업부터 시작합니다. 그러면서 딥러닝 개념이 조금씩 양념처럼 나오지만 개념이 지루하지 않고 또 바로 실습으로 이어집니다. 딥러닝 초보자라 따라하다가 안 되는 부분도 더러 있었는데, 저자와 소통하면서 초보자가 쉽게 이해할 수 있도록 책에 조금이나마 기여했다는 게 정말 뿌듯합니다. 실습해보면서, “아~~ 모델을 이렇게 만들고 이렇게 서비스하는구나” “모델 만드는 게 이런 의미구나” 등의 전체 숲을 볼 수 있었습니다.

_박상철(개발자 취업 준비생)

 

이 책은 아주 간단한 서비스같지만, 여기에서 좀더 독자의 상상력과 노력이 더해진다면 정말 근사한 딥러닝 서비스를 만들 수 있으리라 생각합니다. 군더더기를 완전히 빼고 실습 위주로 깔끔해서 저에겐 안성맞춤이었습니다. 개념적으로는 뭔지 알겠는데, “그래서 뭘 어쩌라는거지?” 하며 힘들어 하는 분들에게 단비 같은 내용이 될 것 같습니다.

_김인수(2년차 주니어 웹 개발자)

 

간단한 것 같지만, 2장을 통해 학습하고 모델을 만들어내고 그 과정에서 알아야 할 내용들을 이후에 실습을 통해 정말 잘 전달해주신 것 같습니다. 이론적인 설명도 중간중간 곁들여 이해하는 데 많은 도움이 되었습니다.

_임영희(컴퓨터공학 전공 대학생 2학년)

 

마지막 장에서 백엔드 서비스와 프런트엔드 서비스를 종합한 AI/ML Pipeline AWS 클라우드에 직접 작성하고 테스트해 본 게 큰 도움이 되었습니다. 특히 파이프라인 자동화하는 부분이 인상적이었습니다.

_이순철(AI 기업 신입 개발자)

 

_저자 소개

지은이

김효실

컴퓨터공학과 빅데이터를 전공하였다. 서울대학교, 숭실대학교, LG전자, 삼성전자에서 전문강사로 활동하였으며, 국민대학교 겸임교수로 활동하였다.

다양한 산업군을 거치면서 고객들의 문제를 AI/ML로 해결하는 업무를 담당하고 있다. 프로그래머, 데이터사이언티스트, 강사, 겸임교수 등 다양한 경험에서 쌓인 지식을 쉽고, 재밌게 전파하는 사람이 되고 싶다.

그리고, 배움 앞에선 늙지 않는자가 되기 위해 오늘도 노력중이다.

 

황중원

컴퓨터공학을 전공했고 빅데이터와 AI(인공지능) 분야에서 실무 경험을 쌓고 있으며, 주로 자연어 처리, 추천, 컴퓨터비전 도메인에서 활동하였다. 빅데이터에서 AI로 넘어가는 산업계의 큰 흐름에서 쌓아오던 AI 분야의 지식으로 실제 비지니스에 필요한 서비스들을 만들어 런칭하고 있다.

새로운 기술 트랜드를 학습하는 데 관심이 많으며, 소위학습의 피라미드에서 처럼 습득한 지식을 공유하고 전파하여 자신의 것으로 만들고, 사회에 기여하는 것을 목표로 하고 있다.

 

 

_상세 이미지

                                                                                                _

posted by 로드북
:
자료실 2023. 6. 2. 18:20
posted by 로드북
:
신간소개 2023. 4. 6. 17:54

 

  ● 저자: 정경문

  ● 페이지: 448

  ● 판형: 182*210

  ● 도수: 4도

  ● 정가: 25,000원

  ● 발행일: 2023년 4월 12일

  ● ISBN: 979-11-982686-0-0 93000

 

 [오탈자 사이트]

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

 

_도서 내용

이 책은 "데이터는 모두에게 동등한 기회를 제공하고 있는가?"의 물음에 답하기 위해, 데이터 리터러시의 대중화에 앞장서고 있는 저자가 쓴 모두의 데이터 입문서다. 모두가 접할 수 있는 일상에서 사례를 찾았고 스토리텔링 방식과 시각적 요소를 활용하여 누구나 데이터를 이해하여 쓸 수 있도록 일반인의 관점에서 집필하여 대중화한 책이며, 단언컨대 데이터에 관한 국내 최초의 자기계발서이기도 하다. 이 책으로 데이터를 읽고 쓸 줄 알며 다가오는 인공지능 시대에 흔들리지 않은 주체가 되길 바란다.

 

_대상 독자

이 책은 학생, 사회인 모두를 위한 데이터 분석 입문서다. 

오늘날 데이터로 이루어진 세상에서 우리는 데이터에 대해 제대로 듣고, 말하고, 읽고, 쓰는 능력을 기른 적이 없다. 그래서 필자는 모두가 이해할 수 있는 데이터 분석과 활용 역량을 말하기, 듣기, 읽기, 쓰기, 이 네 가지 관점에 대해 차근차근 설명해주는 책을 집필하였다. 

데이터 분석에 관한 책을 보면 전문적인 통계 용어나 프로그래밍 언어로 설명하는 방식이 대부분이다. 데이터 활용 능력이 모두에게 필요한 능력이지만 전문가들이 쓰는 용어와 코딩으로 가려져 정작 그 중요한 원리와 가치가 묻혀 있는 것이다.

그래서 빅데이터니 인공지능이니 하는 말들이 남의 나라 이야기가 되었다고 생각한다. 이 책을 통해 기른 데이터 사고, 분석, 활용 능력을 바탕으로 여러분만의 분야에서 최고로 성장하고, 회사와 인생에서 합리적인 의사결정을 했으면 한다. 데이터는 여러분에게 ‘현상을 바라보는 통찰력’과 동시에 ‘미래를 볼 수 있는 혜안’을 줄 것이다.

  

_목차 

차례

추천사

프롤로그

 

1장 데이터로 말하는 시대, 나만의 생존전략이 있나요

1 데이터 홍수에서 살아남자

01 데이터 관점에서의 세대 구분, ‘삼포세대그리고데포세대

02 데이터와 함께 태어나고 성장하는 세대, Grow Up

03 데이터를 이해하고 활용하는 세대, Catch Up

04 데이터가 막연하고 어려워서 포기하고 싶은 세대, Give Up

2 이제는 데이터 생존 시대다

01 인생은 B D 사이의 C

02 기업 경영에서 데이터가 미치는 영향력

03 데이터가 우리 삶에서 차지하는 영향력

3 데이터는 돈이고 정보는 힘이다

01 데이터는 21세기 석유다

02 우리는 데이터의 가치를 어떻게 평가하는가

03 새로운 시대의 3대 생산요소: 플랫폼, 데이터, 인공지능

04 우리나라의 데이터 산업 시장규모는 얼마인가

정리하기

 

 

2장 데이터 분석보다 데이터 활용이 더 중요해요

1 벚꽃이 피는 시기와 데이터

01 데이터란 무엇인가

02 데이터는 모든 것의 근원이다

03 쓰레기를 넣으면 쓰레기가 나온다

04 데이터의 5가지 특성

2 여러분에 대해 많은 것을 알고 있는 X

01 왜 빅테크 기업들은 검색엔진을 무료로 제공할까

02 현대판 헨젤과 그레텔

03 X는 우리를 얼마나 알고 있을까

04 비행기 사고가 무섭다면, 해외여행을 갈 수 없다

3 데이터 분석보다는 데이터 활용이다

01 대한민국, 코딩교육 열풍이 불다

02 과거에도 데이터 분석 툴이 있었다

03 중요한 것은빨대가 아니라 우리가 마실음료

정리하기

 

3장 데이터 활용의 기초 사고력

1 인공지능이 우리 일자리를 대체할까

01 사람보다 느린 자동차를 봤나요

02 자율주행차의 발달로 바라본 일자리 변화

03 미래사회의 일자리

2 인공지능을 부려먹는 역량을 키우자

01 컴퓨팅 사고력이란 무엇인가

정리하기

 

4장 데이터에서 답을 찾고 있나요

1 데이터 안에서 정답을 찾지 말자

01 ‘데이터중심으로 생각하지 말고, ‘목적중심으로 생각하자

02 ‘데이터 활용을 어려워하는사람들을 위한 해법

03 데이터 분석은 그 자체가목적이 아니라방법이다

2 데이터를 활용한 문제해결 3단계

01 문제가 생기면 어떻게 해결할까

02 1단계문제정의: 우선 문제를 짚고 넘어가자

03 2단계원인 분석: 논리적 사고를 통해 원인을 찾자

04 3단계해결방안: 문제를 해결하기 위한 데이터를 찾자

정리하기

 

5장 데이터를 올바로 활용할 수 있어요

1 우리는 왜 데이터 활용에 실패하는가

01 데이터에서 무엇을 얻을 수 있는지에 대한 고민이 필요하다

02 해결하고자 하는 문제가 불분명하다

03 문제정의, 원인분석, 해결방안의 논리흐름이 부족하다

2 목적과 데이터가 일치하는가

정리하기

 

더보기

6장 이야기를 잘 하는 사람이 데이터도 잘 써요

1 데이터로 말하는 게 불편한가요

01 데이터 활용에 필요한 4가지 역량

2 이야기를 사랑하는 데이터

01 뉴스의 흡입력 있는 말하기 비법은스토리텔링’ + ‘데이터

02 감흥 없는 데이터와 눈을 씻고 쳐다보는 데이터는 다르다

3 연구논문에서 데이터를 활용하는 방법

01 연구논문 역시스토리텔링데이터의 결합체다

02 “내 심장(데이터)을 쏴라의 핵심은 데이터다

03 데이터를 표로 넣을까, 그래프로 넣을까

정리하기

 

7장 데이터를 요약해서 말해요

1 분석결과말고결론을 말하라

01 결과는 데이터와 결론을 이어주는 징검다리

2 데이터 기반 주장과 사실의 차이

01 어떤 데이터를 보고 그렇게 말할 수 있나

정리하기

 

8장 건강한 데이터 말하기의 3요소

1 건강한 데이터 말하기를 위한 3요소

01 튼튼한 논리구조 만들기

02 건강한 데이터 기반 근거 챙기기

03 데이터의 적절한 흐름과 양 구성하기

04 데이터 말하기, 결국 무엇이 중요할까

정리하기

 

9장 데이터, 질문하며 들어요

1 데이터, 질문하며 듣기

01 데이터 듣기에서 중요한 4가지 질문

02 데이터: 데이터가 어떻게 만들어졌나

03 분석방법: 가로축과 세로축이 제대로 설정되었나

04 주장과 사실: 편견이 포함되어 있지 않은가

05 논리구조: 부분과 전체의 논리가 일치하는가

정리하기

 

10장 데이터 기반의 비판적 사고력을 키워요

1 데이터야, 팩트 체크를 부탁해

01 우리 삶에 깊숙이 들어온 가짜뉴스

02 데이터 기반의 비판적 사고는 오늘날의 생존능력이다

03 팩트 체크를 하는 도구는 바로 데이터다

04 비판적 사고를 위해 필요한 두 가지 눈

정리하기

 

11장 다른 데이터와 비교하며 들어요

1 데이터 비교 듣기능력평가

01 데이터 관점에서의 Half Full 또는 Half Empty

2 내 월급이와친남보다 적은 이유

01 모두에게 평등한 기회를 주고 데이터를 뽑자

02 평균의 비밀

3 플립 데이터

01 데이터 뒤집기

02 전체와 맥락을 고려하여 데이터 듣기

03 전문용어 없이 데이터를 쉽게 설명할 수 있어야 한다

정리하기

 

12장 데이터에서 관계를 읽어요

1 개인과 사업의 운을 부르는 데이터 복리의 마법

01 복리의 마법으로 행운을 크게 할 수 있다면

02 <오징어 게임>의 다섯 번째 게임, 유리 징검다리를 건너라

03 통계가 거짓말이라고

2 삼각관계보다 상관관계, 인간관계보다 인과관계

01 정말 까마귀 때문에 배가 떨어진 걸까

02 상관관계란 무엇일까

03 상관관계와 인과관계를 구분하는 세 가지 방법

04 인류의 무기, 인과관계에 대한 판단

정리하기

 

13장 데이터 난독증에서 탈출해봐요

1 생존을 위한 데이터 분석

01 통계를 믿을 수 없다면 어떡하나

02 자로 길이를 재듯이, 동일한 기준으로지수를 측정해야 한다

2 아들이 줄넘기 반 대표가 되지 못한 이유

01 하나의 값으로 나타내려는 본능: 평균

02 데이터가 흩어져 있는 정도: 산포도

03 데이터와 평균 간에 얼마나 차이가 있는지 확인: 편차

04 편차의 평균을 구할 수 없으면 제곱으로: 분산

05 제곱하니까 너무 커. 차이의 크기를 원래대로 돌려줘: 표준편차

06 빅데이터에서는만 중요한 것이 아니다

정리하기

 

14장 가설을 검증하며 읽어요

1 데이터를 꿰뚫어 보는 4가지 기술

01 역대 최고 물가상승률

02 데이터를 읽어내는 4가지 기술

2 할인쿠폰과 적립쿠폰은 구매효과 차이가 있을까

01 할인쿠폰과 적립쿠폰 중 어느 것을 발행할까

02 더 많은 사람에게 실험을 해봐야 하지 않을까

03 만약, 실험 결과가 애매하다면 어쩌지

04 우연히 한쪽으로 쏠리는 경우는 없나요

05 지금까지 우리는 그 어렵다는 가설 검증을 한 것이다

06 데이터를 놓치면 실패 박물관으로 갈 수 있다

정리하기

 

15장 데이터를 자유자재로 다뤄요

1 데이터를 강력하게 만드는 방법

01 데이터 붙이기 1: 병합

02 데이터 붙이기 2: 잇기

03 데이터 짝짓기: 매핑

2 데이터를 사이언티스트처럼 데이터를 생각하자

01 기업규모가 커질수록 데이터를 효과적으로 다뤄야 한다

02 나누기: 분할

03 계산하기: 반영

04 다시 모으기: 결합

05 데이터 사이언티스트처럼 생각하자

정리하기

 

16장 데이터를 적절히 저장해요

1 데이터를 알면 화성에서도 살아 돌아올 수 있다

01 아날로그와 디지털로 구분되는 데이터 특징

02 컴퓨터는 데이터를 어떻게 인식하나

03 문자 데이터의 표현

04 아스키 코드

05 아이폰과 갤럭시의 카메라 화소 비교

06 실무에서 디지털 데이터가 중요한 이유

2 진달래와 철쭉을 구분하는 방법

01 진달래와 철쭉 구분하기

02 정형 데이터와 비정형 데이터의 차이

03 비정형 데이터의 중요성

04 기업 데이터의 선순환 구조

정리하기

 

17장 올바른 데이터 구조를 선택해요

1 데이터를구조해 줘

01 기업 실무에서 데이터 쓰기의 중요성

02 가장 안쪽에 있는 물건이 필요한 날이 창고를 정리하는 날이다

03 지구의 종말이 올 때까지의 시간을 계산하자

04 줄을 잘 서야 한다고 들었습니다만

05 편의점에 음료수가 진열되는 방식

06 이름과 전화번호가 뜻하는 것

2 데이터 구조를 왜 알아야 하나

01 창고 정리가 필요한 이유

02 문제를 푸는 공간과 시간

정리하기

 

18장 조직의 데이터를 물 흐르듯이 잘 써요

1 데이터, 물 흐르듯이

01 물은 우리에게 어떻게 왔을까

02. 데이터, 물 쓰듯이

2 데이터 마트, 웨어하우스, 레이크

01 물은 마트에서, 데이터는 데이터 마트에서

02 창고는 정해진 형태에 맞게 물(데이터)을 저장하는 곳이다

03 내 데이터는 호수, 그대 노 저어 오오

04 데이터에 대한 이해로 부서 간의 장벽을 허물자

정리하기

 

19장 데이터 분석과 활용 실무를 세팅해요

1 데이터의 궁극적인 목적은 활용이다

01 데이터, 활용할 수 있는가

02 조직이 데이터를 잘 활용하기 위한 환경 조건

2 데이터 활용 실무 정보

01 데이터 활용을 위해 꼭 알아야 할 플랫폼

02 빅데이터 플랫폼의 활용 사례

정리하기

 

20장 데이터 활용 역량, 조금만 노력하면 쑥쑥 자라요

1 데이터 활용 역량이 중요한 이유

01 이 시대에 필요한 역량

2 개인에게 필요한 4가지 데이터 활용 역량과 현업 꿀팁

01 개인에게 필요한 데이터 활용 역량을 키워요(feat. 현업 꿀팁)

02 문제정의 능력

03 데이터 수집 역량

04 데이터 분석 역량

05 결론 도출 및 추진력

정리하기

 

에필로그

찾아보기

 

주요 내용

 

데이터 입문서, 누구나 배워야 하는 공통적인 자기계발서 영역에 들어오다!

 

직장에서 인정받아 연봉을 높이기 위해 혹은 투자를 잘해 좀더 잘 살아보기 위해 수많은 사람들이 오늘도 자기계발서를 읽는다. 불황기 호황기를 포함한 경제 사이클에 따라 유행하는 자기계발서의 주제도 시시각각 자주 바뀐다. 하지만, 인공지능이 우리 일상으로 파고들면서 이제는 시대와 상관없이 반드시 알아야 할 자기계별 영역이 하나가 생겼다. 바로 “데이터”다. 인공지능의 가장 기본적인 재료가 “데이터”이기 때문이다.

이 책은 "데이터는 모두에게 동등한 기회를 제공하고 있는가?"의 물음에 답하기 위해, 데이터 리터러시의 대중화에 앞장서고 있는 저자가 쓴 모두의 데이터 입문서다. 모두가 접할 수 있는 일상에서 사례를 찾았고 스토리텔링 방식과 시각적 요소를 활용하여 누구나 데이터를 이해하여 쓸 수 있도록 일반인의 관점에서 집필하여 대중화한 책이며, 단언컨대 데이터에 관한 국내 최초의 자기계발서이기도 하다.

이 책으로 데이터를 읽고 쓸 줄 알며 다가오는 인공지능 시대에 흔들리지 않는 주체가 되길 바란다.

 

데이터 분석과 활용 역량 네 가지: 말하기, 듣기, 읽기, 쓰기

[데이터 말하기]

_ 이야기를 잘 하는 사람이 데이터도 잘 써요

_데이터를 요약해서 말해요

_건강한 데이터 말하기의 3요소

[데이터 듣기]

_데이터, 질문하며 들어요

_데이터 기반의 비판적 사고력을 키워요

_다른 데이터와 비교하며 들어요

[데이터 읽기]

_데이터에서 관계를 읽어요

_데이터 난독증에서 탈출해봐요

_가설을 검증하며 읽어요

[데이터 쓰기]

_데이터를 자유자재로 다뤄요

_데이터를 적절히 저장해요

 

 

[추천사]

 

저자는 풍부한 이론과 경험을 가진 데이터 분석 분야의 최고 전문가다. 이 책은 어렵게만 느껴졌던 데이터 분석을 다양한 사례와 시각적인 자료를 통해 이해하기 쉽게 도와준다. 복잡하고 불확실한 세상에서 데이터를 통해 세상을 바라보고 방향을 잡을 수 있는 나침반이 되어 줄 것이다. 

_양현진 (「정보보호개론」 저자, 정보보안 전문가)

 

AI에 대한 변곡점에 서있는 우리에게 "왜 데이터분석을 해야 하는가?"에 대한 질문에서 시작하여, "어떻게 활용해야 하는가?"에 대한 답을 제시하는 입문서이자 지침서이다.

_Google Product Experts 전문가 인터뷰 채널 <안녕 사이시옷>

 

여기저기 쏟아지는 데이터에 의해 변화하는 속도가 그 어느 때보다 빠르다고 느껴지는 요즘, 쉬운 비유와 그림으로 설명된 내용을 읽다 보면 어떻게 데이터를 잘 활용할 수 있을까에 대한 해답을 찾게 해준다.

_주병준(포스코DX 데이터 사이언티스트)

 

살면서 부딪히는 문제는 다양하다. 이 책은 '데이터 분석'을 통해 합리적으로 문제를 해결하는 방법을 알려준다. 책에 저술된 다양한 예시와 자료들로 친절하게 안내한 여정을 따라가다 보면, 데이터 분석을 실생활에 어떻게 적용해볼지 생각이 깔끔하게 정리된다.

_이세정(「누구나 쉽게 배우는 인사노무 사례 100개면 되겠니」 저자, 노무사)

 

회사 내에 ChatGPT와 꼰대가 같이 존재하는 모순적인 시대에 MZ 세대에게 가이드라인이 될 책, 넘치는 데이터 홍수 안에서, 어떻게 살아남을 수 있을까에 대한 통찰을 담은 책이다.

_김영진(인천대학교 기계공학과 산업인공지능 전문인력양성 사업 참여교수)

 

수년간 찾던 책을 이제야 만났다. 한 편에서는 플랫폼, 데이터, 인공지능, 다른 한 편에서는 문해력, 인문학적 소양이 주요 경쟁력이 된 격변의 시대다. 데이터가 막강한 힘을 가지게 된 세상에서 나침반이 되어 줄 필독서. 이 책을 통해 데이터 문해력, 활용력, 스토리텔링의 세 마리 토끼를 잡으시길 바란다.

_김효진(미국 실리콘밸리 테크회사 데이터 분석가)

 

경험과 통찰력으로 포장된 ''이 지배하던 시대를 지나, 우리의 일터는 이미 데이터를 피해갈 수 없는 환경으로 바뀌었다. 현업 전문가의 생생한 팁이 넘쳐 나는 이 책을 통해 모두가 쉽게 데이터와 친해지는 기회를 가져보길 권한다.

_박용근(()알엠피 콘텐츠 연구소장)

 

데이터 분석의 기술을 다루는 다양한 책들이 있지만 이러한 기술들을 실제로 데이터에 적용해 본 사람이라면 그 이후 무엇을 해야 하는지에 대한 막막함을 느껴본 적이 있을 것이다. 저자의 다양한 경험과 노하우를 바탕으로 한 예제들을 살펴보다 보면 이러한 막막함에서 벗어나 어느새 데이터 기반 사고를 하고 있는 자신을 발견하게 될 것이다.

김동우(POSTECH 인공지능대학원/컴퓨터공학과 교수)

 

데이터 기반 사고, 행동으로 체계적인 의사결정을 할 수 있는 실용서. 데이터, 어디서부터 무엇부터 시작해야 할지를 엄두가 나지 않는다면 데이터 분석의 기본적인 개념부터 실제 데이터 분석을 위해 필요한 도구와 기술까지 쉽고 재미있게 설명된 이 책을 권하고 싶다. 데이터 분석의 중요성, 분석 준비, 미래 전망까지 포함된 이 책을 통해 데이터가 주는 혜안을 얻을 수 있다.

_김계수(세명대학교 사회과학대학장 경영학과 교수)

 

무심코 지나쳐 온 일상 생활 속에서 데이터가 갖는 의미를 새삼 일깨워주는 책. 데이터의 가치는 일상에서 나누는 평범한 대화와 매일 마주하는 뉴스 기사에도 녹아 있다. 어쩌면 우리는 우리가 의식하지 못한 채 데이터를 분석하고 활용할 수 있는 역량을 가졌을지도 모를 일이다. 마치 말하기, 듣기, 읽기, 쓰기를 통해 의사소통을 원활하게 할 수 있는 것처럼 말이다. 이 책을 통해 잠재되어 있던 데이터 분석 본능이 꿈틀거리는 것을 느낄 수 있었다.

_심승보("한국건설기술연구원 수석연구원)

 

GPT와 함께 우리 앞으로 성큼 다가와버린 인공 일반 지능(AGI) 시대에 데이터에 대한 인사이트를 길러 주고 활용할 수 있게 해주는 필수 서적이다. 데이터를 무기로 커리어를 만들어낸 역자의 경험을 녹여낸 책으로 쉬운 예시와 그림을 따라가다 보면 데이터에 대한 인사이트와 활용법을 얻을 수 있는 데이터 분석 입문서이다.

_김석중(()브이터치 창업자, 공동대표, 2021 특허청 선정 올해의 발명왕)

 

이 책은 막연한 개념서와는 다르고, 또한 난해한 전문서와도 다르다. 그런데 흥미롭게도 이 모두의 장점을 가지고 있다. 데이터 분석 입문자가 기대하는 정확한 이해 선상에서, 읽기 편하면서도 구체적인 방법론까지 쉽게 담아내고 있다. 관련 전공의 신입생 또는 비전공자에게 적합한 책으로 꼭 읽어볼 가치가 있는 책이다.

김관호(인천대학교 산업경영공학과 교수)

 

최근 마이크로소프트와 OpenAI가 열어젖힌 ChatGPT AI 시대가 성큼 우리 생활 속으로 파고 들고 있다. 하지만 여전히 수많은 중요한 결정들이 데이터에 기반한 과학적 근거가 아니라 그때그때 시류에 편승되어 주먹구구식으로 진행된다. 데이터 리터러시가 없는 상태에서 아무리 멋진 AI 기술이 펼쳐진들 돼지 목의 진주 목걸이밖에 되지 못한다. 이에 실제 기업에서 근무하며 데이터 분석을 탐구하고, 또 그 내용을 커뮤니티 리더십으로 이렇게 멋지게 책으로 공유해 준 작가는 현재를 살아내는 가장 현명한 성장 방식의 예라고 하겠다.

_이소영(마이크로소프트 글로벌인플루언서팀 아시아 리전 메니저)

 

데이터 분석가 커리어를 시작하는 사람들을 위한 책. 현업 전문가부터 데이터 분석가, 인공지능 전문가까지 커리어 확장을 직접 만들어 온 작가의 데이터 분석과 활용노하우와 이론을 적절히, 쉽게 버무린 책이다. 데이터, 코딩, 통계, 인공지능에 대해 잘 몰라서 시작이 어려운 이들에게 충분히 해낼 수 있다는 용기를 불어넣어 줄 것이라고 확신한다.

_윤혜선(웅진씽크빅 에듀테크연구소 CoE 팀장)

 

_저자 소개

지은이 ­­정경문

https://brunch.co.kr/@writerjeong

데이터 사이언티스트.

 

"데이터는 모두에게 동등한 기회를 제공하는가?"에 대한 물음에 답하기 위해 데이터 리터러시의 대중화에 앞장서고 있다.

IT 비전공자로 시작하여 쌓아올린 데이터 실무경험을 바탕으로 현재 포스코 그룹사 R&D센터에서 데이터 분석, 인공지능 개발, 품질기술 업무를 맡고 있다. 지능형(AI) 하자예방 기술 등 빅데이터, 인공지능에 대한 다양한 프로젝트를 통해 정부 포상과 특허를 받았다.

정보기술분야 국가직무능력표준 강사로서 대학생과 직장인 멘토링, 어린이 코딩교육 재능기부 봉사활동을 통해 사회적 책임을 다하고 있다.

 

_상세 이미지

                                                                                                _

 

posted by 로드북
:
오탈자 정보 2023. 4. 6. 17:52

2023년 4월 초판 기준

posted by 로드북
:
신간소개 2022. 10. 26. 15:05

  

  ● 저자: 박규하

  ● 페이지: 272

  ● 판형: 신국판변형(150*213)

  ● 도수: 4도

  ● 정가: 18,000원

  ● 발행일: 2022년 11월 4일

  ● ISBN: 979-11-978880-2-1 93000

 

 

 

 [오탈자 사이트] 

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

_도서 내용

유튜브는 어떤 것을 근거로 추천한 영상이 내가 즐길 수 있는 영상이라고 판단하는 걸까? SNS 게시물의 추천 알고리즘은 어떤 원리일까? 같은 돈을 지불하고도 상품의 노출빈도가 다른 이유는 무엇일까? 우리가 매일 사용하는 서비스의 뒤에는 AI가 있고, 그 중심에 추천 알고리즘이 있다. 우리가 추천 알고리즘을 알아야 하는 이유이다. 마케터, 기획자, 개발자, 크리에이터 등 모두가 알아야 할 IT 상식에 관한 이야기 책이다.

 

_대상 독자

마케터가 추천알고리즘을 이해하고 있다면, 가장 효과적인 성과를 내는 마케팅을 할 수 있습니다.

기획자는 어떤 과정에 추천 알고리즘을 적용할지, 더 멋진 제품을 만들 수 있을지, 아이디어를 얻을 수 있습니다.

개발자라면 적용하려는 분야에 따라 더 적합한 알고리즘을 선택해 추천 시스템을 구현할 수 있습니다. 이 책이 힌트를 줄 수 있습니다.

크리에이터, 블로거라면 내 콘텐츠가 어떤 원리로 사용자에게 추천되는지를 이해할 수 있습니다.

콘텐츠를 매일매일 소비하는 우리 모두는 추천 알고리즘을 이해하면 좀더 똑똑한 소비를 할 수 있게 해줍니다.

 

 _목차

 프롤로그

 1 | 추천 알고리즘을 이해하는 8가지 기본 토대

 

1_ 추천 시스템의 시대

우리는 아주 빠르게 변화하는 시대에 살고 있습니다

우리는 지금 추천 시스템 속에서 살고 있습니다

인공지능과 추천 시스템은 동의어가 아닙니다

 

2_ 선호도 조사

선호도 조사와 협업 필터링

선호도 조사: 명시적 레이팅과 암묵적 피드백

 

3_ 협업 필터링: 아마존의 추천 시스템

아마존에 대해 먼저 알아봅니다

사용자 기반 협업 필터링

아이템 기반 협업 필터링

협업 필터링 적용 사례

 

4_ 해시태그와 메타데이터

메타데이터

해시태그

콘텐츠 분석

사용자 취향

 

5_ 콘텐츠 기반 추천 시스템

콜드 스타트 문제

콘텐츠 기반 추천 시스템

영화 추천 서비스 예시

<기생충>을 좋아하는 사용자 A 예시

<어바웃타임>을 좋아하는 사용자 B 예시

필터 버블(콘텐츠 편식)

 

더보기

6_ 프로그래밍으로 구현한 무의식: 모델 기반 협업 필터링

KNN 알고리즘

잠재 요인 모델 기반 협업 필터링

행렬분해와 모델 기반 추천 시스템

 

7_ 하이브리드 추천 시스템

하이브리드 추천 시스템

SNS 게시물 추천을 위한 하이브리드 추천 시스템

 

8_ GPU와 인공지능

CPU GPU

CPU GPU의 차이

CPU GPU, 예시로 이해하기

딥 러닝과 머신러닝

GPU와 이미지 인식 기술의 발전

 

2 | 서비스로 살펴보는 추천 알고리즘

 

9_ 실시간/비실시간 추천 시스템

실시간 추천 시스템: 옥소폴리틱스

비실시간 추천 시스템: 링크드인

 

10_ 넷플릭스의 추천 시스템

넷플릭스의 등장

넷플릭스 프라이즈

넷플릭스의 추천 시스템

 

11_ 유튜브의 추천 알고리즘

유튜브와 넷플릭스의 차이

유튜브의 역사와 유튜브의 동영상 추천 시스템

유튜브의 특징과 추천 시스템

유튜브 추천 시스템의 발전

현재의 유튜브 랭킹 과정

 

12_ 페이스북의 뉴스피드와 랭킹 알고리즘

페이스북의 등장

페이스북의 뉴스피드와 엣지랭크 알고리즘

새로운 랭킹 알고리즘

랭킹 알고리즘 응용하기

 

13_ 개인 최적화 광고와 추천 시스템

광고의 디지털 전환

개인 최적화 광고의 등장

개인 최적화 광고와 추천 시스템

 

14_ 시간 변화와 추천 시스템

내비게이션의 등장

내비게이션과 추천 시스템

시간의 변화에 따른 교통량 예측 시스템

시간에 따른 취향의 변화를 고려한 추천 시스템

 

에필로그

찾아보기

 

 주요 내용

 

AI는 어떻게 내가 보고싶은 뉴스를 보여줄까?

당신의 시간으로 돈을 버는 알고리즘의 비밀

교양으로 읽는 모두의 알고리즘

유튜브 넷플릭스는 어떻게 당신을 조종하는가



이 책으로 여러분이 얻을 수 있는 것!

 

AI가 가장 많이 활용되는 분야인추천 알고리즘을 이야기합니다. 그러나 다른 기술 서적처럼 수학이나 공학 같은 어려운 내용은 없으니 안심하셔도 됩니다.

 

1. AI는 아직조금 부족하지만 착한 친구에 가깝습니다. 추천 알고리즘을 이해하고 서비스를 이용한다면, 조금 부족하지만 착한 친구인 AI가 상품이나 콘텐츠를 더 똑똑하게 추천할 수 있게 유도할 수 있습니다.

 

2. 온라인 광고에 적용된 추천 알고리즘을 이해하면 보다 적은 돈으로 더 많은 효과를 누릴 수 있습니다. SNS에 적용된 추천 알고리즘을 이해하고 사용하면, 효율적인 방법으로 팔로워를 늘릴 수도 있습니다.

 

3. 광고나 SNS, 유튜브나 넷플릭스, 쿠팡이나 카카오 같은 각종 서비스의 추천 알고리즘을 활용하고 싶은 사람에게 도움을 줄 수 있습니다. 추천 알고리즘을 활용하려고 고민하는 사람에게는 각 분야의 대표적인 서비스의 사례에서 아이디어를 얻을 수 있습니다. 개발자 또는 엔지니어에게는 쉽게 읽을 수 있는 추천 알고리즘 입문서의 역할을 할 수 있습니다.

 

­­무엇을 다루는가

 

이 책의 전반부에서는 추천 시스템을 이루는 기본적인 원리를 다루고, 중반부에는 기술이 발전하게 된 계기를, 그리고 후반부에서는 기업들이 실제 서비스에서 적용하고 있는 추천 시스템을 알아봅니다.

 

1. 추천 알고리즘을 이해하는 8가지 기본 상식

추천 시스템의 시대

선호도 조사

협업 필터링: 아마존의 추천 시스템

해시태그와 메타데이터

콘텐츠 기반 추천 시스템

프로그래밍으로 구현한 무의식: 모델 기반 협업 필터링

하이브리드 추천 시스템

GPU와 인공지능

 

2. 추천 알고리즘은 어떻게 활용되고 있는가

실시간/비실시간 추천 시스템

넷플릭스의 추천 시스템

유튜브의 추천 알고리즘

페이스북의 뉴스피드와 랭킹 알고리즘

개인 최적화 광고와 추천 시스템

시간의 변화와 추천 시스템

 

만약, 이 책을 읽은 여러분이 SNS를 이용해 더 강력한 전파력을 갖기 원한다면, 12장에서 설명한 페이스북의 뉴스피드 추천 알고리즘을 읽어 보길 권합니다. 대부분의 SNS에서는 특정 게시물에 대하여 다른 사람과의 관계와 반응, 상호작용 그리고 적절한 시간을 바탕으로 우선순위를 높게 책정합니다.

추천 시스템을 사용하는 회사에 입사하는 분이라면, 회사의 서비스를 이해하는 데에 분명 도움이 될 겁니다. 추천 시스템처럼 보이지 않는, 검색을 해야 하는 서비스도 마찬가지입니다. 검색을 주력으로 사용하는 서비스는, 보이지 않는 곳에서 추천 시스템을 적절히 사용해야 합니다.

만약, 추천 시스템을 사용하지 않고 있다면, 추천 시스템을 적용해 발생할 수 있는 이익을 제안해도 좋습니다. 이 책의 독자인 여러분이 제안할 멋진 서비스가 벌써부터 기대됩니다.

추천 시스템에 관심이 많은 엔지니어라면, 이 책의 끝이 많이 아쉬울 겁니다. 이 책에서는 직접 구현해 볼 예제나 코드와 그에 대한 설명이 전혀 없기 때문입니다. 그러나 적어도 이 책을 통해 어떤 분야를 더 학습하면 좋을지, 어떤 원리를 적용한 알고리즘을 서비스에 사용해야 할지 아이디어를 얻을 수 있을 겁니다. 예제를 원하는 엔지니어라면, 인터넷을 통해 어렵지 않게 예제를 구할 수 있을 겁니다. 엔지니어분들이 만들어 낼 멋진 추천 시스템을 기다리겠습니다.”
_
에필로그 중에서

 

_저자 소개

지은이 ­­­

박규하

울산과학기술원(UNIST) 전기전자컴퓨터공학부 컴퓨터공학과를 졸업하였다. 대학 재학 중 ㈜페달링(현. 클래스101), ㈜엔스푼즈 등 교내 초기 스타트업에서 기업가마인드를 연마하였고, 이후 뜻이 맞은 대학후배들과 함께 리뷰 기반 병원 추천 플랫폼을 창업하기도 했다. 대학 졸업 후에는 성인 대상 코딩 부트캠프인 ㈜코드스테이츠에 합류하였고, 소프트웨어 엔지니어링 부트캠프(SEB; Software Engineering Bootcamp)에서 교육 엔지니어(Educational Software Engineer) 및 ㈜코드스테이츠의 블록체인 엔지니어링 부트캠프(BEB; Blockchain Engineering Bootcamp)에서 블록체인 엔지니어로서 로서 어려운 내용을 쉽게 설명하는 능력을 키웠다. 현재는 커뮤니티 기반 정치 SNS 플랫폼인 ㈜옥소폴리틱스에서 블록체인 디렉터로 활동하며 사내 블록체인 프로덕트를 전두지휘하고 있다.

 

“추천 시스템은 어떤 서비스에 어떻게 적용하느냐에 따라 검색 성능을 높여주는 시스템이 될 수도 있고, 판매량을 예측하는 시스템이 될 수도 있다. 규모가 작은 서비스에서는 간단한 설계와 알고리즘을 통해 추천 시스템을 적용할 수도 있다. 추천 시스템이 적용된 SNS 등을 활용하거나, 온라인 광고 시스템을 이용하는 분에게는 추천 시스템에 대한 이해도를 높이는 데에 도움이 될 것이다. 추천 시스템의 도입을 고민하거나, 쉬운 설명으로 추천 시스템을 이해하고자 하는 분에게 작은 도움이 되었으면 한다.”

.

_상세 이미지

                                                                                                _

posted by 로드북
:
오탈자 정보 2022. 10. 26. 15:04

2022년 10월 기준

posted by 로드북
:
자료실 2021. 6. 3. 16:43

예제소스는 아래 구글 드라브에서 다운로드 하실 수 있습니다.

https://drive.google.com/drive/folders/10KXyPrJ_KEesvAvjnMpx1DS_md7gaN6H

posted by 로드북
:
신간소개 2020. 9. 7. 18:06

 

  ● 저자: 아다치 하루카

  ● 역자: 김태현

  ● 감수: 조휘용

  ● 페이지: 324

  ● 판형: 사륙배판형(188*257)

  ● 도수: 2도

  ● 정가: 25,000원

  ● 발행일: 2020년 9월 21일

  ● ISBN: 978-89-97924-74-5 93000

 

[예제 소스 다운로드] [오탈자 사이트]

 

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

[샘플원고]

sample_machindata.pdf
1.64MB

_도서 내용

이 책은 인공지능이 올바른 데이터를 입력 받아 의미 있는 결과를 도출하는 과정에서 필수적으로 거쳐야 할 데이터 전처리에 관한 입문서이다. 정형 데이터뿐만 아니라 이미지, 텍스트 데이터와 같은 비정형 데이터를 다루는 방법을 제공한다. 데이터를 처리하고 분석하기 위해 가장 많이 사용되는 파이썬 언어를 사용하고, NumPy, Pandas 등 라이브러리를 통해 어떠한 방법으로 데이터를 시각화하고, 의미를 도출할 수 있는지를 자세하게 배울 수 있다. 실습 위주의 책이며, 파이썬을 조금만 알아도 누구나 쉽게 따라해보면서 데이터 전처리에 대한 개념과 방법 등의 기초지식을 충분히 습득할 수 있다. 이것을 기초로 스스로 데이터 전처리 전문가가 되는 길을 찾을 수 있을 것이다.

 

_대상 독자

머신러닝이나 딥러닝을 학습하고 실무에서 모델을 작성해보고자 하는 입문자

인공지능 개발자가 되기 위해 고군분투 중인 취준생 개발자

 

_목차

 

지은이의 글

옮긴이의 글

감수자의 글

다운로드 및 개발환경 안내

일러두기

 

1장 데이터 분석, 활용을 시작하기 전에

1 데이터 기반 시대로

2 데이터 분석 프로젝트에 필요한 요소

3 데이터 분석 인재에게 필요한 스킬

컬럼 | 보충지식 1 BI로 무엇을 할 수 있나?

컬럼 | 보충지식 2 데이터처리가 빠른 툴은?

 

2장 데이터 분석의 프로세스와 환경

1 들어가며

2 비즈니스 이해

3 데이터 이해

4 데이터 준비

5 모델 작성

6 평가

7 배포/공유

8 데이터 분석 환경의 선택

9 주피터 노트북 사용 방법

 

3장 정형 데이터의 전처리 (1)

1 데이터 이해

2 데이터 준비

3 모델 작성

4 다시 데이터 준비로

5 다시 한번 모델 작성으로

컬럼 | 보충지식 1 데이터 결합

컬럼 | 보충지식 2 오버 샘플링

컬럼 | 보충지식 3 분할의 순도

[함께 해봐요 3-1] Pandas를 사용한 파일 업로드

[함께 해봐요 3-2] 데이터의 행수와 열수 확인

[함께 해봐요 3-3] 데이터형 확인

[함께 해봐요 3-4] 결손값의 포함 유무 확인

[함께 해봐요 3-5] 결손값의 개수 파악

[함께 해봐요 3-6] 데이터형이 수치인 항목의 통계량 계산

[함께 해봐요 3-7] age의 히스토그램 작성

[함께 해봐요 3-8] age balance 산포도 작성과 항목 관련성 확인

[함께 해봐요 3-9] 문자열 항목 중 job의 원 그래프 작성 (1)

[함께 해봐요 3-10] 문자열 항목 중 job의 원 그래프 작성 (2)

[함께 해봐요 3-11] y의 원 그래프 작성 및 데이터 분포 확인

[함께 해봐요 3-12] 목적변수 y에 대한 데이터 분포 확인

[함께 해봐요 3-13] 전처리를 위한 코드 입력

[함께 해봐요 3-14] 각 항목의 데이터형 재확인

[함께 해봐요 3-15] 결손값 제외

[함께 해봐요 3-16] 결손값 보완

[함께 해봐요 3-17] 특이값(이상치) 제외

[함께 해봐요 3-18] 값 두 개를 가지는 데이터 변환

[함께 해봐요 3-19] 다수의 값을 가지는 데이터 변환

[함께 해봐요 3-20] 분석 데이터 세트로 완성

[함께 해봐요 3-21] 더미 변수화한 데이터 결합

[함께 해봐요 3-22] CSV 파일로 결과 출력

[함께 해봐요 3-23] Pandas를 사용한 결합의 이미지 표현

[함께 해봐요 3-24] 데이터를 로드하는 코드 작성

[함께 해봐요 3-25] imbalanced-learn 패키지 설치 유무 확인

[함께 해봐요 3-26] 주티퍼랩에 설치된 패키지 확인

[함께 해봐요 3-27] imbalanced-learn 패키지 설치

[함께 해봐요 3-28] 불균형 데이터 세트에 대한 언더 샘플링

[함께 해봐요 3-29] 오버 샘플링 구현

[함께 해봐요 3-30] 결정 트리 알고리즘을 사용한 모델 검증

[함께 해봐요 3-31] 재현율과 적합도 확인

[함께 해봐요 3-32] 파라미터와 기본값 확인

[함께 해봐요 3-33] 그리드 서치를 사용한 모델의 성능 개선

더보기

[함께 해봐요 3-34] 가장 높은 성능일 때의 모델에 대한 파라미터 조합 확인

[함께 해봐요 3-35] 모델 완성 및 영향력 높은 변수 확인

[함께 해봐요 3-36] job 통합 및 새로운 특징량 생성

[함께 해봐요 3-37] month 통합 및 새로운 특징량 생성

[함께 해봐요 3-38] day 통합 및 새로운 특징량 생성

[함께 해봐요 3-39] duration 통합 및 새로운 특징량 생성

함께 해봐요 3-40] previous 통합 및 새로운 특징량 생성

[함께 해봐요 3-41] 더미변수를 만들기 위한 목록 삽입

[함께 해봐요 3-42] get_dummies를 사용한 더미변수 생성

[함께 해봐요 3-43] CSV 파일 내용 변경

[함께 해봐요 3-44] feature_selection을 통한 변수 사용 유무 확인

 

4장 정형 데이터의 전처리 (2)

1 고객의 특성 이해

2 고객의 그룹화

3 잠재적인 요구 추출

[함께 해봐요 4-1] 분석 데이터를 읽기 위한 코드 작성

[함께 해봐요 4-2] 각 항목의 데이터형 재확인

[함께 해봐요 4-3] 범위변환 테스트

[함께 해봐요 4-4] Z변환 테스트

[함께 해봐요 4-5] 각 변수의 평균과 표준편차 값 확인

[함께 해봐요 4-6] 계층형 클러스터링을 이용한 그룹 분할

[함께 해봐요 4-7] 고객별 그룹 확인

[함께 해봐요 4-8] k-Means법을 이용한 그룹 분할

[함께 해봐요 4-9] 클러스터 ID별 데이터 분포 확인

[함께 해봐요 4-10] 클러스터 ID별 데이터 세트와의 결합

[함께 해봐요 4-11] 그룹별 데이터 건수 확인

[함께 해봐요 4-12] 각 그룹의 통계량 계산 및 성질 파악

[함께 해봐요 4-13] PCA를 이용한 신규변수 작성

[함께 해봐요 4-14] 목적변수별 분포 확인

[함께 해봐요 4-15] 목적변수별 산포도 확인

 

5장 이미지 데이터의 전처리

1 데이터 이해

2 기계학습을 위한 데이터 준비

3 딥러닝을 위한 데이터 준비

컬럼 | 보충지식 1 중간층의 추출

[함께 해봐요 5-1] OpenCV 설치

[함께 해봐요 5-2] swiss-army-ant.jpg 읽기

[함께 해봐요 5-3] 배열에 저장된 픽셀값 확인

[함께 해봐요 5-4] 배열 크기 확인

[함께 해봐요 5-5] 컬러 이미지의 픽셀값 확인

[함께 해봐요 5-6] 그레이스케일 이미지로 변환

[함께 해봐요 5-7] 그레이스케일 이미지의 픽셀값 확인

[함께 해봐요 5-8] 이진화 이미지로 변환

[함께 해봐요 5-9] 이진화 이미지의 픽셀값 확인

[함께 해봐요 5-10] 데이터 프레임 형식으로 확인하는 픽셀값

[함께 해봐요 5-11] 신규 노트북 작성

[함께 해봐요 5-12] 설명변수와 목적변수의 세트 작성 (1)

[함께 해봐요 5-13] 설명변수와 목적변수의 세트 작성 (2)

[함께 해봐요 5-14] 이진화 이미지의 침식 처리

[함께 해봐요 5-15] 이진화 이미지의 팽창 처리

[함께 해봐요 5-16] 이진화 이미지의 오프닝 처리

[함께 해봐요 5-17] 이진화 이미지의 클로징 처리

[함께 해봐요 5-18] 그레이스케일 이미지의 히스토그램 작성

[함께 해봐요 5-19] 그레이스케일 이미지의 pixels_df에 대한 t-SNE 적용

[함께 해봐요 5-20] 목적변수별 데이터 분포 확인

[함께 해봐요 5-21] 그레이스케일 이미지의 설명변수와 목적변수의 세트 작성

[함께 해봐요 5-22] 데이터 세트의 분할

[함께 해봐요 5-23] 이미지 반전을 통한 이미지 수 증가

[함께 해봐요 5-24] 블러 처리를 통한 이미지 수 증가

[함께 해봐요 5-25] 명도 변경을 통한 이미지 수 증가

[함께 해봐요 5-26] 중간층 추출 (1)

[함께 해봐요 5-27] 중간층 추출 (2)

 

6장 시계열 데이터의 전처리

1 데이터 이해

2 데이터 준비

3 훈련 데이터 작성

[함께 해봐요 6-1] 분석 데이터 세트 로드

[함께 해봐요 6-2] 데이터의 행수와 열수 확인

[함께 해봐요 6-3] 데이터형 확인

[함께 해봐요 6-4] datetime형으로 데이터 변환

[함께 해봐요 6-5] 한 행 전과의 시간차() 계산

[함께 해봐요 6-6] 경과시간() 계산 (1)

[함께 해봐요 6-7] 결손값 개수 확인

[함께 해봐요 6-8] 각 항목의 통계량 계산

[함께 해봐요 6-9] Matplotlib을 사용한 데이터 시각화

[함께 해봐요 6-10] 전처리 대상의 데이터 읽기

[함께 해봐요 6-11] 결손값 표시

[함께 해봐요 6-12] NaN을 통한 결손값 보완

[함께 해봐요 6-13] 전후의 값 평균치로 보완하는 결손값

[함께 해봐요 6-14] 경과시간() 계산 (2)

[함께 해봐요 6-15] 6시간 단위로 만들기 위한 평균치 계산

[함께 해봐요 6-16] 두 개의 데이터 세트 결합

[함께 해봐요 6-17] event.csv 파일 읽기

[함께 해봐요 6-18] 데이터 집약 및 시간 축 작성 (1)

[함께 해봐요 6-19] 데이터 집약 및 시간 축 작성 (2)

[함께 해봐요 6-20] 특징량과 목적변수 결합

[함께 해봐요 6-21] 슬라이드 창을 사용한 특징량 추출

[함께 해봐요 6-22] 기계학습의 알고리즘 형태로 특징량 변형

[함께 해봐요 6-23] 특징량 세트와 목적변수 결합

[함께 해봐요 6-24] 새로운 노트북 작성 및 코드 입력

[함께 해봐요 6-25] 데이터 시각화

[함께 해봐요 6-26] 데이터 분할

[함께 해봐요 6-27] 데이터 정규화

[함께 해봐요 6-28] 훈련 데이터의 부분시계열 작성

[함께 해봐요 6-29] 부분시계열의 파형 거리(유사도) 측정

[함께 해봐요 6-30] 케라스 실행

[함께 해봐요 6-31] 오토 인코더 네트워크 작성

[함께 해봐요 6-32] 학습 조건 설정 및 학습 실행

[함께 해봐요 6-33] 오차의 수렴 상태 확인

[함께 해봐요 6-34] 출력값 추이 비교

[함께 해봐요 6-35] 이상 스코어 계산

 

7장 자연어 데이터의 전처리

1 데이터 이해

2 기계학습을 위한 데이터 준비

3 딥러닝을 위한 데이터 준비

4 주제 추출을 위한 데이터 준비

컬럼 | 보충지식 1 한글 형태소 분석 환경의 설정

컬럼 | 보충지식 2 2-gram 에지 리스트

[함께 해봐요 7-1] 업로드한 기사를 대상으로 하는 형태소 분석

[함께 해봐요 7-2] konlpy 설치 (1)

[함께 해봐요 7-3] Okt를 통한 형태소 분석

[함께 해봐요 7-4] 정규표현식을 사용한 URL 제거

[함께 해봐요 7-5] 명사인 단어 추출

[함께 해봐요 7-6] konlpy 설치 (2)

[함께 해봐요 7-7] 모든 기사에 대한 형태소 분석 작업 진행

[함께 해봐요 7-8] docterm에 저장한 단어 확인

[함께 해봐요 7-9] 첫 번째 기사의 단어 추출

[함께 해봐요 7-10] label에 저장된 기사 인덱스 확인

[함께 해봐요 7-11] 단어 문서 행렬 작성

[함께 해봐요 7-12] 작성한 단어 문서 행렬의 크기 확인

[함께 해봐요 7-13] 고빈도어와 저빈도어 삭제

[함께 해봐요 7-14] TF-IDF치를 계산한 단어 문서 행렬 작성

[함께 해봐요 7-15] 단어 문서 행렬의 크기 확인

[함께 해봐요 7-16] konlpy 설치 (3)

[함께 해봐요 7-17] 전체 기사에 대한 처리 실행

[함께 해봐요 7-18] 작성한 데이터 세트 크기와 값 확인

[함께 해봐요 7-19] 내림순으로 단어 정렬

[함께 해봐요 7-20] 일련번호를 부여한 사전 작성

[함께 해봐요 7-21] 리스트 길이 정리

[함께 해봐요 7-22] 부족한 패키지 설치

[함께 해봐요 7-23] 부족한 패키지 실행 (1)

[함께 해봐요 7-24] 부족한 패키지 실행 (2)

[함께 해봐요 7-25] 단어 문서 행렬과 label열 결합

[함께 해봐요 7-26] label 0인 문서의 유사도 계산

[함께 해봐요 7-27] 행렬 형식에서 리스트 형식으로 변환

[함께 해봐요 7-28] 동시 출현어 에지 리스트 작성

[함께 해봐요 7-29] 문장에서 2-gram 모델 작성

[함께 해봐요 7-30] 기사 데이터에서 2-gram 모델 작성

[함께 해봐요 7-31] 단어에 ID 부여 (1)

[함께 해봐요 7-32] 단어에 ID 부여 (2)

[함께 해봐요 7-33] 띄어쓰기한 단어에 ID 부여

[함께 해봐요 7-34] 2-gram 모델 작성

[함께 해봐요 7-35] 리스트 bigram에 저장

 

부록

1 주피터랩 로컬 환경 구축

2 이미지 인식 모델 작성

3 기사 분류 모델 작성

4 기사 주제 추출

5 다양한 시각화 툴

[함께 해봐요 A1-1] 주피터랩의 홈 디렉토리 변경

[함께 해봐요 A1-2] 변경 전 소스코드

[함께 해봐요 A1-3] 변경 후 소스코드

[함께 해봐요 A2-1] 학습에 사용하는 네트워크 작성

[함께 해봐요 A2-2] 학습 조건 설정 및 학습 실행

[함께 해봐요 A2-3] 오차 이력 그래프 작성 (1)

[함께 해봐요 A2-4] 정확도 이력 그래프 작성 (1)

[함께 해봐요 A2-5] 학습에 사용하는 네트워크 작성

[함께 해봐요 A2-6] 학습 조건 설정 및 학습 실행

[함께 해봐요 A2-7] 오차 이력 그래프 작성 (2)

[함께 해봐요 A2-8] 정확도 이력 그래프 작성 (2)

[함께 해봐요 A3-1] 명사인 단어만 추출한 데이터 세트 작성

[함께 해봐요 A3-2] [함께 해봐요 7-21] 수정 및 추가 (1)

[함께 해봐요 A3-3] [함께 해봐요 7-21] 수정 및 추가 (2)

[함께 해봐요 A3-4] 학습 조건 설정 및 실행

[함께 해봐요 A3-5] 오차 이력 그래프 작성 (3)

[함께 해봐요 A3-6] 정확도 이력 그래프 작성 (3)

[함께 해봐요 A4-1] 코드 추가 및 실행

[함께 해봐요 A4-2] 네트워크 그래프 작성

[함께 해봐요 A4-3] 작성한 네트워크에 대한 클러스트 계수와 매개 중심성 계산

[함께 해봐요 A4-4] 커뮤니티 추출

[함께 해봐요 A5-1] 워드 클라우드 설치

[함께 해봐요 A5-2] [함께 해봐요 A3-1] 수정 및 실행

[함께 해봐요 A5-3] 5회 이상 출현 단어 추출

 

3_연습문제 해답 289

5_연습문제 해답 298

6_연습문제 해답 306

7_연습문제 해답 313

 

찾아보기

 

_주요 내용

 

“Garbage In, Garbage Out”

전통적인 프로그램처럼 인공지능 또한 데이터가 입력되어 데이터가 출력되는 형태입니다. 프로그램도 데이터를 자료형의 형태로 제대로 입력해주어야 원하는 출력을 얻을 수 있듯이, 인공지능 또한 데이터를 전처리라는 과정을 통해 올바른 형태로 입력해주어야 학습된 결과가 제대로 출력되는 것은 모두 같은 원리입니다. 즉, 올바르지 못한 데이터를 제공한다면, 원하는 결과물을 절대 얻을 수 없습니다. 그만큼 데이터를 어떻게 다루느냐가 매우 중요합니다. 

이 책에서는 다양한 정형 데이터와 비정형 데이터를 대상으로 기본적인 전처리의 노하우를 배우고, 파이썬을 사용해 구현하는 방법을 소개했습니다. 전처리는 과제마다 별도로 설계, 구현해 나가기 때문에, 그 전부를 소개하기는 어렵습니다. 그러나, 이 책에서 설명한 내용은 실무에서도 문제 없이 사용할 수 있습니다.

 

각 장의 연습문제는 반드시 풀어보세요

전처리의 실력을 높이기 위해서는 반복해서 문제를 풀어보는 것이 가장 빠른 지름길입니다. 만약, 잘 안 풀리는 문제가 있어도 끈기 있게 도전해서 풀 수 있도록 학습하시길 바랍니다. 고민하고 고민하며 기어코 해결해내는 것만이 실력을 높이는 왕도입니다.

 

데이터 분석을 주업무로 해나가실 분이라면

머신러닝(딥러닝을 포함해서)의 알고리즘을 사용해 분석 모델을 작성하는 작업은, 현재도 급속하게 자동화가 진행되고 있습니다. 그러나, 모델을 작성하기 위해 투입하는 특징량은, 아직 당분간은 사람의 손을 빌리지 않으면 전처리하기 어려운 상황이 계속될 것 같습니다. 그렇기 때문에, 앞으로 데이터 분석을 주업무로 해 나가실 분들은, 전처리의 실력을 계속 갈고 닦아서 자신의 가치를 높이기를 기원합니다. 그리고 이 책이 거기에 조금이라도 도움이 된다면 행복하겠습니다.

 

 

[주요 특징]

바로바로 실습 가능한 실습문제 160개 수록

스스로 풀어보는 응용문제 35개와 해답 제공

 

저자에게 질문하며 함께 공부하는 백견불여일타 카페 운영 (café.naver.com/codefirst)

 

_저자 소개 

지은이 아다치 하루카

BULB 주식회사 소속의 데이터 과학자이다. SE나 데이터 IT 벤더 데이터 분석 등을 다양하게 경험하였다. 수많은 데이터 분석 프로젝트 외에도 실무자 교육도 틈틈이 병행하고 있으며, 개인 활동으로 기사와 책 쓰기 세미나 강의도 즐긴다. 저서로는 『텐서플로로 시작하는 딥러닝 입문』, 『초보자를 위한 신경망 딥러닝 입문』이 있다. 감수성이 예민한 시기에 고등 전문 학교에서 5 년을 보내버린 탓인지 주변에서 괴짜라는 평가를 받고 있다.

 

옮긴이 김태현

소프트웨어 엔지니어. 번역가.

애플리케이션 프로그래밍으로 시작했지만 일본으로 이주하면서 임베디드 소프트웨어 분야로 전업했다. 현재는 소프트웨어 개발뿐만 아니라 책 번역에도 힘을 쓰고 있다. 로드북에서 『Xcode4로 시작하는 아이폰 프로그래밍』 및 『데이터 시각화 입문』을 번역하였다.

 

감수 조휘용

https://github.com/airplane2230

대학원 진학 전부터 신경망에 관심을 가지고 이를 공부하기 시작했다. 신경망 기술이 많은 사회적 문제를 해결할 수 있다는 매력에 끌려 지금까지 공부하고 있으며, 대학원 과정에서 신경망 기술을 활용하여 수작업을 자동화하는 문제를 다루면서 그 믿음이 굳어졌다. 정보 격차에 관심이 많으며, 이를 해결하기 위해 개인 블로그 운영, 오픈소스 참여 등의 활동을 하고 있다. 로드북에서 『백견불여일타 딥러닝 입문 with 텐서플로우 2.x』를 집필했다.

 

_상세 이미지

 

                                                                                                _

posted by 로드북
:
신간소개 2020. 6. 1. 17:24

 

  ● 저자: 조휘용

  ● 페이지: 320

  ● 판형: 사륙배판형(188*257)

  ● 도수: 2

  ● 정가: 22,000원

  ● 발행일: 2020년 6월 8일

  ● ISBN: 978-89-97924-58-5 93000

 

[오탈자사이트 바로가기] [자료실 바로가기]

[강의자료 신청]

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

[샘플원고]

Sample_Deep Learning Basic.pdf
3.87MB

_도서 내용

텐서플로우 2.x 기반의 실습형 딥러닝 입문서다. 초급자용 실습예제 165개를 수록했고 실전 연습문제 15개를 스스로 풀어본다면 딥러닝 초급을 탈출하여 스스로 학습할 줄 아는 독자로 거듭날 수 있을 것이다. 다른 프로그래밍 입문서와 같이 딥러닝 학습 또한 반복 실습만이 입문 단계를 벗어나기 위한 가장 빠른 방법이다. 이 책이 제시하는 학습 방법인, 데이터를 수집하고 모델을 만들며 학습을 시키는 패턴을 꾸준하게 반복 학습하다 보면 다음 단계로 나아가는 길을 찾을 수 있을 것이다.

 

_대상 독자

딥러닝을 처음 공부하고자 하는 학생이나 개발자

선수지식: 파이썬 문법을 이해할 수 있어야 함

 

_목차 

지은이의 글

편집자이자 베타테스터의 글

일러두기

 

1장 준비하기

1.1 시작하며

1.2 케라스란

1.3 케라스 준비하기

1.4 무료 클라우드 사용하기

1.5 API 문서 활용하기

정리해봅시다

 

[함께 해봐요] 텐서플로우를 설치할 가상환경 만들어 보기

[함께 해봐요] 텐서플로우 CPU 버전 설치하기

[함께 해봐요] 텐서플로우 GPU 버전 설치와 테스트

[함께 해봐요] 구글 드라이브 연동하기

[함께 해봐요] 캐글 노트북에서 결과물 얻는 방법

 

2장 살펴보기

2.1 머신러닝 프로세스 간략히 살펴보기

2.2 용어 살펴보기

2.3 데이터셋 살펴보기

2.4 커뮤니티 살펴보기

정리해봅시다

 

[함께 해봐요] 임의로 클래스 확률을 지정하여 그린 ROC 곡선 (chapter02/roccurve.py)

 

3장 기본기 다지기

3.1 기본 연산 해보기

3.2 신경망

3.3 케라스에서의 개발 과정

정리해봅시다

실습해봅시다

 

더보기

[함께 해봐요] 텐서의 차원과 기본 연산 (basic_calc.ipynb)

[함께 해봐요] 즉시 실행 모드를 통한 연산 (basic_calc.ipynb)

[함께 해봐요] 텐서에서 넘파이로, 넘파이에서 텐서로 (basic_calc.ipynb)

[함께 해봐요] @tf.function (basic_calc.ipynb)

[함께 해봐요] OR 게이트 구현해보기 (perceptron.ipynb)

[함께 해봐요] 벡터의 내적 (perceptron.ipynb)

[함께 해봐요] XOR 게이트 구현해보기 + 다층 퍼셉트론 (perceptron.ipynb)

[함께 해봐요] 여러 가지 활성화 함수 (perceptron.ipynb)

[함께 해봐요] 경사하강법 실험해보기 (perceptron.ipynb)

 

4장 신경망 적용해보기

4.1 MNIST Fashion-MNIST

4.2 보스턴 주택 가격 예측

4.3 빙산인가? 선박인가?-1

‘나의 이해도를 측정하자’ 3번 문제

4.4 무슨 옷과 무슨 색?-1

정리해봅시다

실습해봅시다

번외_캐글을 통해 능력 향상시키기

 

[함께 해봐요] MNIST 데이터셋 다운받기 (mnist.ipynb)

[함께 해봐요] 데이터의 형태 확인하기 (mnist.ipynb)

[함께 해봐요] 데이터 그려보기 (mnist.ipynb)

[함께 해봐요] 검증 데이터 만들기 (mnist.ipynb)

[함께 해봐요] 모델 입력을 위한 데이터 전처리 (mnist.ipynb)

[함께 해봐요] 모델 입력을 위한 레이블 전처리 (mnist.ipynb)

[함께 해봐요] 모델 구성하기 (mnist.ipynb)

[함께 해봐요] 소프트맥스와 시그모이드 값의 비교 (mnist.ipynb)

[함께 해봐요] 학습과정 설정하기 (mnist.pynb)

[함께 해봐요] 모델 학습하기 (mnist.ipynb)

[함께 해봐요] history를 통해 확인해볼 수 있는 값 출력하기 (mnist.ipynb)

[함께 해봐요] 학습 결과 그려보기 (mnist.ipynb)

[함께 해봐요] 모델 평가하기 (mnist.ipynb)

[함께 해봐요] 학습된 모델을 통해 값 예측하기 (mnist.ipynb)

[함께 해봐요] 예측값 그려서 확인해보기 (mnist.ipynb)

[함께 해봐요] 모델 평가 방법 1?혼동행렬 (mnist.ipynb)

[함께 해봐요] 모델 평가 방법?2 분류 보고서 (mnist.ipynb)

[함께 해봐요] MNIST 데이터셋 다루기: 전체 코드 (mnist.ipynb)

[함께 해봐요] Fashion-MNIST 데이터셋 다운받기 (fashion-mnist.ipynb)

[함께 해봐요] 데이터 그려보기 (fashion-mnist.ipynb)

[함께 해봐요] 전처리 및 검증 데이터셋 만들기 (fashion-mnist.ipynb)

[함께 해봐요] 첫 번째 모델 구성하기 (fashion-mnist.ipynb)

[함께 해봐요] 학습 과정 설정 및 학습하기 (fashion-mnist.ipynb)

[함께 해봐요] 두 번째 모델 구성하기 (fashion-mnist.ipynb)

[함께 해봐요] 두 모델의 학습 과정 그려보기 (fashion-mnist.ipynb)

[함께 해봐요] 보스턴 주택 가격 데이터셋 다운받기 (boston.ipynb)

[함께 해봐요] 데이터 형태 확인하기 (boston.ipynb)

[함께 해봐요] 데이터 전처리 및 검증 데이터셋 만들기 (boston.ipynb)

[함께 해봐요] 모델 구성하기 (boston.ipynb)

[함께 해봐요] 학습하고 평가하기 (boston.ipynb)

[함께 해봐요] K-폴드 사용하기 (boston.ipynb)

[함께 해봐요] K-폴드 결과 확인하기 (boston.ipynb)

[함께 해봐요] 데이터 불러오기 (clothes1.ipynb)

[함께 해봐요] 이미지 제네레이터 정의 및 모델 구성하기 (clothes1.ipynb)

[함께 해봐요] 데이터 제네레이터 정의하기 (clothes1.ipynb)

[함께 해봐요] 제네레이터를 통해 모델 학습시키기 (clothes1.ipynb)

[함께 해봐요] 테스트 데이터 예측하기 (clothes1.ipynb)

 

5장 컨볼루션 신경망

5.1 일단 사용해보기

5.2 컨볼루션층과 풀링층

5.3 CIFAR-10 살펴보기

5.4 빙산인가? 선박인가?-2

‘나의 이해도를 측정하자’ 3번 문제

5.5 전이 학습

정리해봅시다

실습해봅시다

 

[함께 해봐요] 데이터 살펴보기 (fashion_mnist_cnn.ipynb)

[함께 해봐요] 모델 구성하기 (fashion_mnist_cnn.ipynb)

[함께 해봐요] 모델 학습시키기 (fashion_mnist_cnn.ipynb)

[함께 해봐요] 이미지 필터 사용해보기 (use_image_filter.ipynb)

[함께 해봐요] 이미지 필터 정의하기 (use_image_filter.ipynb)

[함께 해봐요] 이미지 필터 적용하기 (use_image_filter.ipynb)

[함께 해봐요] 이미지 필터를 적용한 최종 결과 (use_image_filter.ipynb)

[함께 해봐요] 풀링 연산 구현하기 (use_image_filter.ipynb)

[함께 해봐요] model.summary( ) 함수 사용하기

[함께 해봐요] plot_model( ) 함수 사용하기

[함께 해봐요] CIFAR-10 데이터셋 다운받기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 데이터 그려보기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 데이터셋 전처리 과정 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 모델 구성하기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 모델 학습하기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 학습 과정 그려보기 (cifar10_cnn.ipynb)

[함께 해봐요] 신경망 시각화해보기 (cifar10_cnn.ipynb)

[함께 해봐요] CIFAR-10 규제화 함수 사용해보기 (drop_the_overfitting_regularizer.ipynb)

[함께 해봐요] CIFAR-10 드롭아웃 사용해보기 (drop_the_overfitting_dropout.ipynb)

[함께 해봐요] CIFAR-10 배치 정규화 사용해보기 (drop_the_overfitting_BN.ipynb)

[함께 해봐요] 이미지 제네레이터를 사용하여 이미지 그려보기 (basic_image_generator.ipynb)

[함께 해봐요] 이미지 제네레이터를 사용하여 모델 학습하기 (basic_image_generator.ipynb)

[함께 해봐요] 전이 학습 사용해보기 (basic_transfer_learning.ipynb)

[함께 해봐요] 모델 동결 해제하기

[함께 해봐요] 전이 학습을 통해 학습하기 (basic_transfer_learning.ipynb)

 

6장 순환 신경망

6.1 Embedding

6.2 RNN

6.3 LSTM

6.4 Conv1D

6.5 BERT 가볍게 알아보기

정리해봅시다

실습해봅시다

 

[함께 해봐요] 토큰화 작업 수행하기 (use_embedding_layer.ipynb)

[함께 해봐요] 데이터셋 다운받기 (use_embedding_layer.ipynb)

[함께 해봐요] 데이터 형태 확인하기 (use_embedding_layer.ipynb)

[함께 해봐요] 첫 번째 데이터 확인하기 (use_embedding_layer.ipynb)

[함께 해봐요] IMDB 데이터셋에서 가장 빈번하게 사용되는 세 개의 단어

[함께 해봐요] 데이터를 동일한 길이로 맞추기 (use_embedding_layer.ipynb)

[함께 해봐요] Embedding층을 사용하여 모델 구성하기 (use_embedding_layer.ipynb)

[함께 해봐요] 모델 학습시키기 (use_embedding_layer.ipynb)

[함께 해봐요] 모델 평가하기 (use_embedding_layer.ipynb)

[함께 해봐요] 학습 과정 확인하기 (use_embedding_layer.ipynb)

[함께 해봐요] cos 함수를 이용하여 데이터 만들기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] 전처리 과정 수행하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] 데이터 형태 확인하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] SimpleRNN을 사용하여 모델 구성하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] 모델 학습시키기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] 예측 결과 그려보기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] IMDB 데이터셋 사용하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] SimpleRNN층의 출력값 변화 확인하기 (use_SimpleRNN_layer.ipynb)

[함께 해봐요] reuters 데이터셋 다뤄보기 (use_LSTM_layer.ipynb)

[함께 해봐요] 데이터셋 전처리 과정

[함께 해봐요] LSTM 층을 사용하여 모델 구성하기 (use_LSTM_layer.ipynb)

[함께 해봐요] 모델 학습시키기 (use_LSTM_layer.ipynb)

[함께 해봐요] Conv1D 층을 사용하여 모델 구성하기 (use_Conv1D_layer.ipynb)

[함께 해봐요] 모델 학습시키기 (use_Conv1D_layer.ipynb)

[함께 해봐요] 데이터 생성하기 (use_Conv1D_layer.ipynb)

[함께 해봐요] 모델 구성 및 결과 확인하기 (use_Conv1D_layer.ipynb)

 

7장 초급을 향해서-1

7.1 케라스의 모델 구성 방법

7.2 함수형 API

7.3 빙산인가? 선박인가?-3

‘나의 이해도를 측정하자’ 1번 문제

7.4 무슨 옷과 무슨 색?-2

7.5 케라스 콜백

정리해봅시다

실습해봅시다

 

[함께 해봐요] Sequential( ) 모델 구성 (make_model_three_ways.ipynb)

[함께 해봐요] 서브클래싱 모델 구성 (make_model_three_ways.ipynb)

[함께 해봐요] 함수형 API 모델 구성하기 (make_model_three_ways.ipynb)

[함께 해봐요] MNIST 데이터셋 불러오기 및 전처리 (functional_api_MNIST.ipynb)

[함께 해봐요] 함수형 API를 활용한 모델 구성 및 학습 (functional_api_MNIST.ipynb)

[함께 해봐요] 다중 입출력을 위한 데이터 생성하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 다중 입출력 모델 구성하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 모델 구조 그려보기 (functional_api_multi_io.ipynb)

[함께 해봐요] 모델 구조 확인하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 다중 입출력 모델에서 학습 과정 설정하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 다중 입출력 모델 학습하기 (functional_api_multi_io.ipynb)

[함께 해봐요] 잔차 연결을 사용하여 모델 구성하기 (residual_and_inception_module.ipynb)

[함께 해봐요] 인셉션 모듈을 사용하여 모델 구성하기 (residual_and_inception_module.ipynb)

[함께 해봐요] ResNet을 활용하여 모델 구성하기 (resnet_transfer.ipynb)

[함께 해봐요] 텐서플로우 허브 설치하기

[함께 해봐요] CIFAR-10 데이터셋 불러오기 (use_tensorflow_hub.ipynb)

[함께 해봐요] 전체 모델 구성하기 (use_tensorflow_hub.ipynb)

[함께 해봐요] 모델 학습시키기 (use_tensorflow_hub.ipynb)

[함께 해봐요] (clothes_classification/clothes3.csv)

[함께 해봐요] (clothes_classification/clothes3.csv)

[함께 해봐요] (clothes_classification/clothes3.csv)

[함께 해봐요] 케라스 콜백 사용 준비하기 (use_keras_callbacks.ipynb)

[함께 해봐요] ModelCheckpoint 콜백 사용하기 (use_keras_callbacks.ipynb)

[함께 해봐요] EarlyStopping 콜백 사용하기 (use_keras_callbacks.ipynb)

[함께 해봐요] ReduceLROnPlateau 콜백 사용하기 (use_keras_callbacks.ipynb)

[함께 해봐요] TensorBoard 콜백 사용하기 (use_keras_callbacks.ipynb)

[함께 해봐요] 텐서보드 실행하기 - 1

[함께 해봐요] 텐서보드 실행하기- 2

 

8장 초급을 향해서-2

8.1 커스터마이제이션

8.2 1×1 컨볼루션

8.3 초급 단계를 위해 한걸음 더

정리해봅시다

실습해봅시다

 

[함께 해봐요] Lambda 층 사용하기 (custom_keras_layer.ipynb)

[함께 해봐요] 커스텀 케라스층 사용하기 (custom_keras_layer.ipynb)

[함께 해봐요] Activation 함수에 직접 전달하는 방법 (custom_activation.ipynb)

[함께 해봐요] 커스텀 객체 목록을 사용하는 방법 - 1 (custom_activation.ipynb)

[함께 해봐요] 커스텀 객체 목록을 사용하는 방법 ? 2 (custom_activation.ipynb)

[함께 해봐요] RAdam 설치하기

[함께 해봐요] RAdam의 존재 알기 (custom_activation.ipynb)

[함께 해봐요] 커스텀 손실 함수 정의하기 (custom_loss.ipynb)

[함께 해봐요] 커스텀 손실 함수?MNIST 학습 (custom_loss.ipynb)

[함께 해봐요] 커스텀 평가지표 정의하여 사용하기 (custom_metrics.ipynb)

[함께 해봐요] 특정 시점에 학습률을 조정하는 커스텀 케라스 콜백 (custom_callback.ipynb)

[함께 해봐요] 커스텀 케라스 콜백을 사용하여 모델 학습시키기 (custom_callback.ipynb)

[함께 해봐요] 컨볼루션층만으로 구성한 모델 - 1 (MNIST_1×1_convolution.ipynb)

[함께 해봐요] 컨볼루션층만으로 구성한 모델 - 2 (MNIST_1×1_convolution.ipynb)

 

9장 케라스 튜너

9.1 탐색해야 할 하이퍼파라미터

9.2 케라스튜너 사용하기

9.3 케라스튜너 더 쉽게 사용하기

정리해봅시다

실습해봅시다

 

부록 A: 오토케라스(AutoKeras)

부록 B: tf.data

부록 C: 이렇게도 학습할 수 있어요!

 

[함께 해봐요] 간단한 구조의 CNN 모델 살펴보기 (keras_tuner_example.ipynb)

[함께 해봐요] 케라스 튜너 설치하기

[함께 해봐요] 케라스 튜너 모델 정의하기 (keras_tuner_example.ipynb)

[함께 해봐요] MNIST 데이터셋 준비하기 (keras_tuner_example.ipynb)

[함께 해봐요] RandomSearch 클래스 사용하기 (keras_tuner_example.ipynb)

[함께 해봐요] 탐색할 하이퍼파라미터 살펴보기 (keras_tuner_example.ipynb)

[함께 해봐요] 하이퍼파라미터 탐색하기 (keras_tuner_example.ipynb)

[함께 해봐요] 실험 결과 요약해보기 (keras_tuner_example.ipynb)

[함께 해봐요] 가장 좋은 성능의 모델 불러오기 (keras_tuner_example.ipynb)

[함께 해봐요] 모델 하이퍼파라미터 확인하기 (keras_tuner_example.ipynb)

[함께 해봐요] HyperResNet 사용하기 (keras_tuner_example.ipynb)

[함께 해봐요] (clothes_classification/tf_data_example.py)

[함께 해봐요] 데이터셋 불러오기 ()appendix/training_with_tensorflow2.0.ipynb

[함께 해봐요] 데이터셋 객체 정의하기 ()appendix/training_with_tensorflow2.0.ipynb

[함께 해봐요] 모델 구성하기 (appendix/training_with_tensorflow2.0.ipynb)

[함께 해봐요] 객체 정의하기 (appendix/training_with_tensorflow2.0.ipynb)

[함께 해봐요] 계산 발생 지정하기 (appendix/training_with_tensorflow2.0.ipynb)

[함께 해봐요] 학습 및 검증 스텝 정의하기 (appendix/training_with_tensorflow2.0.ipynb)

[함께 해봐요] 학습 진행하기 (appendix/training_with_tensorflow2.0.ipynb)

 

찾아보기

 

_주요 내용

 

입문 단계에서 포기하지 않고 다음 단계로 넘어갈 수 있게 해주는 책!

이 책을 학습한 후 점차 수학과 이론적 지식이 필요함을 느끼고, 프로세스나 기존에 제공되고 있는 서비스를 보았을 때 “과연 저기에 딥러닝을 적용하면 어떤 결과물이 나올까?”라는 생각을 하게 된다면 본격적으로 딥러닝 엔지니어, 연구자, 서비스 제공자로서의 삶이 시작된 것입니다.

 

“백견불여일타 공부법의 핵심은 반복입니다.

딥러닝도 다른 프로그래밍 입문서와 마찬가지로 반복 학습만이 입문 단계를 벗어나기 위한 가장 빠른 방법입니다. 이 책이 제시하는 학습 방법인, 데이터를 수집하고 모델을 만들며 학습을 시키는 패턴을 꾸준하게 반복 학습하다 보면 다음 단계로 나아가는 길을 찾을 수 있을 것입니다.

 

“연습문제를 직접 풀어보지 않으면 아무리 좋은 입문서라도 백약이 무효입니다.

직접 해보고 반복해서 학습해보는 것만이 낯설음을 익숙함으로 바꿀 수 있는 유일한 길입니다. 힌트까지 제공되니 반드시 혼자만의 힘으로 풀어보고 저자의 모범답안과 비교해보세요. 점핑업 되는 실력을 느낄 수 있을 것입니다.

 

 

[주요 특징]

초급자용 실습 예제 165개 수록!!

힌트와 미션이 주어지는 초급 탈출 실력 점핑용 연습문제 15개 수록!!

강의자료 제공!!

 

[이 책을 제대로 활용하는 방법]

이 책은 데이터를 모으고(이 책에서는 데이터가 주어지지만) 모델을 만들어 내며 학습을 시키고 결과를 내는 등의 일정 패턴을 반복적으로 학습합니다. 이러한 학습을 통해 필요한 라이브러리를 찾아내어 활용할 수 있는 능력을 갖추게 될 것입니다. 결국엔 데이터와 모델, 이 두 가지가 핵심입니다. 이 책에서 제시하는 단편적인 예제만으로는 실용적인 예제를 만들어낼 수 없습니다. 작은 미션들(여기서는 [함께 해봐요] 예제)에 익숙해지는 약간의 고통스런 과정이 필요하고, 그 다음에 얻은 지식을 바탕으로 자신이 원하는 무언가를 스스로 만들어낼 수 있도록 해주는 것이 이 책의 목표입니다.

 

무엇보다 이 책은 “백견불여일타”라는 시리즈 이름처럼 말 그대로 “그래, 그냥 해봐(Just do it)” 같은 책입니다. 중요한 것은 따라 하며 실행해보고 에러를 내뿜을 때 고민해보고 주변의 도움을 받아가며 배우는 과정을 통해 내가 부족한 지식이 무엇인지 깨닫게 된다는 점입니다.

_편집자 & 베타테스트

 

 

_편집자 코멘트

마지막까지 학습하면서 다양한 에러를 만나게 되었습니다. 단순한 구글 드라이브 마운트 문제부터 변수명 하나 잘못되어 고생했던 적도 있었는데, 그럴 때마다 ‘다른 독자들도 같은 실수를 할 수도 있겠구나!’ 하는 생각에 많은 부분을 보완하고 수정했지만, 분명 어딘가에서는 쉽게 넘어가지 못하는 부분도 있을 겁니다. 그땐 언제든지 백견불여일타 카페에서 도움을 얻으시기 바랍니다.

그리고 역시 하이라이트는 [실습해봅시다]였습니다. 몇가지 미션들을 풀어봄으로써 딥러닝을 이해하고 적용하는 데 큰 도움이 된 파트입니다. 편집자로서 다른 프로그래밍 도서의 문제보다 스스로 풀기가 힘들었지만, 본문의 내용과 검색을 통해 가능한 저자가 제공하는 답안을 보지 않고 풀어보려고 했습니다. 놀라운 것은 [실습해봅시다]를 직접 풀어보고 난 후 이해하기 힘들었던 내용도 선명하게 머릿속에서 정리가 되는 느낌이었습니다. 이런 부분은 이 책의 가장 큰 장점이 아닌가 싶습니다.

 

_저자 소개

지은이

조휘용

https://github.com/airplane2230

 

대학원 진학 전부터 신경망에 관심을 가지고 이를 공부하기 시작했다. 신경망 기술이 많은 사회적 문제를 해결할 수 있다는 매력에 끌려 지금까지 공부하고 있으며, 대학원 과정에서 신경망 기술을 활용하여 수작업을 자동화하는 문제를 다루면서 그 믿음이 굳어졌다. 정보 격차에 관심이 많으며, 이를 해결하기 위해 개인 블로그 운영, 오픈소스 참여 등의 활동을 하고 있고, 집필까지 하게 되었다. 

 

_상세이미지

                                                                                                _

posted by 로드북
:
신간소개 2020. 3. 11. 10:52

  

  ● 저자: 이재현, 이정설

  ● 페이지: 248

  ● 판형: 신국판(150*225) 

  ● 도수: 2

  ● 정가: 16,000원

  ● 발행일: 2020년 3월 18일

  ● ISBN: 978-89-97924-50-9 93000

 

 

 

[오탈자사이트 바로가기]

[강컴] [교보] [반디] [알라딘] [예스24] [인터파크]

[샘플원고]

Sample_수학의 시대.pdf
2.89MB

 

_도서 내용

바야흐로 인공지능의 시대다. 인공지능 패러다임은 누가 뭐라 해도수학의 시대를 의미한다. 여기 두 명의 프로그래머이자 저자는 중요한 순간에 수학을 선택했고, 그것이 그들의 삶에 어떻게 무기가 되었는지를 이야기해주고 있다. 먹고 살기 바쁘다는 이유로 외면하지 말자. 여러분 인생의 아주 중요한 순간에 수학이 꼭 필요할 것이다.

 

_대상 독자

_”수학이라는 키워드를 항상 가슴속에 품고 살아가고 있는 (예비) 프로그래머

_지속적 수학 공부에 동기가 필요한 프로그래머

_수학을 자신의 무기로 만들어가는 프로그래머들의 인생 궤적이 궁금하다면

 

_목차

서문_프로그래머에게 수학이 필요한가

1_수학의 시대 _글쓴이 이재현

프롤로그

1_개발자 되기

나의 소개

내가 놓친 것들

모든 것은 비워진다

운명적인 만남

낙오자의 날개, 코딩

그리고 개발자가 되기까지

아직은 목마르다

2_개발자의 날개, 수학

내면의 목소리

문과생의 수학

한글의 수학

하나, , , 그리고 많다

직선적으로 생각하면

한글 계수

3_인공지능의 시대

세상은 만만하지 않다

막현호은莫見乎隱 막현호미莫顯乎微

암흑 속의 나침반

그리고 아무도 없었다

에필로그

 

2_수학은 어떻게 무기가 되는가 _글쓴이 이정설

프롤로그

4_재미있는 수학 이야기

수학적으로 0, 차원이 다른 이야기

통계적 검정과 p-value

5_알고리즘과 수학

모든 부분집합

다익스트라 알고리즘

상관계수

스티릭트 위크 오더링

(Strict weak ordering)

6_수학은 내게 어떻게 무기가 되었는가

스무딩(Smoothing)

3차 다항식 스플라인 곡선

혈류 동역학 분석

관찰되지 않은 종의 개수를 추정하는 방법

(Unseen species approximation)

마무리하며

7_프로그래머가 수학 공부를 어떻게 할 것인가

선형대수

대수학

수치해석학

통계, 통계, 통계

마무리하며

에필로그

 

_주요 내용

수학은 프로그래머에게 어떻게 무기가 되는가

저자들은 수학이 자신들의 삶에 어떻게 무기가 되었는지를 이야기해주고 있다.

이재현 저자는 인문학 전공자로 SI를 거쳐 솔루션 개발자로, 그리고 이제 인공지능 전문가로 끊임없이 도전해왔다. 최근에는 과학 철학 수학까지 아우르는 <지능의 본질과 구현>을 집필하기도 하였고 우수학술도서로 선정되기도 하였다. 그 중심에는 바로 ‘수학’이 있었다.

생물학을 전공한 이정설 저자는 인생에서 가장 중요한 순간으로 수학 공부에 전념했던 대학원 시절을 꼽을 정도로 수학에 대한 애착이 누구보다도 강하다. 이제는 ‘수학 없는 코딩은 상상할 수 없다’고 이야기한다. 책에서도 자주 언급되지만, 약간의 수학적 지식을 발휘하면 엄청난 시간과 비용을 절약할 수 있는 수많은 사례들이 있다며, 안타까움을 토로하기도 한다. 

이 책은 수학의 중요성에 대해 얘기하고 있는 것은 아니다. 수학은 몰라도 되지만, 수학을 알면 더 많은 기회가 생긴다는 것을 얘기하고 더 나은 도전적인 일을 해낼 수 있다는 이야기를 하고 있다. 

“내가 다른 사람보다 똑똑했거나, 혹은 더 뛰어난 인간이라는 증거는 내 삶의 어디에서도 찾아 볼 수는 없다. 다만 난 내 노력으로 ‘컴퓨터’를 얻었고, 그 너머의 진실을 추구하다가 ‘수학’을 발견하게 된 것이다. 비즈니스 격언에 이런 말이 있다: ‘버스에 올바른 사람들을 태울 수만 있다면, 어디로 갈지, 어떻게 갈지는 그 사람들이 알려 줄 것이다.’ 나는 내 인생의 버스를 운전하면서, ‘컴퓨터’와 ‘수학’을 태웠고, 지금 내 인생은 그들이 일러주는 데로 가고 있는 중이다.

_저자 이재현

 

수학은 극단적으로 추상화한 개념들을 대상으로 한 것이기 때문에 현실의 문제를 그렇게 수학적인 것으로 바꾸기 위해서는 이미 수학에 익숙해지는 기간이 필요하다. 바로 이 기간은 어렵기만 한 수학 공부가 도대체 어떻게 도움이 될 것인지 가늠이 되지 않고, 그래서 무의미한 것에 시간을 쏟는 것이 아닌가 하는 의구심이 반복적으로 들 수도 있다. 하지만 1 2년이 지나면서 자신이 공부하고 배우는 것을 자신이 개발하고 해결해야 하는 문제에 적용하려는 노력을 꾸준히 한다면 어느 순간부터 그 필요성을 몸으로 느낄 수 있을 것이다.

_저자 이정설

 

[책 속의 말, , ] 

인공지능이라는 패러다임이 소프트웨어 구현의 필수요소가 되고 있는 요즈음은 비교적 고등수학에 속하는 ‘미적분’에 대한 지식이 없이는 먹고 살기 힘들 거라는 암시마저 주고 있어서, 확실히 시대가 바뀌긴 바뀌었다. _p.13

 

대한민국에는 두 가지 공포가 있다: 영어에 대한 공포, 수학에 대한 공포. 가장 중요하다고 생각하는 두 과목에 대한 교육과 투자는 결국과목에 대한 공포를 키우는 데 기여하고 있는 것이다

_64페이지

 

나는 주식을 산 경험도 없고, 차트를 그려본 적도 없는 개발자였는데, 그 전체 솔루션을 개발해야 하는 상황에 처해 있었던 것이다. 앞으로 나아가기도 어렵고, 뒤로 물러날 수도 없는 상황에서 내 정신세계는 이 난국을 타개할 유일한 방법은수학이라고 나에게 일러주고 있었던 것이다.

_68페이지

 

컴퓨터는 실수를 다루기보단 이산수를 다루기로 했다. 컴퓨터를 만든 우리의 선배 인류들은 이렇게 컴퓨터의 한계에서 컴퓨터의 위대성을 정의했다. 다른 식으로 말하면, 컴퓨터 연산은 그 한계를 인식했기 때문에 위대한 기계가 될 수 있었던 것이다. _p.90

 

이론(최소제곱법)의 등장은 19세기 초반이었지만, 21세기 컴퓨팅 능력에 이르러서야 이런 종류의 계산법이 널리 성행하는 것도 무리가 아니다. _121페이지

 

나는 시간이 있을 때마다 종이에 단순한 인공뉴런과 활성화 함수를 그리고, 거기에 오차함수를 연결한 뒤, 그걸 되짚어 가며 편미분식을 쓰고, 결과값을 계산했다. _125페이지

 

포아송 분포가 무엇인지 모르는 사람이내가 만든 앱의 사용자 분석을 위해선 포아송 분포01를 이용해 봐야겠군.” 하기는 쉽지 않다. 결국 수학을 잘 모르기 때문에 수학을 써야 할 때 그러한 생각을 할 수 없고, 그러다 보니 수학이 필요 없는 것처럼 보이는 것이다. _142페이지

 

전체적인 구조 관점에서 최적화하는 것이 한 줄 한 줄 코드 수준에서의 최적화보다 성능이 좋은 경우가 많다. 그런데, 결국 가장 효율적인 것은 수학적으로 최적화하는 것이다. _192페이지

 

영상 장비의 경우 10초마다 측정 가능한 것을 1초 간격으로 촬영이 가능하게 하기 위해서는 비용 상승이 만만치 않았으나 이를 알고리즘적으로 어느 정도 해결이 가능했던 것이다. 이것이 그 유명한하드웨어적인 문제를 소프트웨어적으로 해결한다의 한 예이다. _199페이지

 

최종적으로 수학/통계적인 기법을 이용하였을 때에서야 비로소 1만 배 이상 빨라졌으며 이 때에서야 비로소 상용이 가능한 정도까지 가게 되었다. _p.214

 

원래 수학적인 것들은 매우 추상화되어 있기 때문에 이처럼 그 수학적 유사성 관점에서 바라보지 않는다면 현실에서 그 직접적 적용을 찾기는 거의 불가능하다. _221페이지

 

우선 현재 자신이 해결했으면 하는 문제를 간단하게라도 정리하여 주변에서 수학을 잘 하는 사람과 논의하면서 수학을 익혀 나가는 것도 한 방법이다. _p.224

 

선형 대수는 위와 같이 여러 다양한 수학적 개념을 익힐 수 있음과 더불어 데이터 분석에 사용되는 여러 방법론에 사용되는 기법과 연관이 있기 때문에 실용적으로도 중요하다. _230페이지

 

대수학은연산이라는 것의 개념을 확장시켜 주며, 이것은 프로그래머에게 제네릭(generic)이 무엇인지 자연스럽게 이해하게 해준다. 또한 구체적 문제로부터 시작된 개발이 보다 일반화한 상황에 대한 대응을 가능하게끔 문제를 바라볼 수 있게 됨에 따라 프로그램을 보다 효율적으로 작성할 수 있게 해준다. _235페이지

 

수치해석학은 수학적인 것을 실제로 어떻게 컴퓨터로 구현하는 것인가에 대한 기초 이론부터 실제로 구현하는 것까지 하는 것을 다루는 학문이다. 알고리즘의 효율성을 판단하는 방법 또는 알고리즘이 갖는 오차의 특성 등이 대표적인 기초 이론 중 하나이다. 아마도 이 글의 독자처럼 수학적인 것을 해보고자 하는 프로그래머들에게 가장 인상적이고 도움이 될 분야로 보인다. _236페이지

 

결국은. 통계다. 단도직입적으로, 통계에서 벗어나 살 수 없다. 어느 원시 부족의 경우 수에 대한 개념이 하나, , 그리고 많다, 라고 한다. 이 정도의 수 개념을 넘어 선다면 통계/확률에서 벗어날 수 없다. _239페이지

 

_편집자 코멘트

나는 지금도 영어를 잘하는 편은 아니지만, 이전 회사에서 어쩔 수 없이 외국인과 커뮤니케이션을 해야 했기 때문에, 몇 년 동안 지치지 않고 새벽마다 학원을 다닌 적이 있었다. 처음 외국인 담당자와의 미팅에서 사실 한마디도 못했다는 사실이 나를 부끄러워 미치게 했고, 그것이 열정 에너지로 변해 매일 꼭두새벽마다 학원을 다닐 수 있었던 원동력이 되어 주었다.

이후 외국인과의 업무상 미팅에서는 불안감은 사라졌고 소통을 통해 원하는 바를 얻을 수 있다는 기쁨은 학습에 대한 열정 에너지를 더욱더 높여주었다.

그리고 공부를 포기하지 않았던 또 다른 이유는내가 원어민도 아니고 그렇게 유창할 필요는 없잖아? 내가 원하는 소통을 할 수 있으면 그만이지.”라는 가벼운 생각 때문이었다. 필요에 의해서 필요한 만큼 공부할 수 있다는 것이, 나에게 부담감을 줄여주었던 것 같다.

프로그래머에게 수학도 마찬가지 아닐까? 수학 전문가가 될 필요는 없다고 생각한다. 앞서 나의 경험처럼 수학을 못해서 손해를 엄청 보았다거나, 큰 기회를 놓쳤다거나 하는 계기가 필요할 뿐이다. 하지만, 평소에 수학의 필요성을 느끼지 못하며 개발하고 있는 프로그래머들이 이러한 경험을 하기란 쉽지가 않다. 바로 이 책이 기획된 이유가 여기에 있다.

 

_저자 소개

이재현

저자 이재현은 1974년 서울에서 태어났다연세대학교 신학과를 졸업하고학원에서 영어를 가르치다가 컴퓨터에 입문, 10년 넘게 웹그리고 시스템 프로그래밍을 해왔다. 2016년부터 인공지능에 대한 연구를 시작하여 뉴럴넷의 복잡성을 대체할 기억 기반의 '니마시니 알고리즘'을 만든 이후로는 이 알고리즘에 대한 보급전파를 위한 활동을 하는 중이다.

현재 니마시니 알고리즘은 서울대대구경북과기원(DGIST)에서 논문과 실용화를 위한 공동 연구를 진행하고 있다. 저서로는 <지능의 본질과 구현>(로드북, 2018)이 있다.



이정설

수학과 생물학 모두 좋아하는 과학자. 학부에서 생물학을 전공하고 부전공으로 수학을 한 후 대학원에서 생물정보학을 전공하며 생물학 실험실에서 실험을 하다 나중에는 실험 대신 영상 처리, 세포 신호 전달 모델링, 대량 유전체 분석 등 다양한 종류의 연구에서 데이터 분석을 주로 수행하였다. 현재는 유전 검사 및 진단에 필요한 다양한 알고리즘 개발 및 유전체 정보를 이용한 신약 개발 관련 연구를 수행 중이다. 분석할 데이터가 크기 때문에 때로는 포인터 연산이 가득한 C++ 코드를 작성하기도 하고, 때로는 수학적으로 최적화를 시도하기도 하고, 때로는 유전학적으로 중요한 문제를 끄집어 내어 그와 관련된 코드를 작성하기도 하는 등의 일을 하고 있다. 도시 탈출을 꿈꾸며 오늘도 코딩을 하고 있다. 

                                                                                               _

posted by 로드북
: