2021. 09. 20 월요일 15일차

 

3-1-3 Loss and Cost Function 1

 

 

2주간 습관을 쌓아와서인지 추석에도 빠지지 않고 공부했다.

오늘의 강의는 궁금했던 loss와 cost의 차이였다.

loss는 <예측값과 실제값의 차이>이고, cost는 예측값과 실제값들의 차이를 데이터 수만큼 나눈 것, 즉, <loss의 평균>이라고 보면 된다.

그동안 딥러닝을 공부해왔기 때문에 prediction과 true 값의 차이는 많이 배워왔고, cost function과 loss function에 대해서 많이 듣고, 배우고, 활용까지 해봤었다.

그런데 이렇게 다시 글로써 정리해주시니 머릿속에서 어렴풋한 것들이 잘 정리가 된 것 같다.

 

그동안의 강의와 패캠의 차이점은 디테일에서 나오는 것 같다.

(무료강의였지만..) 전에 들었던 강의들은 예시를 많이 들어주지 않아서 여러 글들을 많이 찾아보면서 이런예시 저런예시를 직접 찾아보며 이해했다. (마치 딥러닝에서도 데이터가 많아야 일반화가 쉽게 되는것 처럼 많은 예시를 찾았다.)

그런데 이 패캠 딥러닝 강의에서는 예시를 많이, 그리고 세세히 설명을 해주셔서 더 이해가 잘 된 것 같다.

 

오늘은 음식 준비의 날이었지만, 내일은 차례를 지내고 시골을 갔다오고해서 출석을 잘 할 수 있을지 모르겠다..

그렇지만 2주간 쌓아올려놓은 습관을 무너뜨릴 순 없으니 열심히 다짐해야지!! 화이팅!

내일 강의도 loss와 cost관련 강의인데, 내가 모르는 것 중 어떤 것이 나올지 기대된다.

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

 

2021. 09. 19 일요일 14일차

 

3-1-2 What's Linear Regression? 2

 

 

저번 Regression 강의에서 뒤에 안 끝난 부분이 있어서 '음.. 혼자 공부하라는건가' 라고 생각하고 넘겼는데 뒤에 남은 부분을 오늘 해주셨다. 저번 강의와 이어서 들으라는 뜻이 이 뜻이구나.. 하며 열심히 들었다.

 

Linear 모델의 수식은 항상 θ의 전치행렬(transpose)와 x의 곱으로 나온다. 그냥 y가 x에 대한 식으로 나타나야하고, x에 대한 계수를 모르는 거니까 그런거라고 이해하고 있었는데, 이번 강의를 통해 좀 더 깊게 이해할 수 있었다.

θ를 그냥 넣어준 것이 아니라 간편한 연산을 위해 넣어준 파라미터였다! 쓰고보니 비슷비슷한 것 같지만, 예전에는 말로 정리할 수 없었다면, 이제는 말로 정리해서 쓸 수 있게 되었다. 어렴풋하게 아는 것과 글로써 정리할 수 있게 된 것의 차이랄까. 작지만 큰 차이다. 오늘도 뭔가 배운 느낌!

 

그리고 y 를 x에 대한 식으로 나타낸 것을 predictor라고 부르는데, 딥러닝에서는 이 predictor에 매우 많은 input(x)가 들어간다. 강의에서는 편의상 input이라고 해주셨지만, feature의 개수라고 생각하면 될 것이다.

이번 강의에서는 이 feature의 값이 많고, 그 각각에 대한 파라미터 θ를 구하고, predictor를 data에 더 fit하게 맞춰가는 과정인 loss와 cost function에 대해서는 예고편만 들려주셨다.

재밌게 설명해주셔서 내일이 기대된다. 

(기대는 되지만 듣지 않는 못난 랜선 제자..)

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

 

2021. 09. 18 토 13일차

 

3-1-1 What's Linear Regression?

 

야코비안을 복습할까하다가 일단 하나 들어보고 결정하려고 3과의 첫 강의를 들어보았다.

이제 본격적인 시작이라는 것을 알리는 듯, 3과의 총 강의수는 이전의 강의들과 달리 매우 많았다. (약 20강 정도?)

4과도 그랬고... 5과 6과가 되어서야 열 몇 강의로 조금 줄어들기 시작했는데, 강의가 많아서 시작하기도 전에 지치기도 했지만, 그래도 그만큼 가성비를 챙긴것 같아 좋았다.

 

이번 강의는 Linear Regression의 뜻, 개념에 대해 알아보는 강의였다.

오늘은 Regression에 대한 의미를 배웠고, 다음 강의에서는 Linear의 의미를 알아보자고 하셨다. (바로 이어서 들으면 좋겠다고 하셨지만.... 내일 듣는 못난 랜선 제자..)

Regression은 continuous한 값을 가지는 것이고, classification은 discrete한 값을 가지는 것이라고 알고 있었는데, 그대로 설명해주시긴했지만, 그것만으로 차이를 설명할 수는 없다고 하셨다.

그 차이가 뭔지 아직 자세히는 모르겠지만 복습도하면서 차차 익혀가보려한다.

Regression function에 대한 예시를 설명해주시면서 어떠한 형태의 데이터, 함수인지 알려주시고, 함수에서 사용되는 x, y, f()같은 것들을 앞으로 뭐라고 부를 것인지 용어 정의 같은 것을 알려주셨다.

 

Regression보다 Linear 라는 이름이 붙은 개념들이 많아서 내일 Linear의 의미를 더 집중해서 들을 것 같다.

오늘의 공부 끝!

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

2021. 09. 17 금 12일차

 

2-3-1 Vector Chain Rule

 

오늘도 수학.. 이해가지 않는 것들의 연속이었다.

야코비언도 분명 어제 배운 것이고, element-wise 연산을 하면 대각 행렬이 나오는 것도 분명 배웠고..

s벡터와 t벡터를 합치면 벡터의 성분끼리 연산하는 거 알고 있었고..

분명 어려운 것들이 아닌데 그것들을 한 번에 설명하니까 갑자기 뇌에 과부하가 왔다.

저 s벡터와 t벡터의 동그라미가 무슨 기호로 불리는지는 모르겠지만, 저걸 곱하면 결과로 대각 행렬이 나오고..

편미분하고.. 체인 룰(chain rule)이 있고..

중간에 고등학교 때의 체인 룰과 다를 것이 없다고 하셨는데 나는 고등학교 때 배운 체인 룰이 뭔지를 모르겠고...

정승제 쌤.. 보고싶어요...

 

오늘 응?응?응? 하면서 강의 5분을 20분만에 이해하며 듣다가 대략 한 시간만에 강의를 다 들었는데,

들으면서 이걸 계속 들어도 괜찮은건가 싶었다.

다시 야코비언부터 내 용어로 다시 정리하는 시간을 가져야할 것 같기도 하다.

연산의 결과가 어떻게 나오는지는 알았지만, 야코비언이나 체인룰 등등 그 용어의 정의를 설명할 수 있는 수준으로 이해한 것은 아니라서 블로그를 찾아보고, 좀 정리하면서 들어야할 것 같다.

 

그리고 강의 끝부분에서 연습문제를 많이 준비해놓았으니 이 부분에 대해서 많은 연습을 할 수 있고, 그럼 이해가 잘 될 것이라고 말씀해주셨는데... 

강의 처음 나왔을 때 들었으면 정말 좋았을 것 같다.

(이해가 안돼서 연습을 할 수가 없는데요 쌤..)

내일 야코비언을 쭉 복습할지.. 아니면 다음 과를 일단 나가면서 야코비언은 따로 정리할지 고민해봐야겠다.

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

2021. 09. 16 목 11일차

 

2-1-3 Jacobians for Element-wise Binary Operations

아직 야코비안이 뭔지 정확하게 정리는 되지 않지만 설명하시는 수식이 뭔지는 대충 알아들었다 (얏호)

오늘 강의는 그렇게 어려운 건 아니었다.

야코비안 행렬을 구하고, 그것을 미분했을 때 대각선모양으로 값이 남아서 대각행렬(diagonal matrix)만 남는 것이다. 

하나의 벡터함수만을 미분했을 때도 대각선성분만 남고, 두 개의 벡터 행렬을 더하거나 곱하는 연산을 한 후에 미분을 해도 대각성분만 남아 대각행렬이 되었다.

특히, 벡터 함수에서 파라미터의 계수가 1인 경우, 1만 남아서 항등행렬이 나오는 경우도 있었다.

두 벡터 함수를 곱했을 때는 대각행렬의 성분이 미분하는 함수가 아닌 다른 함수만 남는 경우가 있었다. (미분하는 함수가 아닌 함수를 상수취급을 하기 때문에)

 

어제의 야코비안 강의는 어려워서 뒤에 나오는 이론과제를 손도 못 댔었는데, 오늘 야코비안 강의는 문제를 읽어보니 일단 할 수는 있을 것 같았다.

오늘 늦게 강의를 듣기도 했고, 문제가 3개나 되고, 노가다가 필요한 문제이기 때문에 아직 손으로 풀이는 못 썼다.

첫번째 문제를 읽고 머릿속으로 푼 것으로는 그냥 전개만 하면 될 것 같았다. (뒤에 문제도 또 봐야하겠지만 ㅎㅎ)

 

괜히 어려운 강의를 골랐나싶지만 이 강의를 구매한 것이 후회되지는 않는다.

강사님이 정말 이해시켜주시려고 노력을 많이하신다.

강의 중에 "이거를 미분하면 어떻게 되는지 궁금하지 않아요?"라고 하셔서 혼잣말로 '아니요.. 궁금하지가 않아요..'했는데 내 마음 읽으셨는지 "궁금하다고 해줘요"하시면서 스무스하게 진행해주셨다 ㅋㅋㅋㅋㅋ

안 궁금해도 궁금해해야지...

강사님이 추천해주신 논문도 조금씩 읽어보고싶다.

후우 오늘도 딥러닝 공부 완료!

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

 

2021. 09. 15 수 10일차

 

2-1-2 Jacobian Matrices

어제 이해가 잘 안 된 부분을 다시 들어보았다.

 

어제 1개를 듣고 이게 뭐지..? 하면서 들었어서 그런지 잘 이해가 안되는 부분이 있었는데,

오늘 들으니 다시 이해가 착착 됐다!

이번 강의에서는 스칼라 함수, 벡터함수를 배우고 스칼라함수의 편미분, 벡터함수의 편미분, 스칼라 함수와 벡터함수가 혼합되어있을 때의 편미분을 배우는데 벡터함수 부분부터 조금 어려워지기 시작했었다.

그런데 어제 생각만큼 그렇게 어려운 건 아니었다!

스칼라함수와 똑같이 생각하면 됐다.

1차원 행렬을 벡터라고 말하는데, 1차원 행렬처럼 스칼라 value가 계속해서 늘어져있고, value 하나하나에 대해서 스칼라라고 생각하고 미분을 해주면 벡터에 대한 미분이 되었다.

처음에는 너무 길고, 또 많은 연산이 되어있으니 와.. 이게 뭐지 싶었는데

그냥 스칼라가 여러 개 있다고 생각하면 될 것 같다.

여기서 표로 4가지 경우가 정리되어 있는데, 그 중 마지막 벡터함수, 벡터값에 대한 미분이 가로세로로 정말 길게 나와서 어제는 거기서부터는 헉..!하고 겁먹고 잘 안 보기도 했었다..

그래도 오늘 앞에 것이 이해가 가니 뒤에것도 많이 이해가 되었다!

 

야코비안이라는 단어는 많이 들어봤지만, 이게 뭔지는 잘 몰랐었는데, 이번 기회를 통해서 알게 되어 다음에 야코비안이 나오면 아! 벡터함수! 미분!하면서 떠올릴 수 있을 것 같다.

그리고 패캠을 들으면서 처음에는 진도에 급급하며 좀 빨리 나가야하나..? 하는 마음이 좀 많이 들었었는데, 오늘 이렇게 다시 강의를 듣고 나니 천천히 이해하며 나아가는 것이 더 중요한 것을 깨달았다.

 

+여담

 저번 주 1주차 미션을 통과했다!

이렇게 매주 검사를 받으니 매주 새로 시작하는 기분이 들어서 퀘스트 같고 재밌다 ㅋㅋㅋ

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

 

2021. 09. 14 화요일 9일차

 

2-1-1 Derivatives and Gradients

드디어 수학이 나왔다.

오늘의 강의는 미분과 gradients 였다. 이 강의는 수학에 대해 아무것도 모르는 사람이 아니라, 미적분 정도는 아는 사람이 들어야할 것 같다. 나도 미적분을 배운지 너무 오래돼서 (하.. 내 나이 체감) 좀 가물가물하긴 하지만.. 일단 들어보았다.

 

미분에 대해 아예 모른다면 이해가 조금 어려웠겠지만, 그냥 정의만 아는 정도라면 괜찮을 정도였다.

미분이 접선의 기울기라는걸 알면 되는 정도..?

그리고 공대가 항상 그렇듯이 A를 알면 이제 Z를 배울 차례다. ㅎㅎ

그래도 굉장히 쉽게 설명해주신다!

설명하시는 내용이 뭔지 정확하게 이해가 간다거나, 한 번 듣고 내가 남에게 설명할 수 있을 정도가 되지는 않지만, 요점은 이해가 되는 정도였다.

이번 강의에서는 인공지능에서 Gradient가 기본이 되는 이유를 배웠다.

진짜 이렇게까지 자세하게 알려준 강의는 처음이라 가려운 곳을 긁어준 듯한 시원함이었다. 진짜 너무 시원했다.

그 이유는! 강의에서 확인하시길 ㅎㅎ

 

2-1-2 Jacobian Matrices

어...

정말 본격적인 수학이 시작되었다.

야코비안.. 어쩌구.. 미분 어쩌구...

아까 2-1-1이 A->G였다면 이게 진짜 Z를 배우는 것 같다.

2주차 시작할 때 패기롭게 2개씩 들으려고 했는데, 1개를 3번씩 듣는게 좋을 것 같다.

이론과제도 해보려고 했는데.. 아는게 없어서 못 할 것 같다.

내일 다시 듣고 한 번 풀어봐야겠다.

(이론 과제는 예전에는 slack을 통해 질의응답을 진행했었던 것 같은데, 이제 끝난 것 같다.)

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

2021. 09. 13 월요일 8일차

 

--잡담--

오늘 Chapter 1이 2개 남기도 했고, 2주차 첫 시작이기도 해서 앞으로는 강의를 2개씩 들으려고 한다!

잘 지킬 수 있을지 모르겠지만 1주차처럼 의무감을 가지고 하면 되지 않을까!!

일단 오늘도 성공했다는 사실이 뿌듯하고 스스로가 대견하다.

 

1-3 Python Tutorial: Class practice

 

Class Practice는 저번 강의 Class에 이어 직접 실습해보는 시간이었다.

저번 시간에 Class에 대한 개념과 꿀팁들을 배웠다면, 이제 Class가 실제로 어떨 때 사용되고, 어떻게 사용되고, Class 내부의 함수를 어떻게 만지작거려야하는지 설명해주셨다.

요즘 인공지능 모델을 개발하면서 Class에 대한 이해가 부족해서 너무 힘들었는데, 이렇게 설명해주시니 개념정리도 잘 되고, 응용하기도 쉬운 감이 들었다. (아직 응용을 하지는 않아서 진짜 잘 할지는 잘 모르겠다.)

 

이번 강의는 아래 강의도 마찬가지이지만, 코드를 배우며 실습하는 강의이고, 코드의 실행화면을 봐야하는 강의였기 때문에 따로 정리하기가 어려웠다. 그래서 강의 정리 노트에 강의 첫 부분의 코드만 적혀있다...하핳..

1-3 Python Tutorial: Dataset Generator

파이썬 튜토리얼의 마지막 강의는 Dataset Generator 구현이었다.

인공지능을 배우면 실습을 해봐야하기 때문에 dummy dataset을 만드는 경우도 있다.

(나는 있는 데이터셋을 가공해서 쓰는걸 많이하긴한다...)

지금까지는 dataset을 만들 때 class로 만들어서 쓴 걸 본 적이 없었는데 (물론 이렇게 만드는걸 별로 안 하니까 많이 찾아본건 아니지만) class로 만들어서 쓰면 확실히 편할 것 같았다.

어차피 여러 번 만들거 함수로 구현해놓는 느낌이랄까.

진짜 코딩에 있어 꿀팁들을 모아놓은 강의인 것 같다.

 

이렇게 Chapter 1 끝!

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

 

+ Recent posts