2021. 10. 05 화요일 30일차

대망의 환급반 마지막날!!

 

3-7-1 Batch, Stochastic, Mini-batch Gradient Descent Methods - Implementation
3-7-2 Batch, Stochastic, Mini-batch Gradient Descent - Comparison for Various Batch Sizes

 

오늘은 챕터 3을 끝내기 위해서 2강의를 들었다. 

먼저 3-7-1 강의는 지난 시간에 배운 여러가지 Batch Gradient Descent Methods의 구현 방법이었다. 구현 방법보다는 구현 코드 설명이라고 하는 것이 나을 것 같다.

어제(지난 강의에서) 배운 3가지의 batch gradient descent methods의 코드를 설명해주시면서 이런 부분이 이렇게 구현되었다, 저런 부분은 저렇게 구현한다 요런 부분은 이렇게 구현해주었다. 설명해주셨는데 코드가 나와서인지 이해가 배로 어려워졌다.. 그래서 가끔 멍때리며 듣게 되었는데 코드를 설명해주시면서 이론도 다시 한 번 짚어주셔서 나름 복습도 되고 좋았다.

 

3-7-2 강의는 여러가지 batch size를 해보면서 각 사이즈별로 뭐가 어떻게 달라지는지를 보여주셨다. 이번 것은 코드는 아니었고, 그래프를 보여주시면서 비교해주셨다. batch size가 적당한 것이 스무스한 그래프를 보여주었고, 너무 작으면(이 예시에서는 1일 때) 굉장히 튀는 그래프가 보여졌다.

이 예시에서의 데이터셋 사이즈는 100이었기 때문에 100으로 해도 스무스한 개형을 보여주었다. 

하지만, 보통 딥러닝에서는 최소 1만 개 이상의 데이터를 사용하기 때문에 128정도의 배치 사이즈는 기본이다.

1만 개로 데이터를 잡고 1000, 3000, 5000 이런 식으로 크게크게 늘려서 비교해주셨다면 더 재밌었을 것 같다.

 

오늘이 패캠 환급반 마지막 날이다.

이렇게 30일동안 매일매일 강의를 듣고 기록을 남기며 억지로라도 공부를하게 되었다.

그리고 강의가 너무 좋아서 지식도 쌓였다.

오늘은 나 자신에게 칭찬해줘야지.

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

+ Recent posts