2021. 09. 29 수요일 24일차

 

3-4-1- for Several Samples - Computational Efficiency and Mini-batch

 

오늘의 강의는 미니배치는 무엇이고, 미니배치를 왜 사용하는지에 대해서 배웠다.

제목을 살펴보면, 여러 개의 샘플들을 학습하는 방법에 대해서 다루고, 컴퓨터의 효율성과 미니배치에 대해 배운다는 것을 알 수 있다.

여러 개의 샘플을 학습하는 방법에 대한 수식이나 이론적인 부분들은 다음 수업에서 배운다. 이번시간에는 미니배치에 대해서만 배웠다.

딥러닝은 수학적인 연산을 컴퓨터로 하게된다. 일반적인 연산이라면 컴퓨터 연산량에 과부하가 올 정도는 아니지만, 딥러닝을 할 때는 수 많은 파라미터와 변수를 사용하게 된다. 그리고 연산된 값을 여러 개의 유닛에 보내고, 각 유닛마다 엄청난 연산을 하므로 그냥 컴퓨터를 사용하게 되면 엄청난 과부하가 온다.

그래서 나온 것이 병렬(Parallel) 학습이다. 어려운 개념은 아니고, 말 그대로 병렬적으로 학습하는 것이다.

100개의 데이터를 학습해야한다면 10개의 데이터를 컴퓨터 1이 하고, 그 다음 10개의 데이터를 컴퓨터 2가 하는 식으로 총 10대의 컴퓨터가 나누어 학습한다고 보면 된다. 그리고 이렇게 컴퓨터(CPU)들을 합쳐놓은 것이 GPU이다.

이렇게 딥러닝에서 GPU를 사용하는 이유를 배웠다.

그리고 이렇게 나누는 것이 mini-batch라는 것을 배웠다.

batch는 데이터 집합이라고 생각하면 되고, mini-batch는 그 배치를 조금씩 묶어 나눈 것이라고 보면 된다.

 

▼패캠 강의 리스트▼

https://bit.ly/37BpXiC

 

*본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성되었습니다.*


#패스트캠퍼스, #패캠챌린지 #직장인인강 #직장인자기계발 #패스트캠퍼스후기 #수학적으로_접근하는_딥러닝_올인원_패키지_Online #대학원생공부 #인공지능독학 #머신러닝 #딥러닝

+ Recent posts