인공지능을 개발하고 나서 인공지능을 돌릴때
model.fit(X_train,y_train,batch_size = , epochs= )
여기서 말하는 epoch와 batch 사이즈란?
batch size
- 메모리의 한계와 속도 저하 때문에 대부분의 경우에는 한 번의 epoch에서 모든 데이터를 한꺼번에 집어넣을 수는 없습니다. 그래서 데이터를 나누어서 주게 되는데 이때 몇 번 나누어서 주는가를 iteration, 각 iteration마다 주는 데이터 사이즈를 batch size라고 합니다.
즉 전체 데이터를 몇개로 나누어서 학습을 할건가
epoch
- 한 번의 epoch는 신경망에서 전체 데이터 셋에 대해 forward pass/backward pass 과정을 거친 것을 말함. 즉, 전체 데이터 셋에 대해 한 번 학습을 완료한 상태
즉 이렇게 나눠진 데이터세트를 몇번 돌릴 것인가
8000개의 학습용 데이터가 있을경우
배치사이즈가 10개 니까 800개의 데이터묶음이 완성되고 이걸 20번 돌린다는 의미가 된다
'인공지능 > 딥러닝' 카테고리의 다른 글
딥러닝 하이퍼 파라미터 용어: optimizer 와 손실함수(loss function) (0) | 2022.12.27 |
---|---|
딥러닝 하이퍼파라미터 용어 : Dense/units/activation/input_shape (0) | 2022.12.27 |
딥러닝 기초 : Dummy variable trap (0) | 2022.12.27 |
딥러닝 하이퍼 파라미터 용어 : activation Functions (수정) (0) | 2022.12.27 |
딥러닝1:뉴런 (0) | 2022.12.27 |