하이퍼파라미터 7

딥러닝 하이퍼 파라미터 용어 : validation_data란

기존 모델링 학습중 epoch시 마다 테스트를 하는 validation 데이터를 처리할때 train데이터의 일부를 활용하는 방법을 사용을 했다(validation_split) validation_data는 단순학습이 아니고 따로 평가를 위해 데이터를 준비하는 경우를 의미하며 정확도를 올리는 과정이다. history 기능을 사용해 단순히 train데이터의 loss와 accuracy만 가지고 판단하기에는 overfitting의 문제를 거를 수 없다. 따라서 별도의 validation_data의 loss와 accuracy를 함께 확인함으로써 실제 test 데이터에서의 예측을 보다 정확히 할 수 있다. epoch_history = model.fit(X_train , y_train , epochs=10 ,vali..

텐서플로우 인공지능 컴파일중 learning rate를 옵티마이저에서 셋팅하는 코드

인공지능 설계에서 그레디언트 디센트 알고리즘을 이용해 최저값을 찾아나가는 와중 기울기에 적절한 값을 넣어줘서 효과적으로 계산을 해야하는데 이때 사용하는 값이 learning rate다 러닝레이트값이 정상 범위를 벗어난경우 최적의 학습결과를 지나처 버릴수 있기때문에 러닝레이트를 알맞게 세팅해줘야한다. model.compile(optimizer = tf.keras.optimizers.적절한함수(learning_rate=n)) 컴파일 옵티마이저 파라미터 안에 케라스 라이브러리를 이용하여 직접 러닝레이트값을 줄 수 있다.

딥러닝 하이퍼 파라미터 용어: optimizer 와 손실함수(loss function)

Loss Function(손실함수) 손실 함수란 실제값과 예측값의 차이(loss, cost)를 수치화해주는 함수이다. 오차가 클수록 손실 함수의 값이 크고, 오차가 작을수록 손실 함수의 값이 작아진다. 손실 함수의 값을 최소화 하는것이 중요. binary_crossentropy 2개의 분류의 문제 sparse_categorical_crossentropy 3개이상의 분류에서 레이블 인코딩 일때(정수로 나옴) categorical_crossentropy 3개이상의 분류의 문제, 원핫 인코딩 OPTIMIZER 옵티마이저는 손실함수의 값을 최소화 하기위해 가는 여정을 optimization 즉 최적화라고 하는데 이걸 수행하는 알고리즘을 의미한다 디폴트는 gd이며 최적의 가중치를 찾는 방법이라고 생각하면된다 Me..

딥러닝 하이퍼파라미터 용어 : Dense/units/activation/input_shape

Dense 모델안에 들어가는 레이어를 표현 (레이어 한줄) , 뉴런의 입력과 출력을 연결해주는 역할 units = 노드 숫자 activation(활성화함수)= 받은 가중치(웨이트)를 결과값으로 바꿔주는 함수 https://seonggongstory.tistory.com/127 딥러닝 하이퍼 파라미터 용어 : activation Functions (수정) 액티베이션 활성화 함수: 딥러닝 네트워크에서 노드에 입력된 값들을 비선형 함수에 통과시킨 후 다음 레이어로 전달하는데, 이 때 사용하는 함수를 활성화 함수(Activation Function)라고 한다. 선형 seonggongstory.tistory.com input_shape = 입력 뉴런의 수 ,처음 들어갈 데이터 컬럼갯수 (튜플이기때문에 콤마로 표현..

딥러닝 하이퍼 파라미터 용어 : activation Functions (수정)

액티베이션 활성화 함수: 딥러닝 네트워크에서 노드에 입력된 값들을 비선형 함수에 통과시킨 후 다음 레이어로 전달하는데, 이 때 사용하는 함수를 활성화 함수(Activation Function)라고 한다. 선형 함수가 아니라 비선형 함수를 사용하는 이유는 딥러닝 모델의 레이어 층을 깊게 가져갈 수 있기 때문이다. 함수의 종류는 총6개로 인공지능 개발시 각각 상황에 맞게 입력해주면 된다. 분류의 문제 모델링시 0과 1로 2개로 분류하는 최종 아웃풋 레이어엔(결과물) sigmoid 함수를 사용한다. 시그모이드 함수를 사용시 특징은 0과1사이의 숫자로 결과를 내주며 확률로 계산해 리턴해준다. Logistic Classification 같은 단순하게 예,아니요 같은결과를 도출할때 유용하게 사용된다. 수치 예측 모..

딥러닝 하이퍼 파라미터 용어 : epoch와 batch size

인공지능을 개발하고 나서 인공지능을 돌릴때 model.fit(X_train,y_train,batch_size = , epochs= ) 여기서 말하는 epoch와 batch 사이즈란? batch size 메모리의 한계와 속도 저하 때문에 대부분의 경우에는 한 번의 epoch에서 모든 데이터를 한꺼번에 집어넣을 수는 없습니다. 그래서 데이터를 나누어서 주게 되는데 이때 몇 번 나누어서 주는가를 iteration, 각 iteration마다 주는 데이터 사이즈를 batch size라고 합니다. 즉 전체 데이터를 몇개로 나누어서 학습을 할건가 epoch 한 번의 epoch는 신경망에서 전체 데이터 셋에 대해 forward pass/backward pass 과정을 거친 것을 말함. 즉, 전체 데이터 셋에 대해 한 ..