KT 에이블스쿨 (6기)104 [딥러닝] 딥러닝 성능관리 _ 20241101 더보기* 들어가기전① 모델의 복잡도- 너무 단순한 모델 : train, val 성능이 떨어짐- 적절히 복잡한 모델 : 적절한 예측력- 너무 복잡한 모델 : train 성능이 높고, val 성능 떨어짐 ② 적절한 복잡도 지점 찾기- 복잡도를 조금씩 조절 (하이퍼파라미터 조정)- Train error와 Validation error 측정하고 비교 (관점 : validation error) ③ 딥러닝에서 조절할 대상- Epoch와 learning_rate- 모델 구조 : hidden layer 수, node 수- 미리 멈춤 Early Stopping- 임의 연결 끊기 Dropout- 가중치 규제하기 Regularization(L1, L2)1. Early Stopping- 반복 횟수(epoch)가 많으면 과적합.. 2024. 11. 1. [딥러닝] 딥러닝 모델링 (#2. 이진분류, 다중분류) _ 20241031 * 들어가기전Hidden Layer에서는 무슨 일이 일어나는가?- 기존 데이터를 받아들여, 위 예시처럼 정확히 알기는 어렵지만, 무언가 새로운 특징(New Feature)을 만들어냄.- 해당 특징은 예측값과 실제값 사이 오차를 최소화 해주는 유익한 특징=> Hidden Layer를 통해 기존 데이터가 새롭게 표현(Representation), Feature Engineering!! 1. 이진분류- ex) Survived 처럼 1, 0 으로 분류하여 예측하기 위함.- Node의 결과를 변환해주는 함수가 필요!!(1) 활성함수LayerActivation Function기능HiddenLayerReLU좀 더 깊이 있는 학습(Deep Leaning)- Hidden Layer 여러 층- 선형 -> 비선형Output.. 2024. 10. 31. [딥러닝] 딥러닝 모델링 (#1. Regression) _ 20241031 * 들어가기전- 모델의 성능 복습회귀 모델MSE, RMSE, MAE오차의 양MAPE오차율R2 Score결정계수분류모델ConfusionmatrixAccuracy정분류율Recall재현율Precision정밀도F1-ScoreRecall과 Precision 조화평균 더보기- 딥러닝 학습 절차 ① 가중치 초기값을 할당한다. ② (초기) 모델로 예측한다. ③ 오차를 계산한다 (loss function) ④ 가중치 조절 : 오차를 줄이는 방향아로 가중치를 적절히 조절한다. (optimizer) - 적절히 조절 => 얼마만큼 조절할 지 결정하는 하이퍼파라미터 : learning rate(lr) ⑤ 다시 처음으로 가서 반복한다. - 전체 데이터를 적절히 나눠서 (mini batch) 반복 : batch_size.. 2024. 10. 31. [머신러닝(비지도)] #3 - Anomaly Detection (이상 탐지) ## 들어가기전 Anomaly Detection은 지도학습인 Classification과 같은 문제유형으로,모델을 만들고, 정상(normal)과 비정상(abnormal)을 평가한다.하지만 대체로 비지도학습에 가까운데,그 이유는 비정상 (Abnormal) 데이터가 너무 부족하기 때문이다.또한 그나마 있는 데이터도 Class를 대표하기 어렵다.=> 따라서, 정상(Normal) 데이터를 가지고 어디까지가 정상인지 추정한다. 1. 이상탐지의 몇 가지 Challenge (1) Label을 어떻게 확보할 것인가? - 보통, Normal Data는 자동으로 수집하고, Abnoraml Data는 수동관리하는 경우가 많음 - 비지도 학습이지만, 모델을 평가하려면 Label이 필요함. (2) 낮은 성능 문제 -.. 2024. 10. 22. 이전 1 ··· 8 9 10 11 12 13 14 ··· 26 다음