인공지능,딥러닝,머신러닝 기초(27)
-
머신러닝 스태킹 앙상블(stacking ensemble)이란? _ CV(Kfold)
- 기본적인 스태킹 앙상블보다 CV기반 stacking ensemble 을 많이 사용 - Kfold, Stratified Kfold 의 스태킹 앙상블이 있음 스태킹 앙상블(stacking ensemble)이론 cv 기반의 스태킹은 각 모델들이 교차 검증(KFold등)으로 최종 모델을 위한 학습용 데이터 생성함 또한, 예측을 위한 테스트용 데이터도 생성하여 이를 기반으로 최종 모델이 학습을 진행하게 됨 - 순서 1. 데이터를 Fold로 나눔 2.각 모델 별로 Fold로 나누어진 데이터를 기반으로 훈련을 진행(X_train, y_train) 사용 1) 이때 각 Fold마다 뽑아진 훈련 데이터로 모델을 훈련하고 검증 데이터를 활용해 예측후 값을 저장 2) 마찬가지로 각 Fold마다 나온 model을 기반으로 ..
2022.07.16 -
[Do it! 딥러닝 입문] 3장 4절 "선형 회귀를 위한 뉴런 만들기"
1. __init__()메서드 작성하기 - self : 객체 자기자신 -> n=Neuron () -> n.__init__ 호출하면 n을 참조해서 __init__함수 내부 사용가능 - 예측값 계산 - 역방향 계산(가중치 업데이트) ----------------------------------------------------------------------------------- class Neuron: def __init__(self): #초기화 작업 수행 self.w = 1.0 self.b = 1.0 # 정방향 계산 만들기 = 예측값 계산 만들기 def forpass(self, x): y_hat = x*self.w + self.b return y_hat #역방향 계산 만들기 def backprop(sel..
2022.07.15 -
[Do it!딥러닝 입문] 경사 하강법( Gradient descent )
참고 : https://www.youtube.com/watch?v=7RQhfuN5qw4&list=PLJN246lAkhQgbBx2Kag0wIZedn-P9KcH9&index=6&ab_channel=%EB%B0%95%ED%95%B4%EC%84%A0 - 경사하강법으로 산점도 잘 표현한 직선 구하기 - 타깃(원래 알고있는 값) 나타낼수있는 a,b 규칙을 찾아서 방정식 만듦 -> 만든 방정식으로 예측값 찾을 수 있음 훈련 데이터에 잘 맞는 w와 b를 찾는 방법 1. 무작위로 w와 b를 정합니다(무작위로 모델 만들기) 2. x에서 샘플 하나를 선택하여 ŷ 을 계산합니다(무작위로 모델 예측) 3. ŷ 과 선택한 샘플의 진짜 y를 비교함(예측한 값과 진짜 정답 비교하기, 틀릴 확률 99%) 4. ŷ이 y와 더 가까워지도..
2022.07.14 -
[Do it!딥러닝 입문] 선형 회귀(linear regression)
- 선형 회귀 : 가중치와 절편을 찾는것 / 직선의 방정식으로 예측 - 3번 모델이 적합 / 3개의 점을 통해 적합한 그래프 찾고 -> 새로운 x값에 대한 y값 예측
2022.07.14 -
다중 분류 모델 성능 측정 방법
Accuracy Precision Recall F1 score https://nittaku.tistory.com/295
2022.03.01 -
[ML] How to encode categorical variables
* Categorical variables 즉, 범주형 변수들을 인코딩하는 여러가지 방법 A. 범주형 자료 type 1. 명목형 자료 (순서 없음) 2. 순서형 자료 (순서 있음) B. Why? encoding - 데이터를 머신러닝, 딥러닝 모델의 input 데이터로 집어넣으려고 할 때 문자열 상태 그대로 모델에 넣을 수가 없다. 이러한 값들을 수치적인 값으로 인코딩을 해주어야 함 C. Encoding type 1. one-hot encoding 2. label-encoding 3. Ordinal-encoding 4. Helmert-encoding 5. Binary- encoding 6. Frequency-encoding 7. Mean-encoding 8. Weight of Evidence(WoE) 9...
2022.02.16