인공지능,딥러닝,머신러닝 기초(27)
-
[인공지능 개론] Data Augmentation
- data augmentation 정의 : 갖고있는 데이터셋을 여러가지 방법으로 증강시켜(Augmentation) 학습 데이터셋의 규모를 키울 수 있음 - data augmentation의 방법 1. Mirroring 2. Random Cropping 3. Rotation 4. Shearing 5. Local wraping 등이 있음 - color shifting 1. RGB를 이용한 색변환 방법이 있음 - 실제로 RGB값이 특정 확률 분호에 따라 정해짐 - 왼쪽의 고양이는 y로 변하지 않음 - 색 변형을 통해 학습 알고리즘이 색의 변화에 더 잘 반응할 수 있게 해줌 - 색 변형하는 방법 중 하나로 PCA(주성분 분석)방법이 있음 Implementing distorions during training ..
2022.10.20 -
[인공지능 개론] DL
CNN - padding @ convolution 영상 끝자락에서filter kernel에 기여하는 boundary pixel들을 center pixel로 값을 뽑기 위한 방법 Valid & Same valid : no padding Same : zero padding 패딩은 합성곱 연산을 수행하기 전 입력데이터 주변을 특정값으로 채워 늘리는 것을 말함 패딩을 사용하는 이유는 패딩을 사용하지 않을 경우 데이터의 Spatial크기는 Convlayer지날때마다 작아지게 되므로, 가장 자리의 정보들이 사라지는 문제가 발생하기 때문에 패딩을 사용함 - Stride @ convolution Sliding window 방식의 filter convolution대신에 점핑해서 convolve할 때 입력데이터에 필터를 ..
2022.10.18 -
[CNN] Padding 무엇인가?
Zero padding - zero padding 이란 image주위를 0으로 둘러주는 과정을 말함 Padding size - 딥러닝을 할 때 항상 input과 output의 데이터 사이즈를 잘 알아야 모델을 잘 만들 수 있음 *p : padding layer의 수 *image_size : (n x n) *padded_image_size : ((n + 2p) x (n + 2p)) *convolution-operation (with (f x f) filter) outputs : ((n + 2p – f + 1) x (n + 2p – f + 1)) 왜 padding이 필요한가? 1. 이미지 데이터의 축소를 막기 위해 - convolution operation에서 input data인 (n*n)pixel ima..
2022.10.12 -
[인공지능 개론] CNN 구조
CNN 등장배경 - 일반 DNN은 기본적으로 1차원 형태의 데이터를 사용함 - 따라서 이미지가 입력될 경우, 이것을 flatten 시켜서 한줄의 데이터로 만들게 됨 - 이 과정에서 이미지의 공간적 정보가 손실되어 특징 추출과 학습이 비효율적이고 정확도의 한계가 발생한다는 문제가 있었음 - 그래서 CNN을 통해 이미지를 raw input으로 받음으로써, 공간적/지역적 정보를 그대로 유지한채 특성들의 계층을 빌드업하게 됨 CNN 작동원리 - 예를 들어 위 그림처럼, 2차원 이미지를 행렬로 표현할 수 있음 - CNN에는 필터(커널)이 존재하는데, 오른쪽에 표현된 것처럼 3*3크기의 필터가 있다고 하면 이 필터를 이미지 입력값에 전체적으로 훑어주면서 이미지의 패턴을 찾아 처리할 수 있음 - 이때 훑어준다는 것은..
2022.10.11 -
[인공지능 개론 DL/ANN ]
Deep Neural Networks (DNNs) DNNs are typically Feed Forward Networks(FFNNs) in which data flows from the input layer to the output layer without backward and the links between the layer are one way which is in the forward direction and they never touch a node again FFNNs work in the same way as you will have the flavor of the specific while you eating but just after finishing your meal you will ..
2022.10.08 -
[인공지능 개론_plus] 경사하강 알고리즘
- 비용함수(Cost Function)의 비용값을 최소화 하는 파라미터 θ를 찾는 경사하강 알고리즘(Gradient Descent Algorithm) - 경사 하강 알고리즘은 J(θ(0),θ(1))를 최소화하는 θ를 구하는 알고리즘 - 작동원리 θ에 대하여 임의 초기값, 시작점을 잡음 그리고 J가 최소 될때까지 θ값 갱신을 반복하여 최솟값에 도달했을때 해당하는 θ를 찾아 := : 대입 연산자, 갱신한다는 의미 α : learning rate 갱신되는 θ 값의 속도 를 결정합니다. 아무리 미분값이 크더라도 α가 작다면 갱신되는 속도가 느려지는거 α뒤에 곱해져 있는 것 : 비용함수로 J의 미분값 - θ의 수렴 조건 - 경사 하강 알고리즘은 어떤 조건에서 갱신을 멈추게 될까 -전역 최솟값(Global mini..
2022.10.08