공부중
[딥러닝 영상 분석] 본문
대표적인 영상 분석 기법
- 이미지 분류 (image classification)
- 이미지 객체 인식 (image object detection)
- 이미지 분할 (image segmentation)
1. 이미지 분류 (image classification)
어떤 이미지 영상이 있을때 이 영상이 어느 카테고리로 분류되는지 확률적으로 계산.
객체인식과 다르게 해당 프레임이 어느 분류에 속하는지를 판단.
2. 이미지 객체 인식 (image object detection)
특정 대상을 객체별로 인식해 그 위치를 바운딩 박스로 그려서 나타냄. 바운딩 박스는 x, y, h, w로 이루어짐.
분류의 경우 고양이일 확률이 97%로 표현되는 반면, 객체인식은 결과값이 클래스와 바운딩 박스, 신뢰도 값으로 이루어진 벡터임.
ㅍ
classification | object detection |
cat 97% dog 1% ... |
class : cat 바운딩 박스 : x, y, h, w 신뢰도(confidance) |
3. 이미지 분할 (image segmentation)
이미지의 모든 픽셀을 지정된 카테고리로 분류
- 의미론적 분할 : 이미지에서 대상을 카테로리로 분류할 때 객체 단위는 신경쓰지 않고 픽셀 단위로 분류
- 객체 분할 : 객체 인식 개념까지 추가해 격체별로 나누어 분류하는 것.
FCN(fully convolution network), segnet, DeepLab 등이 있음.
인공지능 | ||
머신러닝 | ||
딥러닝 |
- 시작 : 투린 완전 인공 뉴런을 위한 형식 디자인
- 인공지능의 암흑기 : 라이트힐의 보고서 ' 작은 문제 영역에서는 작동하지만 복잡한 현실 문제를 해결할 수 없다'
- 1980 : 베이지안 확률적 방법, 퍼지 이론
- 1990 : 구글 검색 엔진 -> 많은 데이터 확보 -> 머신러닝 확산.
역전파, CNN을 적용한 MNIST
- 2006년 : 딥러닝 -> 처음에는 무시 ->2012년 AlexNet (CNN기반)
--- 딥러닝
심층 신경망 (딥러닝 뉴럴 네트워크)
지도 학습 : 훈련데이터에 라벨(정답)이 포함된 학습
- KNN(K -Nearest)
- SVM, supportd Vector Machine
- Decision Tree
이미지 분류에는 위의 알고리즘보다 딥러닝 심층 신경망을 이용하는 것이 정확도와 시간 측면에서 좋음.
심층 신경망의 기본적인 단위는 선형 분류임.
딥러닝 영상 분석의 경우 독립변수 X는 영상 이미지
- 가로세로 픽셀값, RGB 컬러채널로 이루어진 행렬 데이터
이때 분류 문제에서 Y는 분류 카테고리별 확률값인 클래스 점수 벡터
모델의 가중치는 여러 이미지 테이털 훈련해서 최적화 시킴. '
입력한 계산 결과를 다음 계산의 입력으로 사용 -> 은닉층
은닉층이 더 많이 존재할 수록 더 깊은 네트워크
딥러닝은 정답과 차이가 없을 때까지 가중치를 업데이트 -> 딥러닝의 훈련과정.
훈련 데이터의 정답을 lable라 함. 정답과 결과값의 차이는 loss, error, cost
loss가 0이 되도록 훈련해야 함.
최적화된 가중치를 통해 결과값을 계산하는 과정을 추론이라 한다.
추론과정은 정확도가 높고, 추론시간이 짧을 수록 성능 우수.
30FPS이상 선호. 즉, 결과가 나오는 시간이 영상에서 1초에 30번 이상 수행되기를 바라는 것.
loss function은 가중치가 좋은지 아닌지 유무를 평가할 수 있는 방법.
이때 가중치가 좋은 방향으로 업데이트 될 수 있게 해주는 과정을 최적화 , optimization이라 한다.
loss 구하는 법 : 각 클래그의 솔실을 계산한 후 평균 계산.
손실함수는 일반적으로 MSE나 교체 엔트로피 사용
MSE
def mse(y, t):
return np.sum((y-t)**2).mean()
y 예측
t 정답
k 데이터의 차원 수
작을수록 정답에 가까운 결과
Cross Entropy Error
엔트로피는 변수의 불확실성을 나타내는 지표 .
불확실성이 증가할 수록 엔트로피 값은 커짐.
- 교차 엔트로피 : 하나의 변수가 서로 다른 분포를 가질 경우, 해당 분포들 간의 차이 .
모델의 예측 정확도가 낮아서 예측값과 정답값의 차이가 크면 교차 엔트로피 값은 증가.
정확도가 높으면 차이가 감소해서 교차 엔트로피값도 감소.
t가 원 핫이라면 정답만 1, 나머지는 0
y 배열에서 정답과 같은 차원의 값이 클수록 -log 값이 양수 범위에서 작아져 모데릐 출력에 정답에 가까워질 수록 손실이 0에 가까워짐
def cee(y, t):
delta - 1e-7
return -np.sum(t * np.log(y + delta))
델타느느 y가 0인 경우 방지.
[실전! 프로젝트로 배우는 딥러닝 컴퓨터비전 - 영상분석 이론부터 엔비디아 젯슨 나노를 활용한 자율주행 실습까지]
https://www.yes24.com/Product/Goods/124406527
'인공지능...? > 머신러닝 및 Neural Network' 카테고리의 다른 글
[AI 용어 정리] Context, Atrous Convolution, HARD (0) | 2025.01.07 |
---|---|
[딥러닝] (0) | 2024.09.26 |
Colab Pro 결제 (0) | 2024.09.14 |
[CNN] model.fit (0) | 2024.02.05 |
[CNN] (0) | 2024.02.05 |