2) Object Detection과 Segmentation의 이해
DNN/컴퓨터 비전2021. 8. 16. 07:572) Object Detection과 Segmentation의 이해

Localization : 단 하나의 Object 위치를 찾아 Bounding box로 지정하여 찾는다. Object Detection : 여러개의 Object들에 대한 위치를 Bounding box로 지정해 찾음 Segmentation : Detection 보다 발전된 형태로 픽셀 레벨 detection 수행 >> 모두 Object(s)의 위치를 찾아내는것 ! # Object Detection의 역사 # Object Detection의 주요 구성요소 1. 영역 추청 : Region Proposal 2. 딥러닝 네트워크 구성 : Feature Extraction , FPN , Network Prediction 3. 기타 : IOU , NMF , mAP , Anchor Box # 일반적인 Object De..

Do it 딥러닝을 읽고..
DNN/딥러닝2021. 7. 22. 15:23Do it 딥러닝을 읽고..

이책을 21년 6월 말에서 7월중순까지 약 한달간 읽었습니다. 이책은 딥러닝을 처음 접하는 사람에게 정말 휼륭한 책입니다. 단순히 라이브러리를 끌어다 쓰는것이 아닌, class를 이용해 딥러닝의 기본적인 알고리즘들을 한땀한땀 만들어 나갑니다. 이책의 저자가 여러 딥러닝책을 번역한 경험이 있어 더욱더 휼륭한 책이였던 것 같습니다. 이 책의 저자가 직접 강의한 자료가 있어 같이 보시면 더욱더 좋을 것 같습니다.! (무료) https://www.youtube.com/watch?v=jg8zTIGDPss&list=PLJN246lAkhQgbBx2Kag0wIZedn-P9KcH9 -저자 블로그 - https://tensorflow.blog/ 텐서 플로우 블로그 (Tensor ≈ Blog) 머신러닝(Machine Lea..

파이썬 머신러닝 완벽 가이드를 읽고..
DNN/머신러닝2021. 7. 22. 15:17파이썬 머신러닝 완벽 가이드를 읽고..

21 년 3월 부터 7월까지 약 5개월 간 이책을 읽었습니다. 이 책을 간단히 말하자면 정말 자세합니다. 여기서 자세하다는 의미는 초급자도 이해할수 있도록 설명이 아주 잘 되어있습니다. 머신러닝의 개념을 하나도 모르더라도 약간의 파이썬 개념만 갖춰있으면 누구나 접근할 수 있는 책입니다. 머신러닝 입문자에게 정말 휼륭한 책 같습니다. 책의 저자가 직접 강의하는 영상도 있으니 같이 보시면서 책을 읽으시면 더욱더 좋은 효과가 있을거 같습니다.! - 저자의 인프런 강의 주소 - https://www.inflearn.com/course/%ED%8C%8C%EC%9D%B4%EC%8D%AC-%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-%EC%99%84%EB%B2%BD%EA%B0%80%EC%9D%B..

군집화 ( k-means , 군집 평가 , 평균이동 , GMM , DBSCAN)
DNN/머신러닝2021. 7. 22. 15:02군집화 ( k-means , 군집 평가 , 평균이동 , GMM , DBSCAN)

# K-means > 군집 중심점은 선택된 포인트의 평균 지점으로 이동하고, 다시 가까운 포인트를 선택 , 다시 중심점을 평균 지점으로 이동하는 과정을 반복하는 알고리즘입니다. 장점 : 알고리즘이 쉽고 간결하다. 단점 : 속성이 많을때 군집 정확도가 떨어진다. 군집의 개수를 지정하기 어렵다. # 군집 평가 - 실루엣 분석(silhouette analysis) 각 군집의 거리가 얼마나 효율적으로 분리돼 있는지 나타낸다. 여기서 효율적이란 군집간 거리가 떨어져 있는 경우를 말한다. # 평균 이동 k-means와 유사하게 중심을 군집의 중심으로 지속적으로 움직이면서 군집화. 하지만 K-평균이 중심에 소속된 데이터의 평균 거리 중심으로 이동하는데 반해 , 평균이동은 데이터가 모여있는 밀도가 가장 높은 곳으로 이..

회귀 [일반선형,릿지,라쏘,엘라스틱 넷, 로지스틱회귀]
DNN/머신러닝2021. 7. 22. 09:27회귀 [일반선형,릿지,라쏘,엘라스틱 넷, 로지스틱회귀]

지도학습에는 크게 두가지가 있습니다. 전에서 했던 분류 , 이번에서할 회귀로 나누어집니다. 우리가 원하는값이 이산값일경우 분류를 하는 것이고 우리가 원하는값이 연속형(숫자값)이면 회귀입니다. 선형회귀는 실제값과 예측값의 차이를 최소화하는 직선형 회귀선을 최적화하는 방식입니다. 과적합을 방지하는 규제모델에 따라 여러가지 유형으로 나누어집니다. 대표적인 선형회귀 모델 - 일반 선형회귀 : 예측값과 실제값의 MSE(예측값과 실제값의 차이의 제곱)을 최소화 할 수 있도록 회귀 계수를 최적화하며 규제는 적용하지 않는 모델 - 릿지(Ridge) 회귀 : 선형회귀에 L2규제를 추가한 회귀 모델으로 L2규제는 상대적으로 큰 회귀계수 값의 예측 영향도를 감소시키기 위해서 회귀계수를 더 작게 만드는 규제 모델입니다. (회..

분류 - Ensemble(앙상블) [결정트리,RandomForest,Boost,스태킹]
DNN/머신러닝2021. 7. 21. 20:27분류 - Ensemble(앙상블) [결정트리,RandomForest,Boost,스태킹]

머신러닝의 학습 방법은 크게 두가지 비지도학습과 지도학습으로 나누어집니다. 지도학습이란 명시적인 정답이 있는 데이터가 주어진 상태에서 하는 방법입니다. 감이 오시나요? 즉, 지도학습의 대표적 방법이 분류입니다.! 현재 다양한 머신러닝 방법으로 분류를 구현하고있습니다. - Navie Bayes : Bayes 통계와 생성모델에 기반 - Logistic Regression : 독립변수와 종속변수의 선형 관계성 - Decision Tree : 데이터 균일에 따른 규칙기반 - Support Vector Machine : 개별 클래스 간의 최대 마진을 찾음 - Nearest Neighbor : 근접거리를 기준 - Neural Network : 심층 연결 - Ensemble : 서로 다른 머신러닝 알고리즘 연결 이처..

순환신경망(RNN)
DNN/딥러닝2021. 7. 8. 16:09순환신경망(RNN)

-time series- 이때까지 인공신경망에 사용한 데이터는 각 샘플이 독립적이였다고 가정하였습니다. 이런 가정 때문에 우리는 에포크마다 전체 샘플을 섞은 후에 모델 훈련을 진행 할 수 있었습니다. 하지만 우리가 다루는 데이터가 모두 독립이라는 보장은 없습니다. 예를들어 한시간전 주식의 가격과 지금의 주식 각격은 독립이라고 말할 수있을까요 ? 즉 한시간적 가격이 지금의 가격에 아무런 영향을 미치지 않았을까요? 확신할 순 없지만 두 가격은 깊은 연관이 있을 것입니다. 이처럼 일정 시간 간격으로 배치된 데이터를 시계열 데이터(time series)라 합니다. 시계열 데이터를 포함하여 샘플에 순서가 있는 데이터를 일반적으로 순차 데이터(sequential data)라 부릅니다. 대표적인 순차 데이터의 예가 ..

합성곱 신경망 (CNN)
DNN/딥러닝2021. 7. 7. 17:25합성곱 신경망 (CNN)

합성공 신경망을 알아보기전에 먼저 합성곱 연산이 어떻게 진행되는지 알아봅시다. 합성곱(컨볼루젼) - 합성곱은 두 함수에 적용하여 새로운 함수를 만드는 수학 연산자 입니다. 그림을 보며 합성곱이 어떻게 진행되는지 알아 봅시다. 이런식으로 나머지도 한칸씩 움직여가며 연산하면 됩니다. 하지만 주의할점이 있습니다. 합성곱신경망은 합성곱을 쓰지 않는 답니다...! 대부분의 딥러닝 패키지들은 합성곱 신경망을 만들때 합성곱이 아니라 교차 상관을 사용합니다. 교차상관 교차상관연산은 합성곱연산과 크게 다르지않습니다. 오히려 더 간단하지요. 우리는 합성곱 연산을 할때 가중치 배열을 뒤집었던것을 기억 하시나요 ? 교차상관에서는 배열을 뒤집지 않아도 됩니다. 바로 계산하면 됩니다.! 왜 교차상관을 사용할까요 ? 그 이유는 모..

다중 분류 신경망
DNN/딥러닝2021. 7. 6. 16:14다중 분류 신경망

다중 분류 신경망을 만들기 위해서는 소프트맥스(softmax)함수와 크로스 엔트로피(cross entropy)손실함수라는 새로운 개념을 알아야 합니다. 다중분류의 개념 다중 분류의 문제점 및 소프트맥스 함수 만약 활성화 출력의 값이 위와 같다면 즉 , 각 출력의 합이 1이 아니라면 비교 하기 쉽지 않습니다. 우리는 확률과 같이 각각의 출력을 뽑아내고 싶습니다. 어떻게 하면 될까요 ?? 이때 softmax 함수의 유용함이 나옵니다. 소프트맥스 함수를 적용해 출력강도를 정규화합니다. softmax의 정의 : 이와 같이 소프트맥스함수에는 출력층에서 계산된 선형출력이 필요합니다. 시그모이드 공식에서 선형출력(z)를 뽑아 낼 수 있습니다. ※정리 다중분류에서 통과한 값들은 소프트맥스 함수를 거치며 적절한 확률값으..

다층 신경망
DNN/딥러닝2021. 7. 6. 14:23다층 신경망

1. 배치 경사 하강법. 지금까지 사용한 경사하강법 알고리즘은 알고리즘을 1번 반복할때 1개의 샘플을 사용하는 확률적 경사 하강법을 사용 했습니다. 이 방법은 가중치를 1번 업데이트 할때마다 1개의 샘플을 사용하므로 손실함수의 전역 최솟값을 불안정하게 찾습니다. 배치 경사 하강법은 가중치를 1번 업데이트 할대 전체의 샘플을 사용하므로 손실 함수의 전역 최솟값을 안정적으로 찾을 수 있습니다. 하지만 배치 경사 하강법은 전체샘플을 계산하므로 계산량이 매우 많습니다. 즉, 우리는 배치 경사 하강법을 효율적으로 사용하기 위해 연산에 대해 알아 볼 필요가 있습니다.! 2.벡터화된 연산 & 행렬 연산. 이때까지 정방향 계산을 할때 가중치와 입력을 각각 곱하여 더했습니다. z = np.sum(self.w * x) +..

image