CATEGORY
-
[알고리즘] 칼만 필터Research/Machine Learning 2020. 11. 10. 21:34
칼만 필터란 칼만필터는 측정치를 바탕으로 상태를 추정하는 재귀 필터이다. 즉, 측정치 (대표적으로 센서 데이터; 레이더, GPS, 등)을 입력 받아 물체의 상태 (대표적으로 역학 위치; position, head angle, 등)을 추정하는 재귀 필터(재귀적; 반복적; 이전 data를 사용하여)로 해석할 수 있다. 칼만 필터는 배경 조건은 1)선형성, 2)변수의 독립성 등이 있다. 1) 선형성은 구하고자하는 상태값과 측정값이 선형적이여야 한다는 것이다. 이는 후에 칼만 필터의 알고리즘을 보면 상태값을 측정값으로 혹은 측정값을 상태값으로 변환하는 과정에서 행렬의 곱으로 구성되기에 이와 같은 조건이 붙는다. 2) 독립성은 초기 변수들 및 잡음들이 독립적이여야 한다는 것이다. 칼만 필터는 가우시안 분포를 기반..
-
[논문리뷰] End-to-End Object Detection with TransformersResearch/Paper Review 2020. 9. 3. 18:34
1. Introduction 2020년 5월에 face book에서 나온 객체 검출 논문입니다! 객체 검출 task는 객체를 나타내는 bounding box (localization)와 객체의 category label (classification)을 찾는 것입니다. 일반적인 객체 검출 모델들은 이러한 task를 anchor와 같이 간접적인 문제로 수정하여 해결합니다. 이러한 과정은 NMS나 RoI pooling과 같은 비-학습적인 (deep learning스럽지 않은) process를 필요로 합니다. 이 논문은 bipartite matching과 transformer를 이용하여 End-to-End 방식의 OD 구조를 제안합니다. 2. Related Work Set Prediction 하나의 이미지에서 ..
-
[선형대수] 주성분분석Research/Linear Algebra 2020. 8. 5. 21:22
공분산 행렬 PCA에 대해 공부하기 이전에 배경지식으로 공분산 행렬에 대해서 알아야한다. 공분산의 정의는 두 확률변수의 상관 정도를 나타내는 값으로 두 확률변수 X Y에 대해 아래와 같이 정의된다. $E(X) $ 는 X에 대한 기대값을 의미한다. 데이터의 입장에서 보면 두 특징 (차원, 축)이 얼마나 상관이 있는지에 대한 수치로 볼 수 있다. 예시로 어떤 학교의 전교생 성적 자료를 N명의 학생 (데이터 개수)와 M개의 과목 (특징의 개수)로 정의하였을 때, 수학을 잘하는 학생이 과학을 잘하는 경우가 많으니 두 특징 (과목)의 공분산은 높은 수치를 기록할 것이다. 다른 과목을 살펴보니, 수학을 잘하는 학생들이 국어도 대체로 잘하지만 과학만큼은 아니기에 조금 낮은 수치 (양수의)를 기록할 것이다. 역사 과목..
-
[선형대수] 특이값 분해Research/Machine Learning 2020. 8. 4. 01:35
정의 $M \times N$ 행렬 $M$가 주어졌을 때, 다음과 같이 세 행렬의 곱으로 분해할 수 있다. $M = U \Sigma V^{*}$ $U$는 $M \times M$의 유니터리 행렬$^{[1]}$ (좌 특이벡터 행렬), $\Sigma$는 $M \times N$의 음이 아닌 내림차순 대각 행렬 (특이값 행렬) , $V^{*}$는 $N \times N$의 유니터리 행렬 ($V$의 켤레전치 행렬$^{[2]}$, 우 특이벡터 행렬) 의미 유니터리 행렬은 선형변환으로 해석하였을 때 회전(det가 1인 경우) 혹은 반전된 회전 (det가 -1인 경우)을 의미하고 대각행렬은 scale을 의미한다. 회전 (혹은 반전된 회전)은 scale에 비하여 상대적으로 형태적 변환이 크지 않다. 또한 그 변환 정도는 sc..
-
[선형대수] 고유값과 고유벡터Research/Machine Learning 2020. 7. 27. 22:18
정의 선형 변환(=행렬 연산) $T$가 주어졌을 때, 어떤 vector $v$와 scalar $\lambda$에 대하여 $Tv = \lambda v$, $v \neq$0 일 때, $v$를 $T$의 고유 벡터 (eigen value)라 하고 $\lambda$를 $v$에 대응하는 고유값이라고 한다. 의미 어떠한 선형 변환 $T$에 대하여 대부분의 벡터들은 그 크기와 방향이 모두 변하지만 일부 벡터(=고유 벡터)에 대해서만 그 크기(=고유값)만 바뀌었다. 당연하게도 $T$가 정방행렬이 아닐 경우 $Tv$ 와 $v$의 길이가 달라짐으로 $T$가 정방행렬일 경우만 고유값과 고유벡터가 존재한다. 구하는 방법 $Tv = \lambda v$ $Tv - \lambda v =$ $(T-\lambda I)v$ $=0$ 즉,..