본문 바로가기

Mathematics/선형대수학

(선형대수학) 9-부록. Fast Fourier Transformation 앞 챕터에서 Fast Fourier Transformation에 대한 내용이 나왔으므로, Fast Fourier Transformation에 대해서 잠깐 알아보고 넘어가려고 한다. (Fourier Series를 모르면 그냥 넘어가자!) 먼저, Fourier Series의 Coefficient를 구하는 것부터 시작해보자. (Fourier Coefficient) 푸리에 급수의 Coefficient를 구하는 것은 해석학 파트에서도 설명이 되어 있으니, 자세한 설명은 해석학 파트를 참고! 이 때, f(t)가 주어진 Interval 안에 주어져 있어야 하는데 이를 조금 확장해서 실수 전범위로 넓혀보자. 그리고, exp의 주기성을 고려해서, int -> 2pi의 상수배로 바꾸자! => Fourier Transfor.. 더보기
(선형대수학) 9-2. Gram-Schmidt 방법 이번 시간에는 그람-슈미츠 방법(Gram-Schmidt Process)에 대해서 알아보자. 일단, 그람-슈미츠 방법이 무엇을 하는 과정인지 살펴보자. 목표 주어진 Independent Vector들이 이루는 Space의 Orthonormal Basis를 구해보자!! 먼저, 왜 이런 Orthonormal Basis를 찾으려고 하는지 잠깐 생각해보자. => 행렬(선형변환)에 의해서 변환된 좌표계에서 => Standard Basis를 알면 벡터를 표현하기 편하다!! => 이 Standard Basis 역할을 그대로 해주는 것이 Orthonormal Basis! ex) 다음과 같은 변환을 생각해보자! 이미 알고 있듯이 이 변환은 Theta만큼 시계 반대방향으로 돌리는 회전변환이다. 변환 전의 Standard B.. 더보기
(선형대수학) 9-1. Orthogonal Matrix 이번에는 뒤에 나올 "Gram-Schmidtz" 방법을 소개하기 위해서 간단한 개념을 정리하고 간다. 먼저, Orthogonal Vector에 대해서는 이미 배웠다!! => 내적하면 0! 그러면, 이를 확장해서 1. Orthogonal Vectors => 서로 다른 Vector끼리 서로 내적하면 0! 2. Orthonormal Vectors => Orthogonal Basis + Normalize된 Vector라고 생각하면 된다. => 즉, 각 벡터의 Norm이 모두 1인 Orthogonal Vectors를 말한다. 특히 Orthogonal Vector들은 Basis를 이루기 때문에 => Orthogonal Basis, Orthonormal Basis라고 생각해도 무방하다! 3. Orthogonal Ma.. 더보기
(선형대수학) 8-2. Weighted Least Squares Least Square Method를 이용할 때, 우리는 다음과 같은 최적화 문제를 푸는 것으로 생각했다. 에러를 성분별로 생각해보자면 즉, Least Square Method를 조금 더 포괄적으로 생각해본다면... 1. 일반적으로는, Error Vector를 줄이는 Optimization Problem 2. 그런데, Error Vector를 수치화하기 위해서(실수로 끌어오기 위해서) L2-norm을 이용 => Least Square Method 라고 생각할 수 있을 것이다. => 1번은 문제의 목표이니 조작할 수 없겠지만 => 2번은 L1-norm(절댓값 합)이나, Inf-norm(벡터성분 최댓값)으로 생각할 수도 있다! 게다가, 성분별로 생각한다면.... => 더 빨리 줄어드는 성분이 필요한 경우도 .. 더보기
(선형대수학) 8-1. Least-Squares Method 이번 시간에는 다시 Ax=b를 푸는 방법으로 다시 돌아와보자... A가 정사각행렬일 때는 이미 앞에서 여러챕터들을 통해서 푸는 방법을 알아보았었다. 그러면, 이번에는 A가 정사각행렬이 "아닌" 경우에 대해서 살펴보자. 1. 좌우로 길쭉한 경우 -> 부정형 연립방정식! (선형대수학) 4-2. Ax=b 풀어봅시다! (선형사상과 일반해, 특수해): https://0418cshyun.tistory.com/151 (선형대수학) 4-2. Ax=b 풀어봅시다! (선형사상과 일반해, 특수해) *본 내용은 선형미분방정식에도 그대로 적용이 될 수 있습니다!! (참고링크) -> 선형사상과 행렬표현이 동일하다는 내용을 꼭 보고 옵시다!!! 미적분학 내용 몰라도 이해는 가능합니다! (미적분학 0418cshyun.tistory... 더보기
(선형대수학) 7-2. Subspace와 Orthogonality + Projection Matrix 이번에는 우리가 보았었던 Subspace 사이에 어떤 각도 관계가 있는지 생각해보려고 한다. 먼저, 벡터에서 Orthogonality(직교)란 => 두 벡터가 수직(90도)이다! 즉, 앞에서 배웠던 내적을 이용해보면 다음 성질을 얻는다. 이렇게, 내적이 0인 경우, u,v가 서로 직교한다(Orthogonal)라고 한다. 또한, Subspace에 대해서도 동일한 식으로 정의할 수 있다! 각 Subspace의 벡터끼리 모두 직교이면, Subspace도 직교라고 한다! 그러면, 행렬에서의 Subspace의 내용으로 돌아가서 각각 어떤 각도 관계가 있는지 살펴보자. 일단, 결론만 말하자면 1. Null Space와 Row Space가 서로 직교! 2. Left-Null space와 Column Space가 서로.. 더보기
(선형대수학) 7-1. Inner Product(내적)과 Norm 이번 챕터에서는 이미 쉽게 알고 있을 벡터의 내적(Inner Product)과 Norm에 대해서 살펴보자. 먼저, 벡터의 내적(Inner Product)에 대해서 정의하자. 대부분 이 글을 보는 사람들은 이미 내적에 대해서 알 것 같아서 착각을 막기 위해서 설명을 더 해보자면... 이것은 내적의 정의(Definition)이 아니라는 것이다! => 단지, 정의에서 나온 계산방법일 뿐이다. (심지어 이것도 "실수벡터"인 경우만 성립한다...) (Inner Product) 내적은 두 개의 복소수를 받아서 복소수를 내뱉는 연산(함수)이고, 아마 복소수를 성분으로 가지는 벡터는 거의 보질 못해서 이해가 약간 어려울 수도 있는데, 1번 성질은 => 그냥 실수벡터라면 => 대칭성(교환법칙)을 말한다. 그러나, 복소수.. 더보기
(선형대수학) 6. 선형사상과 행렬 (Advanced!) 이제부터는 Ax=0, Ax=b를 푸는 것을 넘어서 => 여러 가지 Vector Space를 보았으니, 이 Space들 사이의 기하학적 관계를 보려고 한다. (참고링크) (미적분학) 6-2. 이상하게 계속 보이는 선형사상 개념(Linear Mapping, Matrix): https://0418cshyun.tistory.com/12 (미적분학) 6-2. 이상하게 계속 보이는 선형사상 개념(Linear Mapping, Matrix) 일단 사상(Mapping)이란 무엇인지 알아보자. (Mapping) 간단히 말해 어떤 값을 다른 값에 대응시키는 것을 말한다. (값이 굳이 수일 필요는 없다(ex. 함수를 대응시킬수도...)) 함수(function)하고 비슷한 0418cshyun.tistory.com => 위 내용.. 더보기