본문 바로가기

분류 전체보기

(선형대수학) 9-2. Gram-Schmidt 방법 이번 시간에는 그람-슈미츠 방법(Gram-Schmidt Process)에 대해서 알아보자. 일단, 그람-슈미츠 방법이 무엇을 하는 과정인지 살펴보자. 목표 주어진 Independent Vector들이 이루는 Space의 Orthonormal Basis를 구해보자!! 먼저, 왜 이런 Orthonormal Basis를 찾으려고 하는지 잠깐 생각해보자. => 행렬(선형변환)에 의해서 변환된 좌표계에서 => Standard Basis를 알면 벡터를 표현하기 편하다!! => 이 Standard Basis 역할을 그대로 해주는 것이 Orthonormal Basis! ex) 다음과 같은 변환을 생각해보자! 이미 알고 있듯이 이 변환은 Theta만큼 시계 반대방향으로 돌리는 회전변환이다. 변환 전의 Standard B.. 더보기
(선형대수학) 9-1. Orthogonal Matrix 이번에는 뒤에 나올 "Gram-Schmidtz" 방법을 소개하기 위해서 간단한 개념을 정리하고 간다. 먼저, Orthogonal Vector에 대해서는 이미 배웠다!! => 내적하면 0! 그러면, 이를 확장해서 1. Orthogonal Vectors => 서로 다른 Vector끼리 서로 내적하면 0! 2. Orthonormal Vectors => Orthogonal Basis + Normalize된 Vector라고 생각하면 된다. => 즉, 각 벡터의 Norm이 모두 1인 Orthogonal Vectors를 말한다. 특히 Orthogonal Vector들은 Basis를 이루기 때문에 => Orthogonal Basis, Orthonormal Basis라고 생각해도 무방하다! 3. Orthogonal Ma.. 더보기
(선형대수학) 8-2. Weighted Least Squares Least Square Method를 이용할 때, 우리는 다음과 같은 최적화 문제를 푸는 것으로 생각했다. 에러를 성분별로 생각해보자면 즉, Least Square Method를 조금 더 포괄적으로 생각해본다면... 1. 일반적으로는, Error Vector를 줄이는 Optimization Problem 2. 그런데, Error Vector를 수치화하기 위해서(실수로 끌어오기 위해서) L2-norm을 이용 => Least Square Method 라고 생각할 수 있을 것이다. => 1번은 문제의 목표이니 조작할 수 없겠지만 => 2번은 L1-norm(절댓값 합)이나, Inf-norm(벡터성분 최댓값)으로 생각할 수도 있다! 게다가, 성분별로 생각한다면.... => 더 빨리 줄어드는 성분이 필요한 경우도 .. 더보기
(Advanced) 2. 직접 LQR Controller 확인해보자! (참고링크) https://github.com/cshnforever/ricatti GitHub - cshnforever/ricatti: Differential Ricatti Equation, Algebraic Ricatti Equation by Hamiltonian Differential Ricatti Equation, Algebraic Ricatti Equation by Hamiltonian - GitHub - cshnforever/ricatti: Differential Ricatti Equation, Algebraic Ricatti Equation by Hamiltonian github.com 위에서 Python 코드로 직접 Differential Ricatti Equation과 Algebraic R.. 더보기
(Advanced) 1-2. Continuous LQR Controller (Lagrange Multiplier 방법) (참고링크) (미적분학) 부록1. 끝난게 끝난게 아닌 최대/최솟값 찾기 (Lagrange Multiplier): https://0418cshyun.tistory.com/40 (미적분학) 부록1. 끝난게 끝난게 아닌 최대/최솟값 찾기 (Lagrange Multiplier) 다변수함수의 미분 파트에서, 주어진 f(x)의 최댓값과 최솟값을 찾는 방법에 대해서 알아보았다. -> 이를 그냥 뭉뚱그려서 최적화 문제(Optimization)로 볼 수 있다. gradient와 hessian을 이용한 방법은 x 0418cshyun.tistory.com 저번시간에 이어서 이번에는 Lagrange Multiplier를 이용한 LQR Controller 유도를 살펴보자. 2. Lagrange Multiplier 이용 우리가 .. 더보기
(Advanced) 1-1. Continuous LQR Controller (Dynamic Programming 접근방법) 이번에는 LQR(Linear Quadratic Regulator) 제어기에 대해서 설명하려고 한다. => 일반적으로는 "선형시스템"에 대해서 적용가능하지만, "비선형시스템"으로도 확장은(?) 가능하다. (by 선형화 작업) 일단, 기존의 제어기와 비교를 해보자. 기존의 1. Frequency Domain -> PID 2. Time Domain -> State-Feedback 둘 다 => 시스템의 Pole, Zero를 우리가 원하는데에 넣어주는 작업을 한다! 사실, Pole, Zero라는게 Frequency Domain으로 보아햐 하니 이게 안정적인 건지 아닌건지 보기 위해서는 Time Domain => Frequency Domain으로 바꿔주는 귀찮은 작업을 거쳐야 한다. 지금부터는 약간 관점을 다르게 .. 더보기
(선형대수학) 8-1. Least-Squares Method 이번 시간에는 다시 Ax=b를 푸는 방법으로 다시 돌아와보자... A가 정사각행렬일 때는 이미 앞에서 여러챕터들을 통해서 푸는 방법을 알아보았었다. 그러면, 이번에는 A가 정사각행렬이 "아닌" 경우에 대해서 살펴보자. 1. 좌우로 길쭉한 경우 -> 부정형 연립방정식! (선형대수학) 4-2. Ax=b 풀어봅시다! (선형사상과 일반해, 특수해): https://0418cshyun.tistory.com/151 (선형대수학) 4-2. Ax=b 풀어봅시다! (선형사상과 일반해, 특수해) *본 내용은 선형미분방정식에도 그대로 적용이 될 수 있습니다!! (참고링크) -> 선형사상과 행렬표현이 동일하다는 내용을 꼭 보고 옵시다!!! 미적분학 내용 몰라도 이해는 가능합니다! (미적분학 0418cshyun.tistory... 더보기
(선형대수학) 7-2. Subspace와 Orthogonality + Projection Matrix 이번에는 우리가 보았었던 Subspace 사이에 어떤 각도 관계가 있는지 생각해보려고 한다. 먼저, 벡터에서 Orthogonality(직교)란 => 두 벡터가 수직(90도)이다! 즉, 앞에서 배웠던 내적을 이용해보면 다음 성질을 얻는다. 이렇게, 내적이 0인 경우, u,v가 서로 직교한다(Orthogonal)라고 한다. 또한, Subspace에 대해서도 동일한 식으로 정의할 수 있다! 각 Subspace의 벡터끼리 모두 직교이면, Subspace도 직교라고 한다! 그러면, 행렬에서의 Subspace의 내용으로 돌아가서 각각 어떤 각도 관계가 있는지 살펴보자. 일단, 결론만 말하자면 1. Null Space와 Row Space가 서로 직교! 2. Left-Null space와 Column Space가 서로.. 더보기