본문 바로가기

Mathematics/미적분학

(미적분학) 11. Output 개수가 1개일 때 더 중요해지는 개념들? (Gradient)

우리는 계속 다변수함수에 관해서 알아보고 있다.

이번 챕터에서는 output 개수가 1개일 때,  즉,

인 경우에 대해서만 살펴볼 것이다.

 

먼저, 예시로 등산을 위해 지도를 그린다고 하자. 이때, 함수 f(x)는 x 지점의 높이를 나타낸다고 하자.


먼저 이 함수의 그래프에 관해서 알아보자.

"그래프???" 라고 하면 너무 당연한 개념으로 생각할 수 있지만, 함수의 그래프가 뭐냐고 물어보면, 어떤 식으로 설명할 것인가?

예를 들어 y=x의 그래프를 그려보자 라고 하면, y=x를 만족하는 (x,y)를 좌표평면에 다 찍어놓은 것이라고 할 것이다.

 

즉, y=f(x) (y: 스칼라, x: 벡터)의 그래프는 다음과 같다.

(Graph of functions)

(여기서 X는 정의역)

등산 예시에서 만약에 f의 그래프를 그린다고 하면 적어도 3차원의 지도가 필요할 것이다.

 

또 하나, 여기서 등고선(높이가 같은 지점을 이은 선)에 관한 개념을 얻을 수 있다.

함수 y=f(x)가 x에서의 높이를 나타낸다면, 등고선을 어떻게 표현할까?

단지 y=c일 때의 x를 모두 모아놓으면 된다. 즉, c=f(x)를 만족하는 x의 집합이다.

그러므로,

(Level curve(Surface)(등위선(면))

(여기서 X는 정의역)


또한 등산 지도를 만들 때, 각 지점에서 가장 가파른 지점과 완만한 지점, 즉 기울기를 알아야 등산 난이도를 정할 수 있을 것이다.

 

(Gradient) (아주 중요!!!)

기울기는 앞에서 보았듯이 바로 f(x)의 도함수가 될 것이다. 또, f는 output이 1개이므로, 벡터가 될 것이다. 즉,

이 벡터를 gradient (vector)라고 부른다. 즉,

의 도함수 벡터이다.

 

이 경우에 우리는 각 축의 방향에 따른 기울기만 알 수 있다. 그러나 우리가 움직일 때, x축, y축으로만 움직이지는 않을 것이므로, 임의의 방향 u(unit vector)에 대한 기울기(Directional Derivative)를 알고 싶을 수 있다. 이에 대한 정의도 다변수함수 미분과 똑같이 정의가 가능하다.

 

(Directional Derivative (for unit vector))

이 Directional Derivative는 사실, gradient만 알면 구할 수 있다.

 

(NOTE)

(증명)

더보기

증명에서 그냥 r(t)를 specialize(한정시키는)하는 부분이 있는데 뭔가 이해가 안된다면 그냥 r(t)=x+tu라고 처음부터 생각하고 증명하면 된다. (단, x는 f의 정의역 내부에 있어야 함)

Gradient는 아주 중요한 개념이므로 꼭꼭 기억하도록 하자.


잠시, 여기서 gradient와 접선(접평면) 사이의 관계를 살펴보자.

예를 들어, y=f(x)에서 x=P에서의 접선을 알려고 한다.

접선을 그리기 위해선 접점과 접선의 기울기를 알아야 한다. 접점의 경우 (대부분) 주어져 있을 것(x=P)이고,

접선의 방향의 경우, 이미 알고 있듯이, 당연히 기울기 방향의 벡터(f'(P))와 수직이 되어야 할 것이다.

그러므로 접선의 방정식은 다음과 같이 구할 수 있다.


나중에 나올 추가적인 gradient 개념에 이용하도록 Operator(연산자) 개념을 알고 넘어가도록 하자.

 

(Operator(연산자))

Operator란 함수함수를 연결하는 사상(mapping)이다.

 

우리가 알던 함수는 input에 수(벡터)를 받아서 output으로 수(벡터)를 뱉어내는 mapping이었다.

하지만, mapping 자체는 사실 어떤 것을 받아도 상관이 없다. 집합을 받든지, 수를 받든지, 함수를 받든지, 심지어 사상을 받든지.... 여기서는 함수를 받는 것으로 생각하면 된다.

 

Linear Operator(선형 연산자)란 선형성(Linearity)을 만족하는 연산자(Operator)로, 연산자도 사상이므로, 선형사상에서 보았던 그 선형성 개념 그대로 가져와서 쓰면 된다.

(참고로, 선형사상 정의를 내릴 때, n차원 벡터를 받아 m차원 벡터를 받는 사상에 대해서 정의하였는데, 벡터 내부의 값이 숫자라면 숫자로 된 행렬에 대응이 될 것이고, 함수라면 함수로 된 행렬(굳이 행렬에 숫자가 들어갈 필요가 없다)에 대응이 될 것이다.)

 

특히, gradient 앞에 붙는 저 del(역삼각형 모양)벡터 미분 연산자(vector differential operator)로 볼 수 있다. 즉,

그러니까, 저 미분 연산자 del은 어떤 함수를 미분시켜주는 일종의 연산(+,-,x 처럼...)이라고 생각할 수 있다.

(예를 들어, +은 input으로 숫자 2개를 받아 output으로 숫자 1개를 내뱉는 연산자라고 할 수 있다.

그러므로, del은 input으로 함수 1개를 받아, output으로 함수 1개를 내뱉는 연산자이다.)

또한, dellinear operator(아래 성질 참고)이므로 행렬(벡터)로 표현이 가능하다.

심지어, 지금은 잘 와닿지 않는 말이지만, 저 del을 마치 벡터처럼 내적(divergence)과 외적(curl)(n=2)도 할 예정이다!!!

 


이 미분 연산자 del의 성질에 대해서 잠시 살펴보자.

(1. Linear Operator)

(2. Product)

이 외에도 위에서 말한 내적과 외적(divergence, curl)등에 관련된 성질들이 많이 있지만, 이는 미적분학 카테고리 거의 맨 뒤에 나올 예정이다.

 


여기까지 어쩌면 미적분학에서 가장 중요한 기초개념인 Gradient에 대해서 알아보았다.

다음시간에는 일변수함수 때처럼, 테일러 정리에 관한 내용으로 들어갈 것인데, 이를 위해 다변수함수의 High-order Derivative에 관해서 알아볼 것이다.