경도 (경사도, gradient)
+ 이나스AI에는 인공지능 관련 다양한 강의가 있습니다.
- Object detection, Text To Speech, Reinforcement learning, OCR, Chatbot, Time series prediction,
- Meta learning, eXplainable AI, Transformer/BERT/GPT, Graph-based ML, etc
- 소스코드, 다이어그램 및 중간데이터에 기반하여 인공지능 알고리즘들의 작동원리와 구조를 이해하기 쉽고 정확하게 설명합니다.
+ 작업할 때 켜놓는 라이브 스트리밍 study with me 채널도 운영하고 있습니다.
1. 개념
- 딥러닝에서의 경사하강법 및 이미지처리에서 gradient 라는 용어가 사용된다.
- 수학에서는 gradient 가 어떤 내용으로 되어있는지 예제를 통해서 알아본다.
- Gradient 에는 기하학적 의미가 있다.
- Gradient 는 방향도함수와 관련이 있다.
- 2변수함수 및 3변수함수의 경도는 아래와 같이 표시한다.
$$$z = f(x,y)$$$ 의 경도 : $$$\nabla{f}$$$ 또는 grad $$$f$$$
$$$u = f(x,y,z)$$$ 의 경도 : $$$\nabla{f}$$$ 또는 grad $$$f$$$
- Gradient 의 결과값은 벡터로 산출된다.
2. 계산 방법
- f를 x로 미분해서 x좌표자리에 두고, f를 y로 미분해서 y좌표자리에 둔다.
$$$\nabla f(x,y) = (f_x,f_y)$$$
$$$=f_xi + f_yj$$$
- 3변수일때도 같은 방법을 사용한다.
$$$\nabla f(x,y,z) = (f_x,f_y,f_z)$$$
$$$=f_xi + f_yj+f_zk$$$
2-1. 예제
- $$$f(x,y) = x^2+y^2$$$ 의 점 (1,2) 에서 gradient?
$$$\nabla f(1,2) = (f_x,f_y)_{(1,2)}$$$
$$$=(2x,2y)_{(1,2)}$$$
$$$=(2,4) = 2i+4j$$$
3. Gradient 의 기하학적 의미
- $$$f(x,y) = z = x^2+y^2$$$ 은 아래와 같은 곡면이다.
- x=1, y=2 일 때, 곡면위에 점을 생각해 볼 수 있다. 이 점을 지나면서 xy 평면에 평행하게 곡면을 잘랐을 때 곡선 ($$$x^2+y^2=5$$$) 이 생기게 된다. 이 곡선을 xy평면에 사영시키고, x=1, y=2 일 때, 접선을 구한다. x=1, y=2 일 때 접선의 수직인 벡터가 x=1, y=2 에서의 $$$\nabla f$$$ 이다.
https://leechangyo.github.io/optimization%20method/2019/10/08/Gradient-Methods/
https://mathweb.ucsd.edu/~ashenk/Section14_2.pdf
+ 이나스AI에는 인공지능 관련 다양한 강의가 있습니다.
- Object detection, Text To Speech, Reinforcement learning, OCR, Chatbot, Time series prediction,
- Meta learning, eXplainable AI, Transformer/BERT/GPT, Graph-based ML, etc
- 소스코드, 다이어그램 및 중간데이터에 기반하여 인공지능 알고리즘들의 작동원리와 구조를 이해하기 쉽고 정확하게 설명합니다.
+ 작업할 때 켜놓는 라이브 스트리밍 study with me 채널도 운영하고 있습니다.
댓글
댓글 쓰기