[수치해석] Python을 이용한 수치 미분과 Taylor series expansion을 이용한 오차 분석


[수치해석] Python을 이용한 수치 미분과 Taylor series expansion을 이용한 오차 분석

어떤 함수 f(x)가 다음과 같이 주어진다고 하자. 해당 함수의 도함수는 다음과 같을 것이다. 만약 컴퓨터에서 기존 함수에 대해 미분을 한 도함수를 얻고, 계산하고 싶을 때, 컴퓨터는 도함수를 어떻게 유도해낼 수 있을까? 안타깝게도 컴퓨터는 함수로부터 이러한 도함수를 유도 해낼 수 없다. (컴퓨터가 다양한 함수의 도함수를 학습을 통해 얻지 않은 경우라고 가정) 대신 컴퓨터는 계산이 매우 빠르기 때문에, 근사를 통해 해당 도함수와 최대한 유사하게 표현할 수 있다. 즉, 어떤 점 x_i 에서의 미분 계수를 컴퓨터에서는 x_i와 x_i+1 사이의 h를 매우 작게 계산하여 유도할 수 있다. 고등학교 때 배우는 미분 계수의 정의를 생각해봐도 쉽게 이해할 수 있을 것이다. 그러나 이러한 식은 Taylor serie..


원문링크 : [수치해석] Python을 이용한 수치 미분과 Taylor series expansion을 이용한 오차 분석