csmathlab의 등록된 링크

 csmathlab로 등록된 네이버 블로그 포스트 수는 43건입니다.

[미분적분학] 1.1 극한의 개념 (The Idea of Limits) [내부링크]

미분적분학 (CALCULUS) - 목차 1. 극한 (LIMITS) 1.1 극한의 개념 (The Idea of Limits) 평균 속도를 구하기 위해선 다음과 같이 객체의 변위 d를 시간 t 동안의 기간으로 나눈 것임을 기억합시다. 미분적분학에서 우리는 순간 변화율을 계산하는데 관심이 있습니다. 객체의 위치를 시간의 함수 f(t)로 나타낸다면, 시간 t0에서 t1까지 이동한 거리는 f(t1) - f(t0)으로 계산될 수 있다는 것을 기억하세요. 이는 평균 속도가 다음과 같이 표현될 수 있음을 의미합니다. 이는 두 지점 사이의 기울기 식과도 동일합니다.

[미분적분학] 1.2 극한의 정의 (Definitions of Limits) [내부링크]

미분적분학 (CALCULUS) - 목차 1. 극한 (LIMITS) 1.2 극한의 정의 (Definitions of Limits) 정의: 극한 (Limit) 어떤 실수 L이 f(x)의 극한(limit)이라고 말할 때, x가 a에 근접함에 따라 f(x)의 값들을 L에 임의로 가깝게 만들 수 있으면, a에 충분히 가까운 x를 선택함으로써 L이 극한이 되며 다음과 같이 적습니다 (단, 반드시 x가 a와 같을 필요는 없습니다). 다음과 같은 값 표를 보겠습니다. x 값이 소수점 뒤에 k 개의 0을 가지면, 그 f(x) 값도 마찬가지입니다. 소수점 뒤에 많은 수의 0이 전체수에 매우 가까운 수를 의미하기 때문에, x를 2에 임의로 가깝게 만듦으로써 f(x)를 4에 임의로 가깝게 만들 수 있음을 볼 수 있습니다. 즉, 첫 번째 질문에 대한 답이 다음과 같다면, 정답입니다. 1.1 극한의 개념 4-c 문제로 돌아가 봅시다. 우리는 나중에 종종 연속 함수(펜을 떼지 않고 그릴 수 있는 함수)의 극한

[미분적분학] 1.3 극한을 계산하는 기법 (Techniques for Computing Limits) [내부링크]

미분적분학 (CALCULUS) - 목차 1. 극한 (LIMITS) 1.3 극한을 계산하는 기법 (Techniques for Computing Limits) 극한의 성질: c는 상수이고, n은 자연수이며, limx->a f(x) = L, limx->a g(x) = M이라고 정의합시다. 위의 예제 2에서 배운 것은, 다항식이나 유리 함수 f(x), 또는 그것들의 지수 또는 루트에 대해, 어떤 점 a에서 극한을 찾기 위해서는 0으로 나누지 않는 한, a를 함수에 대입하기만 하면 된다는 것입니다. 즉, limx->a f(x) = f(a)입니다. 때때로 우리는 단순히 값을 대입할 수 있습니다. 예를 들어: limx->3 (3x + 2) = (3⋅3 + 2) = 11입니다. 0으로 나누는 것이 있는 경우에는 대수를 사용하여 표현식을 다시 쓰고, 우리가 값에 점점 더 가까워질 때 무슨 일이 일어나는지를 결정해야 합니다. 기호에 관하여 간단한 마지막 주의 사항입니다: 위 둘의 차이점은 무엇일까요?

[선형대수학] 6.3 동형사상과 조합 (Isomorphisms and Composition) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 6. 선형 변환 (LINEAR TRANSFORMATIONS) 6.3 동형사상과 조합 (Isomorphisms and Composition) 정의: 동형사상 (Isomorphism)과 동형 (Isomorphic) 선형 변환 T : V → W가 전단사 함수, 즉 일대일 함수와 전사 함수일 때, 동형사상(isomorphism)이라고 합니다. 만약 동형사상 T : V → W가 존재한다면 벡터 공간 V와 W는 동형(isomorphic)이라고 하며, 이 경우 V ≅ W라고 씁니다. 참고1: 다른 책에서는 "동형적이다"라는 말을 할 때 V ~ W와 같이 다른 기호를 사용할 수도 있습니다. 정리1: 만약 V와 W가 유한 차원 공간이라면, 선형 변환 T : V → W에 대해 다음 조건들은 동등합니다: T는 동형사상이다. 만약 {v1, v2, ..., vn}이 V의 임의의 기저라면, {T(v1), T(v2), ..., T(vn)}은 W의 기저이다. 정

[선형대수학] 7.1 선형 변환의 행렬 (The Matrix of a Linear Transformation) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 7. 기저 변환 (CHANGE OF BASIS) 7.1 선형 변환의 행렬 (The Matrix of a Linear Transformation) 이 장의 목표: T : V → W가 n차원 벡터 공간 V에서 m차원 벡터 공간 W로의 선형 변환이고, 우리가 V와 W에 대해 기저를 선택한다면, 우리는 행렬 곱셈을 통해 V 안의 벡터 x에 대한 T(x)를 찾을 수 있게 해주는 유일한 m x n 행렬 A와 L을 연관시킬 수 있습니다. 정의: 순서 기저 (Ordered Basis) S = {b1, b2, ..., bn}이 V의 기저라고 합시다. 우리는 B = (b1, b2, ..., bn)이 V의 순서가 고정된 순서 기저(ordered basis)라고 부릅니다. 참고1: 어떤 책에서는 순서 기저를 집합 표기법 {}을 사용하여 씁니다. 하지만 우리는 순서를 강조하기 위해 ()를 사용할 것입니다. B1 = (v1, v2, ..., vn)과 B2 =

[선형대수학] 7.2 연산자와 닮음 (Operators and Similarity) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 7. 기저 변환 (CHANGE OF BASIS) 7.2 연산자와 닮음 (Operators and Similarity) 복기: V에서 V 자체로의 선형 변환, 즉 T : V → V는 선형 연산자(linear operator)라고 부릅니다. 이 경우, 우리는 V와 목표 공간(마찬가지로 V)에 대해 같은 순서 기저 B를 선택할 수 있습니다. 이 경우, T의 행렬은 특별한 이름을 가집니다. 정의: B-행렬 (B-Matrix) 만약 T : V → V가 벡터 공간 V에서 연산자이고, B가 V의 순서 기저라면, MB(T) = MBB(T)로 정의하고 이를 T의 B-행렬(B-Matrix)이라 부릅니다. 만약 T : ℝn → ℝn이고, 우리가 표준 기저 E = {e1, e2, ..., en}을 사용한다면, ME(T)는 T의 표준 행렬(standard matrix)이라고 부릅니다. 선형 연산자 또한 선형 변환이므로, 많은 결과들이 이전 섹션에서 다시 시

[선형대수학] 7.3 불변 부분 공간 (Invariant Subspaces) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 7. 기저 변환 (CHANGE OF BASIS) 7.3 불변 부분 공간 (Invariant Subspaces) 만약 T : V → V가 선형 연산자라면, V의 기저 B를 어떻게 선택하면 행렬 MB(T)를 가능한 간단하게 만들 수 있을까요? 선형 연산자의 고윳값 (Eigenvalues of Linear Operators) 정의: 고윳값 (Eigenvalue)과 고유벡터 (Eigenvector) 실수 λ가 T : V → V의 연산자의 고윳값(eigenvalue)이라고 할 때, T(v) = λv를 만족하는 V의 0이 아닌 벡터 v에 대해 이러한 v를 T의 λ에 대응하는 고유벡터(eigenvector)라고 합니다. T의 고유공간(eigenspace) Eλ(T) = {v ∈ V | T(v) = λv}는 λ에 대응하는 고유공간입니다. 비고1: A가 n x n 행렬이라면, λ가 A의 고윳값이며 고유공간이 같을 때에만 λ는 행렬 연산자 TA : ℝ

[선형대수학] 8.1 내적과 노름 (Inner Products and Norms) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 8. 내적 공간 (INNER PRODUCT SPACES) 8.1 내적과 노름 (Inner Products and Norms) 이 단원에서 우리는 ℝn 상의 내적의 성질을 사용하여 모든 실수 벡터 공간에 대한 내적의 개념을 일반화합니다. 정의: 내적 (Inner Product) V가 벡터 공간일 때, V 상의 내적(inner product)은 V의 벡터 순서쌍 v, w에 대해 다음과 같은 성질을 만족하는 실수 <v, w>를 할당하는 함수입니다. 모든 v, w에 대해, ⟨v, w⟩ = ⟨w, v⟩ 모든 u, v, w에 대해, ⟨v + w, u⟩ = ⟨v, u⟩ + ⟨w, u⟩ 모든 v, w와 스칼라 r에 대해, ⟨rv, w⟩ = r⟨v, w⟩ 모든 v ≠ 0에 대해, ⟨v, v⟩ > 0 ⟨, ⟩는 내적 공간(inner product space)이라고 부릅니다. 정리1: 벡터 공간 V의 내적 ⟨, ⟩에 대해, 다음 추가적인 성질이 자동으로

[선형대수학] 8.2 벡터의 직교 집합 (Orthogonal Sets of Vectors) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 8. 내적 공간 (INNER PRODUCT SPACES) 8.2 벡터의 직교 집합 (Orthogonal Sets of Vectors) 만약 u, v가 내적 공간의 두 개의 0이 아닌 벡터라면, 다음을 만족합니다. 이는 8.1에서 다뤘던 CBS 부등식을 이용하여 증명 가능합니다. 이는 0 ≤ θ ≤ π 범위의 유일한 각도 θ가 존재함을 의미하며, 그때 다음을 만족합니다. 정의: 두 벡터 사이의 각도 (Angle Between Two Vectors) 내적 공간에서 두 개의 0이 아닌 벡터 u, v 사이의 각도는 오직 다음과 같을 때 θ입니다. 정의: 직교 (Orthogonal) 내적 공간에서 두 벡터 u와 v가 ⟨u, v⟩ = 0을 만족한다면 두 벡터는 직교(orthogonal) 한다고 합니다. 정의: 직교 집합 (Orthogonal Set) 내적 공간 V에서 벡터들의 집합 S가 서로 다른 각각의 벡터 쌍이 직교할 때, 직교 집합(ort

[선형대수학] 5.1 벡터 공간의 예제와 기본적인 특성 (Examples and Basic Properties) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 5. 벡터 공간 (VECTOR SPACES) 5.1 벡터 공간의 예제와 기본적인 특성 (Examples and Basic Properties) 4장에서는 ℝn 안의 벡터들을 대수적으로 다뤘습니다. 많은 결과는 ℝn 안의 벡터들이 익숙한 방법으로 덧셈과 스칼라 곱을 할 수 있다는 사실에 의존했습니다. 그러나, ℝn 안의 벡터들만이 이러한 성질을 가진 유일한 집합은 아닙니다. 같은 성질을 만족하는 집합의 다른 예로는 다항식, 미분 가능한 함수, 행렬 등이 있습니다. 매우 많은 유용한 집합들이 같은 성질을 보이기 때문에, 우리는 덧셈과 스칼라곱이 서로 "잘 작동하는" 이러한 집합들에 대한 이름과 이론을 개발할 것입니다. 정의: 실수 벡터 공간 (Real Vector Space) 실수 벡터 공간(real vector space)은 비어 있지 않은 집합 V (여기서는 벡터라고 불리는 객체들)로 구성되며, 이는 덧셈이 가능하고, 실수(이 문맥에

[선형대수학] 5.2 부분 공간과 생성집합 (Subspaces and Spanning Sets) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 5. 벡터 공간 (VECTOR SPACES) 5.2 부분 공간과 생성집합 (Subspaces and Spanning Sets) 일반적으로 "큰" 벡터 공간 안에는 하나 또는 여러 "작은" 벡터 공간이 포함되어 있습니다. 정의: 부분 공간 (Subspace) V를 벡터 공간(vector space)이라 하고 W를 V의 비어있지 않은 부분집합(nonempty subset)이라 정의합니다. 즉, W ⊆ V이며 W ≠ ∅을 의미합니다. 만약 W가 V 내의 연산에 대하여 벡터 공간이라면, W를 V의 부분 공간(subspace)이라고 합니다. 노트: 만약 W ⊆ V라면, W는 V의 모든 원소에 대해 참인 A2, A3, 그리고 S2 - S5를 자동적으로 만족합니다. 왜냐하면 W는 단지 더 적은 원소들을 가지고 있을 뿐이기 때문입니다. 또한, 만약 W가 덧셈과 스칼라 곱셈에 대해 닫혀 있다면, W는 A4와 A5를 만족합니다. (5.1 벡터 공간의

[선형대수학] 5.3 선형 독립과 차원 (Linear Independence and Dimension) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 5. 벡터 공간 (VECTOR SPACES) 5.3 선형 독립과 차원 (Linear Independence and Dimension) 정의: 자명한 선형 조합 (Trivial Linear Combination) 벡터 공간 V의 벡터들 v1, v2, ..., vn이 선형 독립(linear independent)이라 함은, a1v1 + a2v2 + ... + anvn = 0이면 언제나 a1 = a2 = ... = an = 0이라는 조건을 만족할 때를 말합니다. 벡터 v1, v2, ..., vn의 자명한 선형 조합(trivial linear combination)은 모든 계수가 0인 조합입니다: 정의: 선형 종속 (Linearly Dependent) 벡터 공간 V의 벡터들 v1, v2, ..., vn이 선형 종속(linearly dependent)이라 함은, 실수 a1 = a2 = ... = an가 존재하여 이고 모든 ai = 0이 아닌

[선형대수학] 5.4 유한 차원 집합 (Finite Dimensional Spaces) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 5. 벡터 공간 (VECTOR SPACES) 5.4 유한 차원 집합 (Finite Dimensional Spaces) 이 단원에서 우리는 다음 질문을 탐구할 것입니다: 언제 벡터 공간은 기저(basis)를 가지게 될까요? 보조정리1: 벡터 공간 V에서 선형 독립인 벡터 집합 {v1, v2, ..., vk}를 생각해 봅시다. 만약 u가 V 안의 벡터이지만 span{v1, v2, ..., vk} 안에는 없다면, 그러면 {u, v1, v2, ..., vk} 또한 선형 독립(linearly independent)입니다. 정의: 유한 차원 (Finite Dimensional) 벡터 공간 V가 유한한 벡터 집합에 의해 생성될 때, V는 유한 차원(finite dimensional)이라고 불립니다. 그렇지 않으면 V는 무한 차원(infinite dimensional)이라고 불립니다. {0}은 유한 차원일까요? 네, 맞습니다. span{0} = {

[선형대수학] 6.1 선형 변환의 예제와 기본적인 특성 (Examples and Elementary Properties) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 6. 선형 변환 (LINEAR TRANSFORMATIONS) 6.1 선형 변환의 예제와 기본적인 특성 (Examples and Elementary Properties) 2. 행렬대수학 (MATRIX ALGEBRA)에서 ℝn에서 ℝm으로의 선형 변환 T를 공부했습니다. 이제 우리는 이 개념을 임의의 벡터 공간으로 일반화할 것입니다. 정의: 선형 변환 (Linear Transformation) V와 W를 벡터 공간이라 할 때, 함수 T : V → W는 다음 조건을 만족하면 V에서 W로의 선형 변환(linear transformation of V into W)이라고 불립니다: 모든 u, v에 대해 T(u + v) = T(u) + T(v) 모든 u, 스칼라 c에 대해 T(cu) = cT(u) 선형 변환 T : V → V는 또한 V의서의 선형 연산자(linear operator)라고 불립니다. 정리1: 함수 T : V → W는 모든 u, v에

[선형대수학] 6.2 선형 변환의 핵과 상 (Kernel and Image of a Linear Transformation) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 6. 선형 변환 (LINEAR TRANSFORMATIONS) 6.2 선형 변환의 핵과 상 (Kernel and Image of a Linear Transformation) 정의: 핵 (Kernel) T : V → W가 선형 변환이라고 합시다. ker T로 표시되는 T의 핵(kernel)은 모든 원소 v에 대해 T(v) = 0W인 V의 부분 집합입니다. 정의: 상 (Image) im T로 표시되는 T의 상(image)은 V의 벡터들의 T 하에서의 상들인 W의 모든 벡터들로 구성됩니다. 따라서, 만약 어떤 v에 대해 T(v) = w라면 w는 im T입니다. 집합으로 핵과 상을 표기하면 다음과 같습니다: 팩트1: ker T는 절대 비어있는 집합이 아닙니다. 왜냐하면 T(0V) = 0W에서 0V는 항상 ker T에 속하기 때문입니다. 팩트2: im T는 절대 비어있는 집합이 아닙니다. 왜냐하면 T(0V) = 0W에서 0W는 항상 im T에

[선형대수학] 4.5 닮음과 대각화 (Similarity and Diagonalization) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 4. 벡터 공간 ℝn (VECTOR SPACE ℝn) 4.5 닮음과 대각화 (Similarity and Diagonalization) 정의: 행렬의 닮음 (Similarity) A, B가 n x n 행렬이라고 가정합시다. B = P-1AP인 가역행렬 P가 존재하면 A와 B는 서로 닮음(similar)입니다. 서로 닮은 두 행렬은 A ~ B로 표현합니다. 팩트1: A ~ B라면 B ~ A입니다. 증명: B = P-1AP for some invertible P PBP-1 = A Let Q = P-1 Then, Q-1 = P Hence, A = Q-1BQ 정리1: n x n 행렬인 A, B, C를 정의합니다. 닮음은 반사 관계(reflexive relation)이다. 즉, 모든 n x n 행렬 A에 대하여 A ~ A이다. 닮음은 대칭(symmetric)이다. 즉, A ~ B라면 B ~ A이다. 닮음은 추이 관계(transitive rela

[선형대수학] 4.4 행렬의 랭크 (Rank of a Matrix) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 4. 벡터 공간 ℝn (VECTOR SPACE ℝn) 4.4 행렬의 랭크 (Rank of a Matrix) 이제 차원(dimension)의 개념과 랭크(rank) (1.2 가우스 소거법 (Gaussian Elimination) 행렬의 랭크 참고)의 개념을 연결해 보겠습니다. 이 단원에서는 ℝn의 벡터를 열이 아닌 행으로 인식하는 경우가 많습니다. 생성 공간(span), 선형 독립성(linear independence), 기저(basis)의 개념이 행에 대해 정의됩니다. 정의: 열공간 (Column Space), 행공간 (Row Space) m x n 행렬 A를 다음과 같이 정의합시다. ℝm의 벡터로 간주되는 A의 열은 A의 열 공간(column space)이라고 불리는 ℝm의 부분 공간(col A로 표시)을 span 한다. ℝn의 벡터로 간주되는 A의 행은 A의 행 공간(row space)이라고 불리는 ℝn의 부분 공간(row A로

[선형대수학] 4.3 직교성 (Orthogonality) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 4. 벡터 공간 ℝn (VECTOR SPACE ℝn) 4.3 직교성 (Orthogonality) 복기: 아래 두 벡터 x, y의 내적(dot product)은 다음과 같이 표현됩니다. 정의: 벡터의 길이/크기 (The Length, or Magnitude of the Vector) ℝn 안의 다음과 같은 벡터 x를 정의합니다. 벡터 x의 길이(length), 또는 크기(magnitude)는 다음과 같습니다. ℝ2 안의 다음과 같은 벡터 v에서는 아래와 같이 표현될 수 있겠죠. 팩트1: 일반적으로, ℝn 안의 아래와 같은 두 벡터 u, v 사이의 거리는 || v - u || 이고, 다음과 같이 표현됩니다. 정리1: ℝn 안의 벡터 x, y, z, 그리고 a를 스칼라라 정의합시다. 그러면 내적에 대한 다음 속성들이 성립합니다. ℝ2 또는 ℝ3 안의 두 벡터 u와 v 사이의 각도 θ는 다음 공식을 따릅니다. 정의: 단위벡터 (Unit Ve

[자바2] 1.1 프로그래밍 (Programming (General)) [내부링크]

자바2; 중급 (JAVA) - 목차 1. 절차적 프로그래밍 (PROCEDURAL PROGRAMMING) 1.1 프로그래밍 (Programming (General)) 컴퓨터 프로그램 기초 (Computer Program Basics) 컴퓨터 프로그램은 오늘날 많은 사람들의 삶에 풍부하게 존재하며, 스마트폰, 태블릿, 노트북에서 애플리케이션을 실행하고 Amazon 및 Netflix와 같은 비즈니스를 지원하며 자동차 운전과 비행기 비행 등을 지원합니다. 컴퓨터 프로그램은 한 번에 하나씩 실행되는 명령으로 구성됩니다. 기본 명령어 유형은 다음과 같습니다. 입력(input): 프로그램은 파일, 키보드, 터치스크린, 네트워크 등에서 데이터를 가져옵니다. 프로세스(process): 프로그램은 x + y와 같은 두 값을 더하는 등 해당 데이터에 대한 계산을 수행합니다. 출력(output): 프로그램은 해당 데이터를 파일, 화면, 네트워크 등과 같은 어딘가에 저장합니다. 프로그램은 x, y, z 같

[자바2] 1.6 퍼펙트 사이즈 배열 (Perfect Size Arrays) [내부링크]

자바2; 중급 (JAVA) - 목차 1. 절차적 프로그래밍 (PROCEDURAL PROGRAMMING) 1.6 퍼펙트 사이즈 배열 (Perfect Size Arrays) 퍼펙트 사이즈 배열 (Perfect Size Arrays) 퍼펙트 사이즈 배열(Perfect size array)은 배열 안의 항목의 수가 할당된 메모리와 정확히 동일한 배열입니다. 예를 들어, 서울의 월별 평균 온도는 12개의 값이 있는 배열에 저장될 수 있겠죠. 완벽한 크기의 배열은 배열의 길이를 설정하고 배열의 각 요소를 주어진 값으로 초기화하는 배열 이니셜라이저(array initializer)로 생성할 수 있습니다. 예시를 들어보겠습니다. int[] avgTemps = {-2, 1, 6, 13, 18, 22, 25, 26, 21, 15, 7, 0}; 총 12개의 정수 값으로 초기화된 7개의 항목들로 정수 배열을 생성합니다. 배열 초기화(Array initialization)는 참조가 선언된 경우에만 발생할

[자바2] 1.5 일반적인 오류: 메서드 및 배열 (Common Errors: Methods and Arrays) [내부링크]

자바2; 중급 (JAVA) - 목차 1. 절차적 프로그래밍 (PROCEDURAL PROGRAMMING) 1.5 일반적인 오류: 메서드 및 배열 (Common Errors: Methods and Arrays) 메서드 시그니처 오류 (Method Signature Errors) 프로그래머는 때때로 메서드 시그니처가 잘못될 수 있다는 사실을 잊어버립니다. 프로그래머가 해당 오류를 찾는 것을 잃어버리기 때문에 메서드 시그니처에서 발생한 오류를 찾기가 어렵습니다. 메서드 시그니처가 잘못된 경우 메서드 바디(method body)를 작성하고 테스트해도 오류가 해결되지 않겠죠. 메서드는 단일 목적으로 설계되어야 합니다. 목적이 배열의 내용을 변경하는 것이라면 메서드는 값을 반환하는 다른 계산을 수행해서는 안 됩니다. 배열을 사용하는 메서드에는 일반적으로 세 가지 목적 중 하나가 있으며, 각 목적은 종종 메서드 시그니처로 식별될 수 있습니다. 배열을 기반으로 값을 계산하고 배열을 변경하지 않은 채

[자바2] 1.4 클래스에 대한 자바 문서 (Java Documentation for Classes) [내부링크]

자바2; 중급 (JAVA) - 목차 1. 절차적 프로그래밍 (PROCEDURAL PROGRAMMING) 1.4 클래스에 대한 자바 문서 (Java Documentation for Classes) Javadoc 도구는 문서를 생성하기 위해 특별히 형식화된 주석과 함께 소스 코드를 구문 분석합니다. Javadoc에 의해 생성된 문서는 클래스 및 클래스 멤버용 API로 알려져 있죠. API는 Application Programming Interface의 약자입니다. Javadoc에 대해 특별히 형식화된 주석을 Doc 주석(Doc comments)라고 하며, 이는 /** 와 */ 문자 사이에 포함된 모든 텍스트로 구성된 여러 줄 주석입니다. 중요한 것은 두 개의 별표를 포함하는 시작 문자 /**로 구별된다는 것입니다. 다음 코드를 봐봅시다. /* * Represents elapsed time in hours and minutes. * This class provides methods to

[자바2] 1.3 기본 디버깅 (Basic Debugging) [내부링크]

자바2; 중급 (JAVA) - 목차 1. 절차적 프로그래밍 (PROCEDURAL PROGRAMMING) 1.3 기본 디버깅 (Basic Debugging) 디버깅 (Debugging) 프로그램은 컴퓨터가 계산을 수행하기 위해 실행하는 일련의 명령(instructions), 일명 명령문(statements)입니다. 마치 레시피가 요리사가 식사를 만들기 위해 실행하는 일련의 명령인 것과 같죠. 프로그램은 작성하기 어렵고 잘못된 출력을 표시하는 등의 문제가 있는 경우가 많습니다. 프로그램에서는 문제의 원인을 버그(bug)라 하고, 문제 해결을 디버깅(debugging)이라고 합니다. 기본적인 디버깅 프로세스는 시각적 검사(visual inspection)입니다. 각 명령문을 하나씩 살펴보고 버그를 찾으려고 노력하는 것이죠. 각 명령문에 대해 이 프로세스에는 다음과 같은 가설이 있습니다: "이 프로그램에는 버그가 있구나!" 이러한 테스트는 육안으로 검사하는 거죠, 버그가 발견되면 가설이 검

[자바2] 1.2 프로그래밍 지식 (Programming Knowledge) [내부링크]

자바2; 중급 (JAVA) - 목차 1. 절차적 프로그래밍 (PROCEDURAL PROGRAMMING) 1.2 프로그래밍 지식 (Programming Knowledge) 프로그래밍을 디버깅할 때, 프로그래밍 언어의 작동 방식을 아는 것이 중요합니다. 지식을 통해 프로그래머는 버그 원인에 대한 가설을 세울 수가 있어지죠. 프로그래머는 F = C * (9 / 5) + 32 라는 코드가 예상대로 작동하지 않는다는 것을 발견하고, 아래와 같이 앞과 뒤에 디버그 출력 문을 추가합니다. Put "DEBUG: C is " to output Put C to output Put "\n" to output F = C * (9 / 5) + 32 Put "DEBUG: F is " to output Put F to output Put "\n" to output 프로그램 사용자가 100을 입력했다고 가정합시다. 프로그램은 그럼 다음을 출력합니다. DEBUG: C is 100 DEBUG: F is 132 C는

[선형대수학] 4.2 독립과 차원 (Independence and Dimension) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 4. 벡터 공간 ℝn (VECTOR SPACE ℝn) 4.2 독립과 차원 (Independence and Dimension) 실수 벡터 공간 V에는 V를 span 하는 다양한 집합이 있습니다. 어떤 집합이 가장 V를 "효율적"으로 span 하는지 어떻게 결정할까요? 정의: 선형 독립 (Linearly Independent) t1x1 + t2x2 + ... + tkxk = 0을 만족하는 ℝn 안의 벡터 집합 {x1, x2, ..., xk}와 스칼라 t1 = t2 = ... = tk = 0을 만족할 때, 벡터 집합은 선형 독립, 또는 일차독립(linearly independent)이라고 합니다. 독립성 테스트 (Independence Test) 집합 {x1, x2, ..., xk}가 (선형) 독립인지 확인하기 위해 다음과 같이 진행해 봅시다. 선형 조합(linear combination)이 0과 같도록 식을 먼저 짠다: t1x1 + t2

[선형대수학] 4.1 부분 공간과 생성공간 (Subspaces and Spanning) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 4. 벡터 공간 ℝn (VECTOR SPACE ℝn) 4.1 부분 공간과 생성공간 (Subspaces and Spanning) 복기: 2.2 행렬과 벡터의 곱셈(Matrix-Vector Multiplication)에서 정렬된 수열(ordered sequence) (a1, a2, ..., an) 또는 정렬된 실수(ordered real numbers)를 정렬된 n순서쌍(ordered n-tuple)이라 한다고 배웠습니다. 정의: 부분공간 (Subspace) ℝn의 벡터 집합 U가 다음 속성을 모두 만족하는 경우 ℝn의 부분공간(subspace of ℝn)이라고 합니다. 는 영벡터 0을 포함한다. 모든 x, y ∈ U에 대하여 x + y ∈ U이다. (U는 덧셈에 대하여 닫혀있다, closed under addition) 모든 스칼라 a와 x ∈ U에 대하여 ax ∈ U이다. (U는 스칼라 곱에 대하여 닫혀있다, closed under

[선형대수학] 3.2 행렬식과 역행렬 (Determinants and Matrix Inverses) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 3. 행렬식과 대각화 (DETERMINANTS AND DIAGONALIZATION) 3.2 행렬식과 역행렬 (Determinants and Matrix Inverses) 이번 단원: 행렬식과 역행렬에서는 두 가지 정리만 알아볼 예정입니다. 정리1: A와 B 모두 n x n 행렬이라면, det(AB) = det(A)det(B)를 만족합니다. 정리2: 행렬식과 역행렬(Determinants and Matrix Inverses) n x n 행렬 A를 정의하겠습니다. det(A) ≠ 0일 때에만 행렬 A는 가역/비특이입니다. 행렬 A가 가역일 때, 다음을 만족합니다. 증명: 행렬 A가 가역이라면, A는 기본 행 연산(elementary row operations)을 통하여 In으로 환원이 가능합니다. det(In) = 1 ≠ 0이고, 3.1 여인수 전개 (The Cofactor Expansion)의 행 연산 및 행렬식에서 서술한 것과 같이

[선형대수학] 3.3 대각화와 고윳값 (Diagonalization and Eigenvalues) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 3. 행렬식과 대각화 (DETERMINANTS AND DIAGONALIZATION) 3.3 대각화와 고윳값 (Diagonalization and Eigenvalues) 정의: 고윳값과 고유벡터 (Eigenvalues and Eigenvectors) n x n 행렬 A를 정의합니다. λ(lambda, 람다)가 스칼라이고 v가 다음을 만족하는 ℝn의 0이 아닌 벡터의 경우, λ는 A의 고윳값(eigenvalue), v는 λ와 연관된 A의 고유벡터(eigenvector)라고 말합니다. 고윳값과 고유벡터 찾기 (Finding Eigenvalues and Eigenvectors) 정의: 특성다항식(Characteristic Polynomial), 특성방정식(Characteristic Equation) 다음과 같은 n x n 행렬 A를 정의합니다. 다음 행렬 λIn - A의 행렬식(determinant)은 A의 특성다항식(characterist

[자바1] 0. 목차 [내부링크]

주의: 자바1, 자바2, ...는 설명하는 내용들의 난이도와 깊이에 따라 임의로 정한 이름입니다. 이 점 착오 없으시길 바랍니다. 자바1 (Java) 목차 1. 프로그래밍의 과정 (Programming Process) Programming (General) Why Programming? Programming Basics Comments and Whitespace Errors and Warnings Computers and Programs (General) Computer Tour Language History Problem Solving Why Whitespace Matters? 2. 기본형과 표현식 (Primitives and Expressions) Binary Variables and Assignments (General) Variables (int) Identifiers Arithmetic Expressions (int) Floating-point Numbers (double)

[자바2] 0. 목차 [내부링크]

주의: 자바1, 자바2, ...는 설명하는 내용들의 난이도와 깊이에 따라 임의로 정한 이름입니다. 이 점 착오 없으시길 바랍니다. 자바2 (Java) 목차 1. 절차적 프로그래밍 (Procedural Programming) 프로그래밍 지식 (Programming knowledge) 기본 디버깅 (Basic debugging) 클래스에 대한 자바 문서 (Java documentation for classes) 일반적인 오류: 메서드 및 배열 (Common errors: Methods and arrays) 퍼펙트 사이즈 배열 (Perfect size arrays) 오버사이즈 배열 (Oversize arrays) 오버사이즈 배열을 사용하는 메서드 (Methods with oversize arrays) 퍼펙트 사이즈와 오버사이즈 배열 비교하기 (Comparing perfect size and oversize arrays) 2. 객체 사용 (Using Objects) 객체: 소개 (Objec

[미분적분학] 0. 목차 [내부링크]

미분적분학 (Calculus) 목차 1. 극한 (LIMITS) (The Idea of Limits) (Definitions of Limits) (Techniques for Computing Limits) (Infinite Limits) (Limits at Infinity) (Continuity) 2. 미분 (DERIVATIVES) (Introducing the Derivative) (Working with Derivatives) (Rules of Differentiation) (The Product & Quotient Rules) (Derivatives of Trig Functions) (Derivatives as Rates of Change) (The Chain Rule) (Implicit Differentiation) (Derivatives of Log & Exponential Functions) (Derivatives of Inverse Trigonometric Function

[선형대수학] 2.2 행렬과 벡터의 곱셈(Matrix-Vector Multiplication) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 2. 행렬대수학 (MATRIX ALGEBRA) 2.2 행렬과 벡터의 곱셈(Matrix-Vector Multiplication) 벡터 (Vectors) 정의: 벡터 (Vector) 우리가 선형대수학에서 사용할 벡터의 종류는 크게 두 가지입니다. 행렬이 1 x n이면 행 벡터(Row vector), n x 1이면 (열) 벡터((Column) vector)라고 말합니다. 종종 우리는 n-벡터 또는 "길이 n의 벡터(vectors of length n)"라고 부릅니다. 이때, 벡터는 볼드체로 표기하거나 문자 위에 화살표로 벡터를 표현합니다. 제 게시물에서 벡터는 볼드체로 표시할 예정입니다. ℝn은 모든 n-벡터의 집합을 나타냅니다. ℝn 안에 있는 영벡터(0으로 표시됨)는 모두 0으로 구성된 n-벡터입니다. m x n 행렬은 길이가 m인 열 벡터가 n개 있는 것으로 간주할 수 있습니다. A = [a1 a2 ... an] 여기서 ai는 행렬

[선형대수학] 2.3 행렬 곱셈 (Matrix Multiplication) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 2. 행렬대수학 (MATRIX ALGEBRA) 2.3 행렬 곱셈 (Matrix Multiplication) 정의: 행렬의 곱셈 (Matrix Multiplication) m x n 행렬 A와 n x k 행렬 B = [b1 b2 ... bk]를 정의합니다. bj는 B의 j번째 열입니다. A와 B 행렬의 곱셈인 AB는 다음과 같은 m x k 행렬로 정의됩니다. 2.2 행렬과 벡터의 곱셈에서 다룬 내용이죠. AB 행렬의 j번째 열은 A와 bj의 행렬과 벡터의 곱셈이 됩니다. 팩트: m x n 행렬 A와 n x k 행렬 B가 있으면, 그 둘의 유도된 행렬 변환의 합성은 또 다른 행렬 변환이 됩니다. 행렬 곱셈의 내적 정의 (Dot Product Definition of Matrix Product) 행렬과 벡터의 곱셈과 마찬가지로 내적을 통해 행렬끼리의 곱셈을 계산하는 또 다른 방법이 있습니다. 정리1: m x n 행렬 A와 n x k 행렬

[선형대수학] 2.4 역행렬 (Matrix Inverses) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 2. 행렬대수학 (MATRIX ALGEBRA) 2.4 역행렬 (Matrix Inverses) 정의: 특이(Singular Matrix), 비특이(Nonsingular Matrix)와 가역(Invertible), 비가역(Noninvertible), 그리고 역행렬(Inverse) n x n 행렬 A와 B가 있다고 가정하겠습니다. AB = BA = In을 만족한다면 A는 비특이(nonsingular) 또는 가역(invertible)이라고 합니다. 이 행렬 B를 A의 역행렬(Inverse)라 하고, A-1라고 표기합니다. AB = BA = In을 만족하는 B가 없다면 특이(Singular) 또는 비가역(Noninvertible)이라고 합니다. 많이 익숙한 개념이죠. 흔히 0이 아닌 실수 a와 그의 역수인 1/a를 곱하면 1이 되는 것과 같은 아이디어입니다. 팩트: AB = In이라면, BA = In입니다. 팩트: 행렬의 역행렬은 고유(uni

[선형대수학] 2.5 선형 변환 (Linear Transformations) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 2. 행렬대수학 (MATRIX ALGEBRA) 2.5 선형 변환 (Linear Transformations) 어떤 변환이 행렬 변환(Matrix transformations)을 만드나요? 정의: 선형 변환(Linear Transformation) 다음을 모두 만족하는 함수 T : ℝn → ℝm를 ℝn에서 ℝm으로 가는 선형변환(linear transformation)이라 합니다. T(x + y) = T(x) + T(y) (모든 x, y ∈ ℝn에 대해) T(cx) = cT(x) (모든 x ∈ ℝn, c ∈ ℝ에 대해) Recall: (1.3 동차방정식 (Homogeneous Equations) 정의: 선형 결합) 유한개의 벡터 x1, x2, ..., xk와 스칼라 a1, a2, ..., ak에 대하여 다음을 만족하는 벡터 y ∈ ℝn는 선형결합이라 한다고 배웠습니다. 정리1: T : ℝn → ℝm이 선형 변환이라면, 다음을 만족합니다

[선형대수학] 3.1 여인수 전개 (The Cofactor Expansion) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 3. 행렬식과 대각화 (DETERMINANTS AND DIAGONALIZATION) 3.1 여인수 전개 (The Cofactor Expansion) 챕터 3. 행렬식과 대각화에서는 n x n 정방행렬(square matrix)을 사용할 겁니다. 이 섹션의 목표: 가역의 여부를 알려주는 행렬에서 계산할 수 있는 숫자(행렬식, determinant)를 찾습니다. 아래와 같은 2 x 2 행렬 A로 시작해 봅시다. 2.4 역행렬 (Matrix Inverses) 단원에서 2 x 2 행렬에서 다음을 만족한다고 배웠습니다. 위 공식이 성립하지 않을 때는 ad - bc = 0일 때고요. 정의: 행렬식 (Determinant) 2 x 2 행렬 A에서의 행렬식(determinant)은 다음과 같습니다. 2 x 2 행렬식을 이용하여 3 x 3 행렬의 행렬식을 만들 수 있습니다. 이것이 왜 올바른 함수인지 지금 당장은 명확하지 않지만 나중에 더 자세히 살

[선형대수학] 0. 목차 [내부링크]

선형대수학 (Linear Algebra) 목차 1. 연립일차방정식 (SYSTEMS OF LINEAR EQUATIONS) 기본연산(Solutions and Elementary Operations) 가우스 소거법(Gaussian Elimination) 동차방정식(Homogeneous Equations) 2. 행렬대수학 (MATRIX ALGEBRA) 행렬의 덧셈, 스칼라 곱, 전치(Matrix Addition, Scalar Multiplication, and Transposition) 행렬과 벡터의 곱셈(Matrix-Vector Multiplication) 행렬 곱셈(Matrix Multiplication) 역행렬(Matrix Inverses) 선형 변환(Linear Transformations) 3. 행렬식과 대각화 (DETERMINANTS AND DIAGONALIZATION) 여인수 전개(The Cofactor Expansion) 행렬식과 역행렬(Determinants and Matr

[선형대수학] 1.1 기본연산 (Solutions and Elementary Operations) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 1. 연립일차방정식 (SYSTEMS OF LINEAR EQUATIONS) 1-1. 기본연산 (Solutions and Elementary Operations) 선형방정식 (Linear Equations) a1x1 + a2x2 + ... + anxn = b 의 꼴을 갖고 있는 방정식을 선형방정식 또는 일차방정식(linear equations)이라 합니다. 실수(허수도 될 수 있음) a1, ..., a2, b를 스칼라(scalar) 또는 상수(constant)라 하고, x1, ..., xn을 미지수(unknown)이라 합니다. n개의 변수(unknown variables) x1, x2, ..., xn 과 m개의 일차방정식으로 이루어진 방정식을 연립일차방정식(system of linear equations)이라 합니다. 연립일차방정식 (*)의 해는 n개의 s1, ..., sn이며 (*) 안의 각각의 방정식은 x1 = s1, x2 = s2,

[선형대수학] 1.2 가우스 소거법 (Gaussian Elimination) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 1. 연립일차방정식 (SYSTEMS OF LINEAR EQUATIONS) 1-2. 가우스 소거법 (Gaussian Elimination) 정의: 행사다리꼴(Row Echelon Form)과 행간소사다리꼴(Reduced Row Echelon Form) 다음 세 조건을 만족하는 m x n 행렬 A를 행사다리꼴(Row Echelong Form, REF)이라 합니다. 0이 아닌 성분을 가지는 행은 모든 성분이 0인 행보다 위에 위치한다. (모든 성분이 0인 행이 존재하지 않을 수도 있다.) 각 행의 처음으로 0이 아닌 성분은 1이다. 이 성분을 그 행의 선도 1(leading one)이라 한다. 모든 성분이 0이 아닌 행에 대하여, 각 행의 leading one은 이전행의 leading one보다 오른쪽 아래에 위치해야 한다. 위 세 조건을 만족하며 다음 조건을 만족하는 행렬 A를 행간소사다리꼴 또는 기약행사다리꼴(Reduced Row Ec

[선형대수학] 1.3 동차방정식 (Homogeneous Equations) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 1. 연립일차방정식 (SYSTEMS OF LINEAR EQUATIONS) 1-3. 동차방정식 (Homogeneous Equations) 1.1 기본연산 (Elementary Operations)에서 n개의 미지수와 m개의 선형방정식으로 이루어진 선형연립방정식 Ax = b는 b=0일 때, 동차(Homogeneous)라 한다고 배웠습니다. x1 = x2 = ... = xn = 0일 때는 언제나 동차이고, 이를 자명해(trivial solution)라 합니다. 따라서, 선형연립방정식이 동차(homogeneous)라면 그 homogeneous system은 언제나 해가 존재합니다(consistent). 모든 미지수의 해가 xi = 0을 만족하지 못한다면 이를 비자명해(nontrivial solution)라 합니다. 정리1: n개의 미지수로 구성된 m개의 선형방정식의 homogeneous system은 n>m인 경우, 즉, 미지수의 수가 방정

자기소개 [내부링크]

안녕하세요, 쉽고 편하게 수학과 코딩을 가르치고 싶은 CsMathLab입니다. 간단하게 제 소개를 하자면, 미국 Public Ivy에 속해있는 대학교에서 Computer Science를 전공하고 있고 좋아하는 과목은 CS 과목과 수학 과목들입니다. 어렸을 때부터 수학과 프로그래밍에 관심이 많았고 제가 갖고 있는 지식을 주변인들에게 공유하는 것을 좋아했습니다. 현재까지 다양한 교재를 제작했고 과외를 할 때 교안으로 쓰거나 이를 필요로 하는 주변 지인들에게 무료로 배포하고 있습니다. 중학생 때부터 수학은 학교 수업, 인강으로만 공부했었고 프로그래밍도 거의 독학했었네요. 성격이 궁금한 게 있으면 못 참는 성격이라 공식의 유도과정이 이해가 안 간다거나, 교재에서 설명을 해주지 않는다면 직접 상위 단원을 공부하고 증명해 보면서 공부를 했었습니다. 이렇게 수학 공부를 해오며 제가 가장 중요하다고 생각하는 게 두 가지 있습니다. 가장 기본적인 풀이의 숙련 따름정리 그래프를 이용한 풀이, 공식을

[선형대수학] 2.1 행렬의 덧셈, 스칼라 곱, 전치(Matrix Addition, Scalar Multiplication, and Transposition) [내부링크]

선형대수학 (LINEAR ALGEBRA) - 목차 2. 행렬대수학 (MATRIX ALGEBRA) 2.1 행렬의 덧셈, 스칼라 곱, 전치 (Matrix Addition, Scalar Multiplication, and Transposition) 지금까지 연립일차방정식을 푸는 데 도움이 되는 행렬에 대해서 알아보았습니다. 이제 이를 좀 더 공식적으로 정의하고 활용할 수 있는 다른 방법을 알아보겠습니다. 정의1: m x n 행렬 A는 m(가로) 행과 n(세로) 열로 구성된 mn개의 실수 (또는 복소수)의 직사각형 배열입니다. A의 i번째 행과 j번째 열은 다음과 같이 표현됩니다. A의 i번째 행과 j번째 열에 있는 aij 는 A의 (ij)번째 항목(entry)이라는 뜻이며, 우리는 종종 A = [aij]라고 씁니다. 이러한 행렬 A를 우리는 "m x n"행렬(m by n matrix)이라 부릅니다. 정의: "동일한 행렬" (Equal Matrices) 두 행렬 A와 B의 크기가 동일하고,

d3a3cf23d6b3487abe369f8c25494f84 [내부링크]

d3a3cf23d6b3487abe369f8c25494f84