개발일지2024. 10. 17. 11:46Latex 한글 쓰기

패키지 import\usepackage{kotex} 위치: \begin{document} 전에!

3.7 Inner Product of Functions
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 14. 16:323.7 Inner Product of Functions

Inner Product of Functions지금까지 주로 유한 차원의 벡터에 대한 내적에 집중했다면, 이제 우리는 함수의 내적이라는 다른 유형의 벡터 내적 예를 살펴본다. 벡터가 유한개가 아닌 무한개라고 하면, 벡터 개별 성분에 대한 합은 적분으로 변환될수있다.즉, 두 함수 u: R-> R와 v: R-> R의 내적은 다음과 같이 정적분으로 정의된다. 만약 결과가 0이면 함수 u,v는 직교한다는거! 예를들어서 sin과 cos함수는 직교함수임

3.6 Orthogonal Complement
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 14. 16:263.6 Orthogonal Complement

직교여공간 (Orthogonal Complement)지금까지는 단순하게 벡터들이 서로 직교하는지 여부를 살펴본거고 이제 서로 직교하는 벡터 공간에 대해서 살펴보자. D-차원 벡터공간 V와 그 M-차원 부분공간 $U \subseteq V$를 고려해보자.그러면 U의 orthogonal complement $U^{\perp}$는 (D-M)차원 부분공간이다.이때 V의 모든 벡터 중 U의 모든 벡터에 직교하는 벡터들을 포함한다.또한, $U \cap U^{\perp} = {0}$이므로, V의 임의의 벡터 x는 고유하게 다음과 같이 분해될 수 있다.

3.5 Orthonormal Basis
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 14. 16:213.5 Orthonormal Basis

Orthonormal Basis (정규 직교 기저)기저 벡터들이 서로 직교하며, 각 기저벡터의 길이가 1인 특별한 경우를 "정규직교기저 (orthonormal basis)"라고 한다. 벡터 공간 V와 그 기저 {b1, b2, ...bn}을 고려하자. 만약 다음 두개의 식이 성립하면, 이 기저는 정규 직교 기저이다. 비직교적이고 정규화되지 않은 기저 벡터 집합이 주어졌다고 가정했을 때,이 벡터들을 행렬 B로 묶어서 확장된 행렬에 가우스 소거법을 적용해 정규 직교 기저를 얻을 수 있다.이러한 기저를 점진적으로 만들어가는 방법을 Gram-Schmidt 과정이라고 한다. Example 3.8아래 기저들은 orthonormal basis이다.${b_1}^Tb_2 = 0$이고 $\left\| b_1 \right\|..

3.4 Angles and Orthogonality
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 14. 16:123.4 Angles and Orthogonality

Angle두 벡터 사이의 각: Orthogonality두 벡터 x, y가 직교하려면, =0이여야함.만약 vector들이 단위벡터일때, (즉 x,y 크기가 1일떄) x,y를 orthonormal이라고 한다. Orthogonal Matrix정사각 행렬 A가 직교행렬 (Orthogonal matrix)이기 위한 필요충분조건은 그 열들이 서로 정규 직교(orthornomal)한것이다.즉, $AA^T = I = A^TA$,$A^{-1} = A^T$

3.3 Lengths and Distances
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 14. 16:023.3 Lengths and Distances

Cauchy-Schwarz Inequality (코시-슈바르츠 부등식)∣⟨x,y⟩∣≤∥x∥∥y∥  Distance내적공간 (V, ⋅,⋅>)에서 다음 공식이 거리 계산하는 방법 (유클리드 거리)  Metric d는 양의 정부호입니다. 즉, d(x,y)≥0d는 대칭적입니다. 즉, d(x,y)=d(y,x)삼각 부등식(Triangle inequality): d(x,z)≤d(x,y)+d(y,z)가 성립합니다.

3.2 Inner Products
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 14. 15:493.2 Inner Products

Dot Product- 스칼라 곱(scalar product) 또는 점곱(dot product)- 다음과 같은 공식으로 계산된다.     $ x^{\top }y = \sum_{i=1}^{n}x_iy_i$ General Inner Products - 벡터공간 V와 Ω: V x V -> R가 두 벡터를 실수로 사상하는 쌍선형 사상이라고 가정할때,   양의 정부호이고 대칭쩍인 쌍선형사상 Ω: V x V -> R는 V의 내적이라고 부른다.- (V,⟨⋅,⋅⟩) 를 내적공간이라고 부른다. Symmetric, Positive Definite Matrix- 다음 조건을 만족하는 대칭행렬을 symmetric, positive definite 행렬이라고 부른다. Example 3.4  - 만약 A가 symmetric, p..

3.1 Norms
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 13. 01:533.1 Norms

NormNorm이란 벡터의 크기를 나타낸다. 책에 쓰여진 정의를 읽어보자 ↓vector space V에서의 norm(놈, 노름)은 다음과 같은 함수이다.이 함수는 각 벡터 x에 대해 그 벡터의 길이 $\begin{Vmatrix}x\end{Vmatrix} \in R$를 할당하며, 모든 $\lambda  \in R$와 $x,s \in V$에 대해 다음 조건들을 만족한다.  Manhattam Norm - 1-norm, 혹은 L1-norm, 맨하탄 norm이라고 부른다.- 단순히 벡터의 각 원소들의 크기(절댓값)의 합으로 정의된다. - 예를 들어서 (1,2)라는 벡터가 있으면 x방향으로 +1, y방향으로 +2 => L1-norm은 3이 된다. Euclidean Norm- L2-norm 혹은 유클리드 norm)이..

2.7 Linear Mappings
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 13. 01:522.7 Linear Mappings

선형사상선형사상은 함수를 생각하면 된다.그러니까 vector space에 어떠한 함수를 통과시켜서 나오는 또 다른 vector space이다.m차원의 좌표를 n차원의 좌표로 보내는 함수라고 생각해도 편하다.위와 같은 식이 성립한다면 $\Phi : V \to W$는 선형사상이라고 부른다. 전사, 단사, 전단사 1. Injective(단사)    - 공역 전체를 함수값으로 사상시켰다는 말로, 치역과 공역이 같음을 의미한다. 2. Surjective(전사)    - 정의역의 모든 원소에 대해 대응하는 함수값이 모두 다르다!    - W의 모든 element가 $\Phi$를 이용해서 reached할수있다. 3. Bijective(전단사)    - 전사이면서 단사    - 즉, 정의역의 모든 원소가 각기 다른 1..

2.6 Basis and Rank
전공 서적 읽기/Mathematics for Machine Learning2024. 10. 13. 01:522.6 Basis and Rank

BasisBasis (기저)란, $R^m$ 의 임의의 원소를 표현하기 위해 필요한 최소한의 벡터로 이루어진 집합을 뜻한다. vector space V = (V,+,•)와 $B \subseteq V, V \neq ⏀$면 다음의 명제들이 동치이다.- B 는 V의 basis다- B는 minimal generating set이다.- B는 V에서 선형독립인 벡터들의 최대 집합이다. 즉, 이 집합에 다른 벡터를 추가하면 선형 종속이 된다.- 모든 벡터 $x \in V$는 B에 있는 벡터들의 선형 결합으로 표현될 수 있으며, 그 선형결합은 유일하다. ✭ 모든 벡터공간은 basis를 가진다! ✭ Example 2.16$R^3$에서 standard basis는 다음과 같다. 다른 basis로는 이런것들이 있다. A는 l..

image