일차결합과 스팬
벡터공간에서 가장 중요한 개념 중 하나는 일차결합과 스팬(span)이다. 여러 벡터들을 적절한 스칼라배와 덧셈으로 조합하여 새로운 벡터를 만들 수 있는지 여부가, 벡터공간을 분석하는 핵심적인 방법을 제공하기 때문이다.
정의 1. (일차결합)
벡터공간 \(V\)에서 벡터 \(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k \in V\)가 주어졌다고 하자. 임의의 스칼라 \(\alpha_1, \alpha_2, \dots, \alpha_k\)에 대하여, \[ \alpha_1 \mathbf{v}_1 + \alpha_2 \mathbf{v}_2 + \dots + \alpha_k \mathbf{v}_k \] 와 같은 형태로 표현되는 벡터를 \(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k\)의 일차결합(linear combination)이라고 한다.
즉, 여러 벡터를 스칼라배하여 더한 결과물을 “일차결합”이라 부른다. 이는 벡터공간의 “덧셈”과 “스칼라배”가 결합된 가장 기본적인 형태의 조합으로, 한 벡터를 어떻게 다른 벡터들의 조합으로 나타낼 수 있는지를 보여주는 중요한 도구이다.
유한 개의 벡터뿐만 아니라 무한 개의 벡터가 주어졌을 때도 일차결합을 생각할 수 있다. 만약 \(S\)가 벡터공간 \(V\)의 부분집합이면, 집합 \(S\)의 일차결합은 “\(S\)에 속하는 유한 개의 벡터의 일차결합”으로 정의한다.
정의 2. (스팬, Span)
벡터공간 \(V\)에서 벡터 \(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k \in V\)가 주어졌다고 하자. 이들이 만들어낼 수 있는 모든 일차결합의 집합을 \[ \mathrm{span}\{\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k\} = \Bigl\{\, \alpha_1 \mathbf{v}_1 + \alpha_2 \mathbf{v}_2 + \dots + \alpha_k \mathbf{v}_k \;\Big|\; \alpha_i \in \mathbf{F} \Bigr\} \] 로 정의한다. 이 집합을 \(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k\)의 스팬(span)이라고 부른다.
일차결합을 정의할 때 유한 개의 벡터의 일차결합을 정의한 후 집합의 일차결합을 정의한 것처럼, 스팬을 정의할 때도 유한 개의 벡터의 스팬을 정의한 후 집합의 스팬을 정의할 수 있다. \(S\)가 벡터공간 \(V\)의 부분집합이라고 하자. 이때 \(S\)의 일차결합들의 모임을 집합 \(S\)의 스팬이라고 부르고 \(\mathrm{span} S\)와 같이 나타낸다. 단, \(S\)가 공집합이면 \(\mathrm{span} S = \left\{ \mathbf{0} \right\}\)으로 정의한다.
스팬은 “주어진 벡터들을 이용해 만들 수 있는 모든 벡터들”을 모아놓은 집합이다. 자연스럽게, 이 스팬은 항상 부분공간이 된다. 실제로, \(\mathbf{0}\)은 모든 스칼라를 0으로 선택하여 얻을 수 있고, 일차결합끼리의 덧셈이나 스칼라배는 여전히 같은 꼴로 표현되기 때문이다.
정리 1. (스팬의 부분공간성)
\(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k \in V\)가 주어졌을 때, \[ W = \mathrm{span}\{\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k\} \] 는 \(V\)의 부분공간이 된다.
증명 스케치
- 영벡터 포함: 모든 계수를 0으로 두면 \(\mathbf{0} = 0\mathbf{v}_1 + \dots + 0\mathbf{v}_k\)을 얻을 수 있으므로 영벡터가 \(W\)에 속한다.
- 덧셈에 대한 닫힘: \(\mathbf{x}, \mathbf{y}\)가 각각 \(\mathrm{span}\{\mathbf{v}_1, \dots, \mathbf{v}_k\}\)에 속한다고 하자. 즉, \[ \mathbf{x} = \alpha_1 \mathbf{v}_1 + \dots + \alpha_k \mathbf{v}_k,\quad \mathbf{y} = \beta_1 \mathbf{v}_1 + \dots + \beta_k \mathbf{v}_k. \] 그러면 \[ \mathbf{x} + \mathbf{y} = (\alpha_1 + \beta_1)\mathbf{v}_1 + \dots + (\alpha_k + \beta_k)\mathbf{v}_k \] 이므로 여전히 \(\mathrm{span}\{\mathbf{v}_1, \dots, \mathbf{v}_k\}\)에 속한다.
- 스칼라배에 대한 닫힘: \(\gamma \in \mathbf{F}\)에 대해, \[ \gamma \mathbf{x} = \gamma(\alpha_1 \mathbf{v}_1 + \dots + \alpha_k \mathbf{v}_k) = (\gamma \alpha_1)\mathbf{v}_1 + \dots + (\gamma \alpha_k)\mathbf{v}_k \] 역시 스팬의 원소이다.
이로써 \(\mathrm{span}\{\mathbf{v}_1, \dots, \mathbf{v}_k\}\)가 부분공간임을 알 수 있다.
위와 비슷한 방법으로, \(S\)가 벡터공간 \(V\)의 부분집합일 때 \(S\)의 스팬 \(\mathrm{span}S\)가 \(V\)의 부분공간이 됨을 알 수 있다.
보기 1.
2차원 벡터공간 \(\mathbb{R}^2\)에서 \(\mathbf{u} = (2,1)\)과 \(\mathbf{v} = (1,3)\)가 주어졌다고 하자. 이들로 생성되는 스팬을 \[ W = \mathrm{span}\{\mathbf{u},\,\mathbf{v}\} \] 라고 하면, \(W\)는 다음과 같이 표현할 수 있다.
\[ W = \left\{\, \alpha(2,1) + \beta(1,3) \;\middle|\; \alpha,\beta \in \mathbb{R} \right\} = \left\{\, (2\alpha + \beta,\; \alpha + 3\beta) \;\middle|\; \alpha,\beta \in \mathbb{R} \right\}. \]
- 만약 \(\mathbf{u}\)와 \(\mathbf{v}\)가 일차독립(다음 섹션에서 다룰 개념)이라면, 이 스팬은 \(\mathbb{R}^2\) 전체를 덮을 수도 있다. 즉, \(\alpha,\beta\)의 조합으로 모든 2차원 벡터를 표현할 수 있다.
- 반면, 만약 \(\mathbf{v}\)가 \(\mathbf{u}\)의 스칼라배에 불과하다면(예: \(\mathbf{v} = 2\mathbf{u}\) 같은 경우), 이 스팬은 한 직선에 불과하게 된다.
보기 2.
행렬공간 \(M_{2\times 2}(\mathbb{R})\)에서, 아래 행렬 두 개로 생성되는 스팬을 생각해 보자. \[ A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix}, \quad B = \begin{pmatrix} 0 & 3 \\ 1 & 0 \end{pmatrix}. \] 이들로부터 만들어지는 모든 일차결합은 \[ \alpha A + \beta B = \begin{pmatrix} \alpha & 2\alpha \\ 0 & \alpha \end{pmatrix} + \begin{pmatrix} 0 & 3\beta \\ \beta & 0 \end{pmatrix} = \begin{pmatrix} \alpha & 2\alpha + 3\beta \\ \beta & \alpha \end{pmatrix}. \]
여기서 \(\alpha,\beta\)를 자유롭게 바꾸어 주면, 해당 형태의 2×2 행렬을 모두 얻을 수 있다. 이 집합 전체가 \(\mathrm{span}\{A,B\}\)이며, 이는 분명 \(\mathbb{R}^4\)와 동형(isomorphic)인 행렬공간의 부분공간을 이룬다.
일차결합과 스팬은 “여러 벡터를 합쳐서 새로운 벡터를 만들 수 있는지”를 추상화한 개념이다. 스팬 연산 자체가 부분공간을 형성한다는 점이 핵심이며, 다음 단계에서 다룰 일차독립과 결합되면 기저, 차원 등으로 이어지는 선형대수학의 주요 이론들이 전개된다.
일차독립과 일차종속
이전에 살펴본 스팬이 “주어진 벡터들을 일차결합으로 표현해 나갈 수 있는 공간”이라면, 일차독립(linear independence)은 “어떤 벡터가 다른 벡터들의 일차결합으로 표현되는지, 아니면 독립적으로 존재하는지”를 판단하는 핵심 개념이다. 일차독립을 이해하면, 복잡한 벡터 모임에서 불필요한 벡터를 제거하거나(다른 벡터의 일차결합으로 생성 가능한 경우) 꼭 필요한 ‘최소한의 벡터’ 집합(기저)을 찾을 수 있다.
정의 3. (일차독립)
벡터공간 \(V\)에서 벡터 \(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k \in V\)가 주어졌다고 하자. 이 벡터들이 일차독립이라는 것은, 아래 조건을 만족한다는 뜻이다. \[ \alpha_1 \mathbf{v}_1 + \alpha_2 \mathbf{v}_2 + \dots + \alpha_k \mathbf{v}_k = \mathbf{0} \quad \Longrightarrow \quad \alpha_1 = \alpha_2 = \dots = \alpha_k = 0. \] 즉, 유일한 해가 “모든 계수 \(\alpha_i\)가 0”인 경우에만 \(\mathbf{0}\)을 만들 수 있다면, \(\mathbf{v}_1, \dots, \mathbf{v}_k\)는 일차독립이라고 한다.
반면, 이 식을 만족하는 \(\alpha_i\)들이 전부 0이 아닌 경우(즉, \(\alpha_1 \mathbf{v}_1 + \dots + \alpha_k \mathbf{v}_k = \mathbf{0}\)를 만드는 “비자명(non-trivial)” 조합)가 존재한다면, 그 벡터들은 일차종속(linearly dependent)이라 한다.
이 정의의 기하학적 해석은 다음과 같다.
- \(k=2\)일 때, \(\mathbf{v}_1\)과 \(\mathbf{v}_2\)가 일차독립이라는 것은, 이 둘이 서로 평행(혹은 스칼라배 관계)이 아님을 의미한다. 만약 두 벡터가 스칼라배 관계라면, 그 둘로 만들 수 있는 모든 일차결합은 사실 한 직선 위에 놓인다.
- \(k=3\)에서 \(\mathbf{v}_1, \mathbf{v}_2, \mathbf{v}_3 \in \mathbb{R}^3\)가 일차독립이라는 것은, 이 세 벡터가 한 평면에 모이지 않고 공간 상에서 서로 다른 방향을 향해 있으며, 그 결과 \(\mathbf{v}_1, \mathbf{v}_2, \mathbf{v}_3\)가 만들어내는 스팬이 \(\mathbb{R}^3\) 전체가 됨을 시사한다(이들의 스팬이 전공간인 경우, 차원이 3인 공간에서 기저가 된다).
유한 개의 벡터뿐만 아니라 임의 개수의 벡터의 일차독립과 일차종속도 생각할 수 있다. \(S\)가 벡터공간 \(V\)의 부분집합이라고 하자. 만약 \(S\)의 임의의 유한부분집합이 일차독립이면 “집합 \(S\)는 일차독립이다”라고 말한다. 만약 집합 \(S\)가 일차독립이 아니면, “집합 \(S\)는 일차종속이다”라고 말한다. 특별히 공집합은 일차독립이다.
정리 2. (행렬 방정식을 통한 일차독립 판별)
벡터공간 \(V = \mathbb{R}^n\)에서 \(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_k\)가 주어졌다고 하자. 다음 두 문장은 서로 동치이다.
- \(\mathbf{v}_1, \dots, \mathbf{v}_k\)가 일차독립이다.
- 이 벡터들을 열로 하는 행렬 \(A = [\mathbf{v}_1 \ \mathbf{v}_2 \ \dots \ \mathbf{v}_k]\)를 구성하였을 때, 동차연립일차방정식 \[A \begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \vdots \\ \alpha_k \end{pmatrix} = \mathbf{0}\] 의 해가 \(\alpha_1 = \dots = \alpha_k = 0\) 외에는 존재하지 않는다.
연립방정식의 해가 자명한 해 외에 존재하지 않는지 여부를 밝힐 때 가우스 소거법 등을 활용할 수 있다.
보기 3. (\(\mathbb{R}^3\)에서의 일차독립 예시)
벡터 \(\mathbf{u} = (1,2,3)\), \(\mathbf{v} = (2,1,-1)\), \(\mathbf{w} = (3,5,2)\)가 주어졌다고 하자. 이 셋이 일차독립인지 판별하기 위해 \[ \alpha_1(1,2,3) + \alpha_2(2,1,-1) + \alpha_3(3,5,2) = (0,0,0) \] 라는 식을 \(\alpha_1, \alpha_2, \alpha_3\)에 대한 연립일차방정식으로 보면, 행렬로는 다음과 같이 표현할 수 있다. \[ \begin{pmatrix} 1 & 2 & 3 \\ 2 & 1 & 5 \\ 3 & -1 & 2 \end{pmatrix} \begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \] 해를 찾기 위해 행렬의 행렬식을 계산하거나 가우스 소거법을 적용할 수 있다. 먼저 행렬식을 계산해 보면, \[ \det \begin{pmatrix} 1 & 2 & 3 \\ 2 & 1 & 5 \\ 3 & -1 & 2 \end{pmatrix} = 1\begin{vmatrix}1 & 5\\ -1 & 2\end{vmatrix} - 2\begin{vmatrix}2 & 5\\ 3 & 2\end{vmatrix} + 3\begin{vmatrix}2 & 1\\ 3 & -1\end{vmatrix}. \] 이제 소행렬식들을 계산해 보면,
- \(\displaystyle \begin{vmatrix}1 & 5\\ -1 & 2\end{vmatrix} = (1)(2) - (5)(-1) = 2+5=7,\)
- \(\displaystyle \begin{vmatrix}2 & 5\\ 3 & 2\end{vmatrix} = (2)(2) - (5)(3) = 4-15= -11,\)
- \(\displaystyle \begin{vmatrix}2 & 1\\ 3 & -1\end{vmatrix} = (2)(-1) - (1)(3) = -2-3= -5.\)
따라서, \[ \det(A) = 1\cdot 7 \;-\; 2\cdot(-11) \;+\; 3\cdot(-5) = 7 + 22 - 15 = 14. \] 행렬식이 \(\det(A)=14 \neq 0\)이므로, 이 연립일차방정식의 해는 \(\alpha_1 = \alpha_2 = \alpha_3 = 0\) 뿐이다. 이는 \(\mathbf{u}, \mathbf{v}, \mathbf{w}\)가 일차독립임을 의미한다.
정리하면, \(\det(A)\neq 0\)이거나, 가우스 소거법으로 유일해를 확인하여 모든 계수 \(\alpha_i\)가 0일 때에만 방정식을 만족한다는 결론이 나오므로, \(\mathbf{u}, \mathbf{v}, \mathbf{w}\)는 일차독립이다.
보기 4. (일차종속 예시)
2차원 벡터공간 \(\mathbb{R}^2\)에서 \((1,2)\), \((2,4)\)는 사실 스칼라배 관계이다. 즉, \((2,4) = 2\cdot(1,2)\). 다음 식을 만족하는 비자명 해를 얻을 수 있다.
\[ \alpha_1(1,2) + \alpha_2(2,4) = (0,0) \] \[ \text{예:} \quad \alpha_1 = 2,\quad \alpha_2 = -1 \quad \Longrightarrow \quad 2\cdot(1,2) + (-1)\cdot(2,4) = (0,0). \]
따라서 이 두 벡터는 일차종속이다. 기하학적으로도 둘 다 동일한 직선 위에 놓인 벡터임을 알 수 있다.
일차독립이란 벡터들 사이의 “중복성” 여부를 밝히는 개념으로, 중복되는(다른 벡터들의 일차결합으로 만들어지는) 벡터가 있으면 일차종속, 그렇지 않으면 일차독립이다. 이 개념은 이후 기저와 차원을 정의할 때 핵심적인 역할을 하며, “최소한의 벡터 집합”을 어떻게 구성하고, 그로부터 전체 벡터공간을 만들어 낼 수 있는지 설명하는 이론적 기반이 된다.