5 Espacios vectoriales
5.1 Definición y propiedades básicas de espacios vectoriales
Motivación
En capítulos anteriores se estudiaron vectores en \(\mathbb{R}^2\) y \(\mathbb{R}^3\). En esos conjuntos podemos:
- sumar vectores y obtener otro vector del mismo conjunto;
- multiplicar vectores por escalares;
- usar propiedades como asociatividad, conmutatividad y distributividad;
- identificar un vector cero y el inverso aditivo de cada vector.
Los conjuntos \(\mathbb{R}^2\) y \(\mathbb{R}^3\), junto con estas operaciones, son ejemplos de espacios vectoriales.
La idea general es abstraer esas propiedades para estudiar muchos objetos matemáticos distintos bajo una misma teoría. Así, los resultados que se demuestren para espacios vectoriales se podrán aplicar a vectores, matrices, polinomios, funciones y otros conjuntos.
Definición de espacio vectorial real
Un espacio vectorial real \(V\) es un conjunto de objetos llamados vectores, junto con dos operaciones:
- suma de vectores,
- multiplicación de un vector por un escalar real,
que satisfacen diez propiedades llamadas axiomas de espacio vectorial.
Si \(\mathbf{x},\mathbf{y}\in V\) y \(\alpha\in\mathbb{R}\), se escribe:
\[ \mathbf{x}+\mathbf{y} \]
para la suma, y
\[ \alpha \mathbf{x} \]
para la multiplicación por un escalar.
Axiomas de un espacio vectorial
Sean \(\mathbf{x},\mathbf{y},\mathbf{z}\in V\) y sean \(\alpha,\beta\in\mathbb{R}\). Entonces \(V\) es un espacio vectorial real si se cumplen los siguientes axiomas.
Axiomas de la suma
- Cerradura bajo la suma
\[ \mathbf{x}+\mathbf{y}\in V. \]
- Asociatividad de la suma
\[ (\mathbf{x}+\mathbf{y})+\mathbf{z} = \mathbf{x}+(\mathbf{y}+\mathbf{z}). \]
- Existencia del vector cero
Existe un vector \(\mathbf{0}\in V\) tal que
\[ \mathbf{x}+\mathbf{0} = \mathbf{0}+\mathbf{x} = \mathbf{x}. \]
- Existencia del inverso aditivo
Para cada \(\mathbf{x}\in V\), existe un vector \(-\mathbf{x}\in V\) tal que
\[ \mathbf{x}+(-\mathbf{x})=\mathbf{0}. \]
- Conmutatividad de la suma
\[ \mathbf{x}+\mathbf{y} = \mathbf{y}+\mathbf{x}. \]
Axiomas de la multiplicación por escalar
- Cerradura bajo multiplicación por escalar
\[ \alpha\mathbf{x}\in V. \]
- Primera ley distributiva
\[ \alpha(\mathbf{x}+\mathbf{y}) = \alpha\mathbf{x}+\alpha\mathbf{y}. \]
- Segunda ley distributiva
\[ (\alpha+\beta)\mathbf{x} = \alpha\mathbf{x}+\beta\mathbf{x}. \]
- Asociatividad de la multiplicación por escalares
\[ \alpha(\beta\mathbf{x}) = (\alpha\beta)\mathbf{x}. \]
- Identidad multiplicativa
\[ 1\mathbf{x}=\mathbf{x}. \]
Nota:
Los escalares pertenecen a un conjunto llamado campo. En este curso, usualmente se trabaja con el campo de los números reales \(\mathbb{R}\).
Ejemplo: El espacio \(\mathbb{R}^n\)
Sea
\[ V=\mathbb{R}^n = \left\{ \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix} : x_i\in\mathbb{R} \right\}. \]
Cada vector en \(\mathbb{R}^n\) es una matriz columna de tamaño \(n\times 1\).
Si \(\mathbf{x},\mathbf{y}\in\mathbb{R}^n\), entonces \(\mathbf{x}+\mathbf{y}\) también pertenece a \(\mathbb{R}^n\). Además, para cualquier escalar \(\alpha\),
\[ \alpha\mathbf{x}\in\mathbb{R}^n. \]
El vector cero es
\[ \mathbf{0} = \begin{pmatrix} 0\\ 0\\ \vdots\\ 0 \end{pmatrix}. \]
El resto de los axiomas se obtiene a partir de la definición de suma de vectores. Por tanto, \(\mathbb{R}^n\) es un espacio vectorial real.
Ejemplo: Espacio vectorial trivial
Sea
\[ V=\{0\}. \]
Este conjunto contiene únicamente al número cero. Como
\[ 0+0=0 \]
y
\[ \alpha 0=0 \]
para todo escalar \(\alpha\), se cumplen los axiomas de espacio vectorial.
Por tanto,
\[ V=\{0\} \]
es un espacio vectorial, llamado espacio vectorial trivial.
Ejemplo: Un conjunto que no es espacio vectorial
Sea
\[ V=\{1\}. \]
Este conjunto no es un espacio vectorial, porque no es cerrado bajo la suma. En efecto,
\[ 1+1=2, \]
pero
\[ 2\notin V. \]
Así, falla el axioma de cerradura bajo la suma. Por lo tanto, \(V\) no es un espacio vectorial.
Ejemplo: Recta que pasa por el origen en \(\mathbb{R}^2\)
Sea
\[ V=\{(x,y): y=mx,\; x\in\mathbb{R}\}, \]
donde \(m\) es un número real fijo.
Este conjunto representa la recta que pasa por el origen con pendiente \(m\).
Para verificar la cerradura bajo la suma, tomemos
\[ \mathbf{x}=(x_1,y_1), \qquad \mathbf{y}=(x_2,y_2) \]
en \(V\). Entonces
\[ y_1=mx_1, \qquad y_2=mx_2. \]
Por tanto,
\[ \mathbf{x}+\mathbf{y} = (x_1,y_1)+(x_2,y_2). \]
Como
\[ (x_1,y_1)+(x_2,y_2) = (x_1+x_2,mx_1+mx_2), \]
se obtiene
\[ \mathbf{x}+\mathbf{y} = (x_1+x_2,m(x_1+x_2)). \]
Luego,
\[ \mathbf{x}+\mathbf{y}\in V. \]
Además, si \((x,y)\in V\), entonces \(y=mx\) y
\[ -(x,y)=(-x,-y)=(-x,-mx)=(-x,m(-x)). \]
Por tanto,
\[ -(x,y)\in V. \]
Como el vector cero \((0,0)\) pertenece a la recta, y las demás propiedades se heredan de \(\mathbb{R}^2\), se concluye que \(V\) es un espacio vectorial.
Ejemplo: Recta que no pasa por el origen
Sea
\[ V=\{(x,y): y=2x+1,\; x\in\mathbb{R}\}. \]
Este conjunto representa una recta que no pasa por el origen.
No es un espacio vectorial. Una forma rápida de verlo es que el vector cero no pertenece a \(V\), pues
\[ 0\neq 2(0)+1. \]
También falla la cerradura bajo la suma. Por ejemplo,
\[ (0,1)\in V \]
y
\[ (3,7)\in V, \]
pero
\[ (0,1)+(3,7)=(3,8). \]
Sin embargo,
\[ 8\neq 2(3)+1=7. \]
Por tanto,
\[ (3,8)\notin V. \]
Así, \(V\) no es un espacio vectorial.
Ejemplo: Plano que pasa por el origen en \(\mathbb{R}^3\)
Sea
\[ V=\{(x,y,z): ax+by+cz=0\}. \]
Este conjunto representa un plano en \(\mathbb{R}^3\) que pasa por el origen, con vector normal \((a,b,c)\).
Tomemos
\[ (x_1,y_1,z_1)\in V \]
y
\[ (x_2,y_2,z_2)\in V. \]
Entonces
\[ ax_1+by_1+cz_1=0 \]
y
\[ ax_2+by_2+cz_2=0. \]
Ahora sumamos los vectores:
\[ (x_1,y_1,z_1)+(x_2,y_2,z_2) = (x_1+x_2,y_1+y_2,z_1+z_2). \]
Evaluamos la ecuación del plano:
\[ a(x_1+x_2)+b(y_1+y_2)+c(z_1+z_2) \]
\[ = (ax_1+by_1+cz_1)+(ax_2+by_2+cz_2). \]
Como ambos términos son cero,
\[ a(x_1+x_2)+b(y_1+y_2)+c(z_1+z_2)=0. \]
Por tanto, la suma pertenece a \(V\).
De forma similar se verifica la cerradura bajo multiplicación por escalar y el resto de los axiomas, por lo que \(V\) es un espacio vectorial.
Ejemplo: El espacio vectorial \(P_n\)
Sea \(P_n\) el conjunto de todos los polinomios con coeficientes reales de grado menor o igual que \(n\).
Si \(p\in P_n\), entonces
\[ p(x)=a_nx^n+a_{n-1}x^{n-1}+\cdots+a_1x+a_0. \]
Si también
\[ q(x)=b_nx^n+b_{n-1}x^{n-1}+\cdots+b_1x+b_0, \]
entonces
\[ p(x)+q(x) = (a_n+b_n)x^n + (a_{n-1}+b_{n-1})x^{n-1} + \cdots + (a_1+b_1)x + (a_0+b_0). \]
La suma sigue siendo un polinomio de grado menor o igual que \(n\).
El vector cero es el polinomio cero:
\[ 0(x)=0. \]
El inverso aditivo de \(p(x)\) es
\[ -p(x) = -a_nx^n-a_{n-1}x^{n-1}-\cdots-a_1x-a_0. \]
El resto de los axiomas se comprueban fácilmente. Así, \(P_n\) es un espacio vectorial real.
Ejemplo: El espacio vectorial \(M_{mn}\)
Sea \(M_{mn}\) el conjunto de matrices reales de tamaño \(m\times n\).
Con la suma usual de matrices y la multiplicación por escalar usual, \(M_{mn}\) es un espacio vectorial.
El vector cero es la matriz cero de tamaño \(m\times n\):
\[ 0_{m\times n} = \begin{pmatrix} 0 & 0 & \cdots & 0\\ 0 & 0 & \cdots & 0\\ \vdots & \vdots & & \vdots\\ 0 & 0 & \cdots & 0 \end{pmatrix}. \]
Ejemplo: Semiplano superior en \(\mathbb{R}^2\)
Sea
\[ V=\{(x,y): y\geq 0\}. \]
Este conjunto representa el semiplano superior.
Si
\[ y_1\geq 0 \qquad\text{y}\qquad y_2\geq 0, \]
entonces
\[ y_1+y_2\geq 0. \]
Por tanto, \(V\) es cerrado bajo la suma.
Sin embargo, \(V\) no es un espacio vectorial porque algunos vectores no tienen inverso aditivo dentro de \(V\).
Por ejemplo,
\[ (1,1)\in V, \]
pero
\[ -(1,1)=(-1,-1)\notin V. \]
También falla la cerradura bajo multiplicación por escalares negativos. Si
\[ (x,y)\in V \]
con \(y>0\), entonces para \(\alpha<0\),
\[ \alpha(x,y)=(\alpha x,\alpha y) \]
tiene segunda componente negativa, por lo que no pertenece a \(V\).
Teorema: Propiedades básicas de los espacios vectoriales
Sea \(V\) un espacio vectorial. Entonces:
- Para todo escalar \(\alpha\),
\[ \alpha\mathbf{0}=\mathbf{0}. \]
- Para todo vector \(\mathbf{x}\in V\),
\[ 0\mathbf{x}=\mathbf{0}. \]
- Si
\[ \alpha\mathbf{x}=\mathbf{0}, \]
entonces
\[ \alpha=0 \quad\text{o}\quad \mathbf{x}=\mathbf{0}. \]
- Para todo vector \(\mathbf{x}\in V\),
\[ (-1)\mathbf{x}=-\mathbf{x}. \]
5.2 Subespacios vectoriales
Definición de subespacio vectorial
Sea \(V\) un espacio vectorial. Se dice que \(H\) es un subespacio vectorial de \(V\) si:
- \(H\) es un subconjunto no vacío de \(V\);
- \(H\) es un espacio vectorial usando las mismas operaciones de suma y multiplicación por escalar definidas en \(V\).
En otras palabras, un subespacio hereda las operaciones del espacio vectorial que lo contiene.
Teorema: Criterio para verificar subespacios
Sea \(H\) un subconjunto no vacío de un espacio vectorial \(V\). Entonces \(H\) es un subespacio de \(V\) si se cumplen las siguientes dos condiciones:
- Cerradura bajo la suma
Si
\[ \mathbf{x}\in H \qquad \text{y} \qquad \mathbf{y}\in H, \]
entonces
\[ \mathbf{x}+\mathbf{y}\in H. \]
- Cerradura bajo multiplicación por escalar
Si
\[ \mathbf{x}\in H \]
y \(\alpha\) es un escalar, entonces
\[ \alpha \mathbf{x}\in H. \]
Estas dos condiciones son suficientes porque las demás propiedades ya se heredan del espacio vectorial \(V\).
Consecuencia importante
Todo subespacio de un espacio vectorial debe contener al vector cero:
\[ \mathbf{0}\in H. \]
Por tanto, si un subconjunto no contiene al vector cero, entonces no puede ser subespacio.
Esta observación permite descartar rápidamente muchos conjuntos.
Ejemplo: Subespacio trivial
Para cualquier espacio vectorial \(V\), el conjunto
\[ \{\mathbf{0}\} \]
es un subespacio.
En efecto,
\[ \mathbf{0}+\mathbf{0}=\mathbf{0} \]
y
\[ \alpha\mathbf{0}=\mathbf{0} \]
para todo escalar \(\alpha\).
Este se llama subespacio trivial.
Ejemplo: Todo espacio vectorial es subespacio de sí mismo
Para cualquier espacio vectorial \(V\), se tiene que
\[ V \]
es un subespacio de sí mismo.
Así, todo espacio vectorial contiene al menos dos subespacios:
\[ \{\mathbf{0}\} \qquad \text{y} \qquad V. \]
Cuando un subespacio es distinto de estos dos, se llama subespacio propio.
Ejemplo: Un subespacio propio de \(\mathbb{R}^2\)
Sea
\[ H=\{(x,y): y=mx\}. \]
Este conjunto representa una recta que pasa por el origen.
Como se vio anteriormente, \(H\) es cerrado bajo suma y multiplicación por escalares, por lo que es un subespacio de \(\mathbb{R}^2\).
Geométricamente, los subespacios propios de \(\mathbb{R}^2\) son precisamente las rectas que pasan por el origen.
Ejemplo: Una recta por el origen en \(\mathbb{R}^3\)
Sea
\[ H= \{(x,y,z): x=at,\; y=bt,\; z=ct,\; t\in\mathbb{R}\}. \]
Equivalentemente,
\[ H=\{t(a,b,c): t\in\mathbb{R}\}. \]
Este conjunto es la recta en \(\mathbb{R}^3\) que pasa por el origen y tiene vector director
\[ (a,b,c). \]
Tomemos dos vectores en \(H\):
\[ \mathbf{x}=(at_1,bt_1,ct_1), \]
\[ \mathbf{y}=(at_2,bt_2,ct_2). \]
Entonces
\[ \mathbf{x}+\mathbf{y} = (a(t_1+t_2),b(t_1+t_2),c(t_1+t_2)). \]
Como \(t_1+t_2\in\mathbb{R}\), se concluye que
\[ \mathbf{x}+\mathbf{y}\in H. \]
Además, para cualquier escalar \(\alpha\),
\[ \alpha\mathbf{x} = (\alpha at_1,\alpha bt_1,\alpha ct_1) = (a(\alpha t_1),b(\alpha t_1),c(\alpha t_1)). \]
Como \(\alpha t_1\in\mathbb{R}\), se tiene
\[ \alpha\mathbf{x}\in H. \]
Por tanto, \(H\) es un subespacio de \(\mathbb{R}^3\).
Ejemplo: Un plano por el origen en \(\mathbb{R}^3\)
Sea
\[ \pi=\{(x,y,z): ax+by+cz=0\}. \]
Este conjunto representa un plano en \(\mathbb{R}^3\) que pasa por el origen.
Como la ecuación es homogénea, si dos puntos satisfacen la ecuación, entonces su suma también la satisface; y si un punto satisface la ecuación, cualquier múltiplo escalar también la satisface.
Por tanto, \(\pi\) es un subespacio de \(\mathbb{R}^3\).
Geométricamente, los subespacios propios de \(\mathbb{R}^3\) son rectas y planos que pasan por el origen.
Ejemplo : Subespacios propios de \(P_n\)
Sea \(P_n\) el espacio vectorial de polinomios de grado menor o igual que \(n\).
Si
\[ 0\leq m<n, \]
entonces
\[ P_m\subset P_n. \]
Además, \(P_m\) es cerrado bajo suma y multiplicación por escalares. Por tanto,
\[ P_m \]
es un subespacio propio de \(P_n\).
Ejemplo: Un subespacio de \(M_{mn}\)
Sea \(M_{mn}\) el espacio vectorial de matrices reales de tamaño \(m\times n\).
Definimos
\[ H=\{A\in M_{mn}: a_{11}=0\}. \]
Es decir, \(H\) es el conjunto de matrices cuya entrada en la primera fila y primera columna es cero.
Si \(A,B\in H\), entonces
\[ a_{11}=0 \qquad \text{y} \qquad b_{11}=0. \]
Por tanto, la entrada \((1,1)\) de \(A+B\) es
\[ a_{11}+b_{11}=0+0=0. \]
Así,
\[ A+B\in H. \]
Además, si \(\alpha\) es un escalar, la entrada \((1,1)\) de \(\alpha A\) es
\[ \alpha a_{11}=\alpha 0=0. \]
Entonces
\[ \alpha A\in H. \]
Por tanto, \(H\) es un subespacio de \(M_{mn}\).
Ejemplo: Matrices invertibles no forman un subespacio
Sea
\[ V=M_{nn} \]
y sea
\[ H=\{A\in M_{nn}: A \text{ es invertible}\}. \]
Entonces \(H\) no es un subespacio de \(M_{nn}\) porque no contiene a la matriz cero.
La matriz cero no es invertible, por lo que
\[ 0_{n\times n}\notin H. \]
Como todo subespacio debe contener al vector cero, \(H\) no puede ser subespacio.
Teorema: Intersección de subespacios
Si \(H_1\) y \(H_2\) son subespacios de un espacio vectorial \(V\), entonces
\[ H_1\cap H_2 \]
también es un subespacio de \(V\).
Ejemplo: Intersección de dos subespacios de \(\mathbb{R}^3\)
En \(\mathbb{R}^3\), consideremos
\[ H_1=\{(x,y,z): 2x-y-z=0\} \]
y
\[ H_2=\{(x,y,z): x+2y+3z=0\}. \]
Ambos conjuntos son planos que pasan por el origen, por lo que son subespacios de \(\mathbb{R}^3\).
La intersección \(H_1\cap H_2\) se obtiene resolviendo el sistema homogéneo
\[ \begin{cases} x+2y+3z=0,\\ 2x-y-z=0. \end{cases} \]
Usamos eliminación por renglones:
\[ \left( \begin{array}{ccc|c} 1 & 2 & 3 & 0\\ 2 & -1 & -1 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{ccc|c} 1 & 2 & 3 & 0\\ 0 & -5 & -7 & 0 \end{array} \right). \]
Luego,
\[ \left( \begin{array}{ccc|c} 1 & 2 & 3 & 0\\ 0 & -5 & -7 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{ccc|c} 1 & 2 & 3 & 0\\ 0 & 1 & \frac75 & 0 \end{array} \right). \]
Finalmente,
\[ \left( \begin{array}{ccc|c} 1 & 2 & 3 & 0\\ 0 & 1 & \frac75 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{ccc|c} 1 & 0 & \frac15 & 0\\ 0 & 1 & \frac75 & 0 \end{array} \right). \]
Por tanto,
\[ x=-\frac15 z, \qquad y=-\frac75 z. \]
Tomando
\[ z=t, \]
se obtiene
\[ (x,y,z) = \left(-\frac15 t,-\frac75 t,t\right). \]
Equivalentemente,
\[ (x,y,z) = t\left(-\frac15,-\frac75,1\right), \qquad t\in\mathbb{R}. \]
Así, \(H_1\cap H_2\) es una recta que pasa por el origen, y por tanto es un subespacio de \(\mathbb{R}^3\).
5.3 Combinación lineal y espacio generado
Motivación
En \(\mathbb{R}^3\), todo vector
\[ \mathbf{v}=(a,b,c) \]
puede escribirse como
\[ \mathbf{v}=a\mathbf{i}+b\mathbf{j}+c\mathbf{k}. \]
En este caso, se dice que \(\mathbf{v}\) es una combinación lineal de los vectores básicos
\[ \mathbf{i},\mathbf{j},\mathbf{k}. \]
La idea de combinación lineal permite describir cómo construir nuevos vectores a partir de otros mediante suma y multiplicación por escalares.
Combinación lineal
Sean
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n \]
vectores en un espacio vectorial \(V\).
Una combinación lineal de estos vectores es cualquier vector de la forma
\[ a_1\mathbf{v}_1+a_2\mathbf{v}_2+\cdots+a_n\mathbf{v}_n, \]
donde
\[ a_1,a_2,\ldots,a_n \]
son escalares.
Ejemplo: combinación lineal en \(\mathbb{R}^3\)
En \(\mathbb{R}^3\), el vector
\[ \begin{pmatrix} -7\\ 7\\ 7 \end{pmatrix} \]
es una combinación lineal de
\[ \begin{pmatrix} -1\\ 2\\ 4 \end{pmatrix} \qquad \text{y} \qquad \begin{pmatrix} 5\\ -3\\ 1 \end{pmatrix}, \]
porque
\[ \begin{pmatrix} -7\\ 7\\ 7 \end{pmatrix} = 2 \begin{pmatrix} -1\\ 2\\ 4 \end{pmatrix} - \begin{pmatrix} 5\\ -3\\ 1 \end{pmatrix}. \]
En efecto,
\[ 2 \begin{pmatrix} -1\\ 2\\ 4 \end{pmatrix} = \begin{pmatrix} -2\\ 4\\ 8 \end{pmatrix}, \]
y por tanto
\[ \begin{pmatrix} -2\\ 4\\ 8 \end{pmatrix} - \begin{pmatrix} 5\\ -3\\ 1 \end{pmatrix} = \begin{pmatrix} -7\\ 7\\ 7 \end{pmatrix}. \]
Ejemplo: combinación lineal en \(M_{23}\)
En el espacio \(M_{23}\) de matrices reales de tamaño \(2\times 3\), se tiene
\[ \begin{pmatrix} -3 & 2 & 8\\ -1 & 9 & 3 \end{pmatrix} = 3 \begin{pmatrix} -1 & 0 & 4\\ 1 & 1 & 5 \end{pmatrix} + 2 \begin{pmatrix} 0 & 1 & -2\\ -2 & 3 & -6 \end{pmatrix}. \]
Verifiquemos:
\[ 3 \begin{pmatrix} -1 & 0 & 4\\ 1 & 1 & 5 \end{pmatrix} = \begin{pmatrix} -3 & 0 & 12\\ 3 & 3 & 15 \end{pmatrix}, \]
y
\[ 2 \begin{pmatrix} 0 & 1 & -2\\ -2 & 3 & -6 \end{pmatrix} = \begin{pmatrix} 0 & 2 & -4\\ -4 & 6 & -12 \end{pmatrix}. \]
Sumando,
\[ \begin{pmatrix} -3 & 0 & 12\\ 3 & 3 & 15 \end{pmatrix} + \begin{pmatrix} 0 & 2 & -4\\ -4 & 6 & -12 \end{pmatrix} = \begin{pmatrix} -3 & 2 & 8\\ -1 & 9 & 3 \end{pmatrix}. \]
Por tanto, la primera matriz es una combinación lineal de las otras dos.
Ejemplo: combinaciones lineales en \(P_n\)
En el espacio vectorial \(P_n\), todo polinomio de grado menor o igual que \(n\) puede escribirse como una combinación lineal de los monomios
\[ 1,x,x^2,\ldots,x^n. \]
Por ejemplo, si
\[ p(x)=a_0+a_1x+a_2x^2+\cdots+a_nx^n, \]
entonces
\[ p(x)=a_0(1)+a_1x+a_2x^2+\cdots+a_nx^n. \]
Conjunto generador
Sean
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n \]
vectores de un espacio vectorial \(V\).
Se dice que estos vectores generan a \(V\) si todo vector de \(V\) se puede escribir como una combinación lineal de ellos.
Es decir, para todo
\[ \mathbf{v}\in V, \]
existen escalares
\[ a_1,a_2,\ldots,a_n \]
tales que
\[ \mathbf{v} = a_1\mathbf{v}_1+a_2\mathbf{v}_2+\cdots+a_n\mathbf{v}_n. \]
Ejemplo: vectores que generan \(\mathbb{R}^2\) y \(\mathbb{R}^3\)
En \(\mathbb{R}^2\), los vectores
\[ \mathbf{i}= \begin{pmatrix} 1\\ 0 \end{pmatrix}, \qquad \mathbf{j}= \begin{pmatrix} 0\\ 1 \end{pmatrix} \]
generan \(\mathbb{R}^2\), porque cualquier vector
\[ \begin{pmatrix} a\\ b \end{pmatrix} \]
se puede escribir como
\[ \begin{pmatrix} a\\ b \end{pmatrix} = a \begin{pmatrix} 1\\ 0 \end{pmatrix} + b \begin{pmatrix} 0\\ 1 \end{pmatrix}. \]
En \(\mathbb{R}^3\), los vectores
\[ \mathbf{i}= \begin{pmatrix} 1\\ 0\\ 0 \end{pmatrix}, \qquad \mathbf{j}= \begin{pmatrix} 0\\ 1\\ 0 \end{pmatrix}, \qquad \mathbf{k}= \begin{pmatrix} 0\\ 0\\ 1 \end{pmatrix} \]
generan \(\mathbb{R}^3\), porque cualquier vector
\[ \begin{pmatrix} a\\ b\\ c \end{pmatrix} \]
se puede escribir como
\[ \begin{pmatrix} a\\ b\\ c \end{pmatrix} = a\mathbf{i}+b\mathbf{j}+c\mathbf{k}. \]
Ejemplo: \(n+1\) vectores que generan \(P_n\)
Los monomios
\[ 1,x,x^2,\ldots,x^n \]
generan el espacio \(P_n\).
Esto se debe a que cualquier polinomio
\[ p(x)=a_0+a_1x+a_2x^2+\cdots+a_nx^n \]
puede escribirse como combinación lineal de esos monomios:
\[ p(x)=a_0(1)+a_1x+a_2x^2+\cdots+a_nx^n. \]
Ejemplo: cuatro vectores que generan \(M_{22}\)
Sea
\[ A= \begin{pmatrix} a & b\\ c & d \end{pmatrix} \in M_{22}. \]
Entonces
\[ A = a \begin{pmatrix} 1 & 0\\ 0 & 0 \end{pmatrix} + b \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} + c \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix} + d \begin{pmatrix} 0 & 0\\ 0 & 1 \end{pmatrix}. \]
Por tanto, las matrices
\[ \begin{pmatrix} 1 & 0\\ 0 & 0 \end{pmatrix}, \qquad \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix}, \qquad \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix}, \qquad \begin{pmatrix} 0 & 0\\ 0 & 1 \end{pmatrix} \]
generan \(M_{22}\).
Espacio generado por un conjunto de vectores
Sean
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_k \]
vectores de un espacio vectorial \(V\).
El espacio generado por estos vectores es el conjunto de todas sus combinaciones lineales:
\[ \operatorname{gen}\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_k\} = \left\{ \mathbf{v}\in V: \mathbf{v} = a_1\mathbf{v}_1+a_2\mathbf{v}_2+\cdots+a_k\mathbf{v}_k \right\}, \]
donde
\[ a_1,a_2,\ldots,a_k \]
son escalares arbitrarios.
Teorema: el espacio generado es un subespacio
Si
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_k \]
son vectores en un espacio vectorial \(V\), entonces
\[ \operatorname{gen}\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_k\} \]
es un subespacio de \(V\).
Justificación breve
El conjunto generado es no vacío, porque contiene al vector cero al tomar todos los coeficientes iguales a cero:
\[ 0\mathbf{v}_1+0\mathbf{v}_2+\cdots+0\mathbf{v}_k=\mathbf{0}. \]
Además, la suma de dos combinaciones lineales vuelve a ser una combinación lineal, y un múltiplo escalar de una combinación lineal también es una combinación lineal. Por tanto, se cumplen las dos reglas de cerradura.
Ejemplo: espacio generado por dos vectores en \(\mathbb{R}^3\)
Sea
\[ \mathbf{v}_1=(2,-1,4) \]
y
\[ \mathbf{v}_2=(4,1,6). \]
Entonces
\[ H=\operatorname{gen}\{\mathbf{v}_1,\mathbf{v}_2\} \]
es el conjunto de todos los vectores de la forma
\[ \mathbf{v} = a_1(2,-1,4)+a_2(4,1,6). \]
Es decir, si
\[ \mathbf{v}=(x,y,z)\in H, \]
entonces
\[ x=2a_1+4a_2, \]
\[ y=-a_1+a_2, \]
\[ z=4a_1+6a_2. \]
Podemos ver estas ecuaciones como un sistema en las incógnitas \(a_1\) y \(a_2\):
\[ \begin{cases} 2a_1+4a_2=x,\\ -a_1+a_2=y,\\ 4a_1+6a_2=z. \end{cases} \]
Reducimos la matriz aumentada:
\[ \left( \begin{array}{cc|c} -1 & 1 & y\\ 2 & 4 & x\\ 4 & 6 & z \end{array} \right) \xrightarrow{R_1\rightarrow -R_1} \left( \begin{array}{cc|c} 1 & -1 & -y\\ 2 & 4 & x\\ 4 & 6 & z \end{array} \right). \]
Luego,
\[ \left( \begin{array}{cc|c} 1 & -1 & -y\\ 2 & 4 & x\\ 4 & 6 & z \end{array} \right) \xrightarrow{ \substack{ R_2\rightarrow R_2-2R_1\\ R_3\rightarrow R_3-4R_1 }} \left( \begin{array}{cc|c} 1 & -1 & -y\\ 0 & 6 & x+2y\\ 0 & 10 & z+4y \end{array} \right). \]
Ahora,
\[ \left( \begin{array}{cc|c} 1 & -1 & -y\\ 0 & 6 & x+2y\\ 0 & 10 & z+4y \end{array} \right) \xrightarrow{R_2\rightarrow \frac16 R_2} \left( \begin{array}{cc|c} 1 & -1 & -y\\ 0 & 1 & \frac{x+2y}{6}\\ 0 & 10 & z+4y \end{array} \right). \]
Finalmente,
\[ \left( \begin{array}{cc|c} 1 & -1 & -y\\ 0 & 1 & \frac{x+2y}{6}\\ 0 & 10 & z+4y \end{array} \right) \xrightarrow{ \substack{ R_1\rightarrow R_1+R_2\\ R_3\rightarrow R_3-10R_2 }} \left( \begin{array}{cc|c} 1 & 0 & \frac{x}{6}-\frac{2y}{3}\\ 0 & 1 & \frac{x}{6}+\frac{y}{3}\\ 0 & 0 & -\frac{5x}{3}+\frac{2y}{3}+z \end{array} \right). \]
El sistema tiene solución si y sólo si
\[ -\frac{5x}{3}+\frac{2y}{3}+z=0. \]
Multiplicando por \(-3\), se obtiene
\[ 5x-2y-3z=0. \]
Por tanto,
\[ H = \{(x,y,z)\in\mathbb{R}^3: 5x-2y-3z=0\}. \]
Este conjunto es un plano que pasa por el origen.
Interpretación geométrica
El espacio generado por dos vectores no nulos y no paralelos en \(\mathbb{R}^3\) es un plano que pasa por el origen.
Si los vectores son
\[ \mathbf{u} \qquad \text{y} \qquad \mathbf{v}, \]
entonces cualquier vector del plano determinado por ellos puede escribirse como
\[ \alpha\mathbf{u}+\beta\mathbf{v} \]
para ciertos escalares \(\alpha\) y \(\beta\).
Geométricamente, las combinaciones lineales permiten construir todos los vectores del plano generado por \(\mathbf{u}\) y \(\mathbf{v}\).
Diferencia entre “generar” y “espacio generado”
Es importante distinguir dos ideas relacionadas:
- Generar
Un conjunto de vectores
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n \]
genera un espacio vectorial \(V\) si todo vector de \(V\) puede escribirse como combinación lineal de ellos.
- Espacio generado
El espacio generado por
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_k \]
es el conjunto de todas las combinaciones lineales de esos vectores:
\[ \operatorname{gen}\{\mathbf{v}_1,\ldots,\mathbf{v}_k\}. \]
Así, “genera” describe una propiedad de un conjunto de vectores respecto a un espacio, mientras que “espacio generado” nombra al conjunto formado por todas sus combinaciones lineales.
Teorema: agregar vectores a un conjunto generador
Sean
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n,\mathbf{v}_{n+1} \]
vectores en un espacio vectorial \(V\).
Si
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n \]
generan a \(V\), entonces
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n,\mathbf{v}_{n+1} \]
también generan a \(V\).
Es decir, agregar uno o más vectores a un conjunto generador sigue produciendo un conjunto generador.
5.4 Independencia lineal
Motivación
Una idea central del Álgebra Lineal es determinar cuándo un conjunto de vectores tiene una relación algebraica entre sus elementos. Por ejemplo, si
\[ \mathbf{v}_1= \begin{pmatrix} 1\\ 2 \end{pmatrix}, \qquad \mathbf{v}_2= \begin{pmatrix} 2\\ 4 \end{pmatrix}, \]
entonces
\[ \mathbf{v}_2=2\mathbf{v}_1. \]
Equivalentemente,
\[ 2\mathbf{v}_1-\mathbf{v}_2=\mathbf{0}. \]
Esto significa que el vector cero se puede escribir como una combinación lineal no trivial de \(\mathbf{v}_1\) y \(\mathbf{v}_2\).
También, para
\[ \mathbf{v}_1= \begin{pmatrix} 1\\ 2\\ 3 \end{pmatrix}, \qquad \mathbf{v}_2= \begin{pmatrix} -4\\ 1\\ 5 \end{pmatrix}, \qquad \mathbf{v}_3= \begin{pmatrix} -5\\ 8\\ 19 \end{pmatrix}, \]
se verifica que
\[ \mathbf{v}_3=3\mathbf{v}_1+2\mathbf{v}_2. \]
Por tanto,
\[ 3\mathbf{v}_1+2\mathbf{v}_2-\mathbf{v}_3=\mathbf{0}. \]
En ambos casos, los vectores tienen una relación especial: alguno de ellos puede expresarse en términos de los otros. Esta idea se formaliza mediante la dependencia lineal.
Dependencia e independencia lineal
Sean
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n \]
vectores en un espacio vectorial \(V\).
Se dice que estos vectores son linealmente dependientes si existen escalares
\[ c_1,c_2,\ldots,c_n, \]
no todos iguales a cero, tales que
\[ c_1\mathbf{v}_1+c_2\mathbf{v}_2+\cdots+c_n\mathbf{v}_n=\mathbf{0}. \]
Si la única forma de obtener el vector cero es tomando
\[ c_1=c_2=\cdots=c_n=0, \]
entonces los vectores son linealmente independientes.
En otras palabras:
- son linealmente dependientes si existe una combinación lineal no trivial que da \(\mathbf{0}\);
- son linealmente independientes si la única combinación lineal que da \(\mathbf{0}\) es la trivial.
Teorema:
Dos vectores en un espacio vectorial son linealmente dependientes si y sólo si uno de ellos es múltiplo escalar del otro.
Interpretación
Si
\[ \mathbf{v}_2=c\mathbf{v}_1 \]
para algún escalar \(c\), entonces
\[ c\mathbf{v}_1-\mathbf{v}_2=\mathbf{0}. \]
Por tanto, los vectores son linealmente dependientes.
Recíprocamente, si
\[ c_1\mathbf{v}_1+c_2\mathbf{v}_2=\mathbf{0} \]
con al menos un coeficiente distinto de cero, entonces puede despejarse uno de los vectores como múltiplo escalar del otro.
Ejemplo: dos vectores dependientes en \(\mathbb{R}^4\)
Los vectores
\[ \mathbf{v}_1= \begin{pmatrix} 2\\ -1\\ 0\\ 3 \end{pmatrix}, \qquad \mathbf{v}_2= \begin{pmatrix} -6\\ 3\\ 0\\ -9 \end{pmatrix} \]
son linealmente dependientes porque
\[ \mathbf{v}_2=-3\mathbf{v}_1. \]
Ejemplo: dos vectores independientes en \(\mathbb{R}^3\)
Considere los vectores
\[ \mathbf{v}_1= \begin{pmatrix} 1\\ 2\\ 4 \end{pmatrix}, \qquad \mathbf{v}_2= \begin{pmatrix} 2\\ 5\\ -3 \end{pmatrix}. \]
Si fueran linealmente dependientes, uno tendría que ser múltiplo escalar del otro. Es decir, existiría un escalar \(c\) tal que
\[ \mathbf{v}_2=c\mathbf{v}_1. \]
Esto implicaría
\[ \begin{pmatrix} 2\\ 5\\ -3 \end{pmatrix} = c \begin{pmatrix} 1\\ 2\\ 4 \end{pmatrix} = \begin{pmatrix} c\\ 2c\\ 4c \end{pmatrix}. \]
Por tanto, debería cumplirse simultáneamente que
\[ 2=c, \qquad 5=2c, \qquad -3=4c. \]
Esto es imposible. Por lo tanto, los vectores son linealmente independientes.
Ejemplo: independencia lineal de tres vectores en \(\mathbb{R}^3\)
Determine si los vectores
\[ \begin{pmatrix} 1\\ -2\\ 3 \end{pmatrix}, \qquad \begin{pmatrix} 2\\ -2\\ 0 \end{pmatrix}, \qquad \begin{pmatrix} 0\\ 1\\ 7 \end{pmatrix} \]
son linealmente dependientes o independientes.
Solución
Planteamos la combinación lineal igual al vector cero:
\[ c_1 \begin{pmatrix} 1\\ -2\\ 3 \end{pmatrix} + c_2 \begin{pmatrix} 2\\ -2\\ 0 \end{pmatrix} + c_3 \begin{pmatrix} 0\\ 1\\ 7 \end{pmatrix} = \begin{pmatrix} 0\\ 0\\ 0 \end{pmatrix}. \]
Al sumar componentes, obtenemos el sistema homogéneo
\[ \begin{cases} c_1+2c_2=0,\\ -2c_1-2c_2+c_3=0,\\ 3c_1+7c_3=0. \end{cases} \]
La matriz aumentada asociada es
\[ \left( \begin{array}{rrr|r} 1 & 2 & 0 & 0\\ -2 & -2 & 1 & 0\\ 3 & 0 & 7 & 0 \end{array} \right). \]
Al reducir por renglones se obtiene
\[ \left( \begin{array}{ccc|c} 1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0 \end{array} \right). \]
Esto implica
\[ c_1=0, \qquad c_2=0, \qquad c_3=0. \]
La única solución es la trivial. Por tanto, los vectores son linealmente independientes.
Ejemplo: dependencia lineal de tres vectores en \(\mathbb{R}^3\)
Determine si los vectores
\[ \begin{pmatrix} 1\\ -3\\ 0 \end{pmatrix}, \qquad \begin{pmatrix} 3\\ 0\\ 4 \end{pmatrix}, \qquad \begin{pmatrix} 11\\ -6\\ 12 \end{pmatrix} \]
son linealmente dependientes o independientes.
Solución
Planteamos
\[ c_1 \begin{pmatrix} 1\\ -3\\ 0 \end{pmatrix} + c_2 \begin{pmatrix} 3\\ 0\\ 4 \end{pmatrix} + c_3 \begin{pmatrix} 11\\ -6\\ 12 \end{pmatrix} = \begin{pmatrix} 0\\ 0\\ 0 \end{pmatrix}. \]
Esto conduce al sistema homogéneo
\[ \begin{cases} c_1+3c_2+11c_3=0,\\ -3c_1-6c_3=0,\\ 4c_2+12c_3=0. \end{cases} \]
Reducimos la matriz aumentada:
\[ \left( \begin{array}{rrr|r} 1 & 3 & 11 & 0\\ -3 & 0 & -6 & 0\\ 0 & 4 & 12 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 1 & 3 & 11 & 0\\ 0 & 9 & 27 & 0\\ 0 & 4 & 12 & 0 \end{array} \right). \]
Continuando la reducción,
\[ \left( \begin{array}{rrr|r} 1 & 3 & 11 & 0\\ 0 & 1 & 3 & 0\\ 0 & 4 & 12 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 1 & 0 & 2 & 0\\ 0 & 1 & 3 & 0\\ 0 & 0 & 0 & 0 \end{array} \right). \]
El sistema reducido es
\[ c_1+2c_3=0, \]
\[ c_2+3c_3=0. \]
Tomando
\[ c_3=1, \]
se obtiene
\[ c_1=-2, \qquad c_2=-3. \]
Así,
\[ -2 \begin{pmatrix} 1\\ -3\\ 0 \end{pmatrix} - 3 \begin{pmatrix} 3\\ 0\\ 4 \end{pmatrix} + \begin{pmatrix} 11\\ -6\\ 12 \end{pmatrix} = \begin{pmatrix} 0\\ 0\\ 0 \end{pmatrix}. \]
Como existe una combinación lineal no trivial que produce el vector cero, los vectores son linealmente dependientes.
Interpretación geométrica en \(\mathbb{R}^3\)
Tres vectores en \(\mathbb{R}^3\) son linealmente dependientes si uno de ellos puede escribirse como combinación lineal de los otros dos.
Supongamos que
\[ c_1\mathbf{u}+c_2\mathbf{v}+c_3\mathbf{w}=\mathbf{0}, \]
con coeficientes no todos cero. Si
\[ c_3\neq 0, \]
podemos despejar
\[ \mathbf{w} = -\frac{c_1}{c_3}\mathbf{u} - \frac{c_2}{c_3}\mathbf{v}. \]
Entonces \(\mathbf{w}\) está en el plano generado por \(\mathbf{u}\) y \(\mathbf{v}\).
Por tanto, los tres vectores son coplanares.
Recíprocamente, si tres vectores en \(\mathbb{R}^3\) son coplanares, entonces uno de ellos puede expresarse como combinación lineal de los otros dos, o los tres están contenidos en un mismo plano por el origen.
Así,
\[ \boxed{ \text{Tres vectores en }\mathbb{R}^3 \text{ son linealmente dependientes si y sólo si son coplanares.} } \]
Relación con sistemas homogéneos
Para estudiar si
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n \]
son linealmente dependientes, se busca una solución no trivial del sistema
\[ c_1\mathbf{v}_1+c_2\mathbf{v}_2+\cdots+c_n\mathbf{v}_n=\mathbf{0}. \]
Si escribimos los vectores como columnas de una matriz \(A\), entonces esta ecuación se convierte en
\[ A\mathbf{c}=\mathbf{0}, \]
donde
\[ \mathbf{c}= \begin{pmatrix} c_1\\ c_2\\ \vdots\\ c_n \end{pmatrix}. \]
Por tanto:
- si \(A\mathbf{c}=\mathbf{0}\) tiene soluciones no triviales, las columnas de \(A\) son linealmente dependientes;
- si la única solución es \(\mathbf{c}=\mathbf{0}\), las columnas son linealmente independientes.
Teorema
Un conjunto de \(n\) vectores en \(\mathbb{R}^m\) es siempre linealmente dependiente si
\[ n>m. \]
Es decir, si hay más vectores que componentes, necesariamente existe una combinación lineal no trivial que produce el vector cero.
Ejemplo: cuatro vectores en \(\mathbb{R}^3\)
Los vectores
\[ \begin{pmatrix} 2\\ -3\\ 4 \end{pmatrix}, \qquad \begin{pmatrix} 4\\ 7\\ -6 \end{pmatrix}, \qquad \begin{pmatrix} 18\\ -11\\ 4 \end{pmatrix}, \qquad \begin{pmatrix} 2\\ -7\\ 3 \end{pmatrix} \]
son linealmente dependientes porque son cuatro vectores en \(\mathbb{R}^3\).
Aquí
\[ n=4 \qquad \text{y} \qquad m=3, \]
por lo que
\[ n>m. \]
Corolario
Un conjunto linealmente independiente en \(\mathbb{R}^n\) contiene a lo sumo \(n\) vectores.
En otras palabras, si ya se tienen \(n\) vectores linealmente independientes en \(\mathbb{R}^n\), no se puede agregar otro vector sin que el conjunto se vuelva linealmente dependiente.
Teorema: columnas de una matriz
Sea
\[ A= \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix}. \]
Las columnas de \(A\) son linealmente dependientes si y sólo si el sistema homogéneo
\[ A\mathbf{c}=\mathbf{0} \]
tiene soluciones no triviales.
Ejemplo: soluciones de un sistema homogéneo como combinación lineal
Considere el sistema homogéneo
\[ \begin{cases} x_1+2x_2-x_3+2x_4=0,\\ 3x_1+7x_2+x_3+4x_4=0. \end{cases} \]
Solución
Reducimos la matriz aumentada:
\[ \left( \begin{array}{rrrr|r} 1 & 2 & -1 & 2 & 0\\ 3 & 7 & 1 & 4 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrrr|r} 1 & 2 & -1 & 2 & 0\\ 0 & 1 & 4 & -2 & 0 \end{array} \right). \]
Luego,
\[ \left( \begin{array}{rrrr|r} 1 & 2 & -1 & 2 & 0\\ 0 & 1 & 4 & -2 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrrr|r} 1 & 0 & -9 & 6 & 0\\ 0 & 1 & 4 & -2 & 0 \end{array} \right). \]
El sistema reducido es
\[ x_1-9x_3+6x_4=0, \]
\[ x_2+4x_3-2x_4=0. \]
Por tanto,
\[ x_1=9x_3-6x_4, \]
\[ x_2=-4x_3+2x_4. \]
Entonces
\[ \begin{pmatrix} x_1\\ x_2\\ x_3\\ x_4 \end{pmatrix} = \begin{pmatrix} 9x_3-6x_4\\ -4x_3+2x_4\\ x_3\\ x_4 \end{pmatrix}. \]
Separando los parámetros libres \(x_3\) y \(x_4\), obtenemos
\[ \begin{pmatrix} x_1\\ x_2\\ x_3\\ x_4 \end{pmatrix} = x_3 \begin{pmatrix} 9\\ -4\\ 1\\ 0 \end{pmatrix} + x_4 \begin{pmatrix} -6\\ 2\\ 0\\ 1 \end{pmatrix}. \]
Por tanto, el conjunto solución es el subespacio generado por
\[ \begin{pmatrix} 9\\ -4\\ 1\\ 0 \end{pmatrix} \qquad \text{y} \qquad \begin{pmatrix} -6\\ 2\\ 0\\ 1 \end{pmatrix}. \]
Estos dos vectores son linealmente independientes, porque ninguno es múltiplo escalar del otro.
Teorema
Sean
\[ \mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n \]
vectores en \(\mathbb{R}^n\), y sea \(A\) la matriz de \(n\times n\) cuyas columnas son esos vectores.
Entonces los vectores son linealmente independientes si y sólo si la única solución del sistema homogéneo
\[ A\mathbf{x}=\mathbf{0} \]
es la solución trivial
\[ \mathbf{x}=\mathbf{0}. \]
Teorema
Sea \(A\) una matriz de \(n\times n\). Entonces
\[ \det(A)\neq 0 \]
si y sólo si las columnas de \(A\) son linealmente independientes.
Teorema
Cualquier conjunto de \(n\) vectores linealmente independientes en \(\mathbb{R}^n\) genera a \(\mathbb{R}^n\).
Interpretación
Si se tienen exactamente \(n\) vectores linealmente independientes en \(\mathbb{R}^n\), entonces cualquier vector de \(\mathbb{R}^n\) puede escribirse como combinación lineal de ellos.
Además, esa representación es única.
Ejemplo: tres vectores que generan \(\mathbb{R}^3\)
Los vectores
\[ (2,-1,4), \qquad (1,0,2), \qquad (3,-1,5) \]
generan \(\mathbb{R}^3\) porque el determinante de la matriz que los tiene como columnas es distinto de cero:
\[ \begin{vmatrix} 2 & 1 & 3\\ -1 & 0 & -1\\ 4 & 2 & 5 \end{vmatrix} = -1 \neq 0. \]
Por tanto, los vectores son linealmente independientes y generan \(\mathbb{R}^3\).
Ejemplo: matrices linealmente independientes en \(M_{23}\)
En \(M_{23}\), sean
\[ A_1= \begin{pmatrix} 1 & 0 & 2\\ 3 & 1 & -1 \end{pmatrix}, \]
\[ A_2= \begin{pmatrix} -1 & 1 & 4\\ 2 & 3 & 0 \end{pmatrix}, \]
y
\[ A_3= \begin{pmatrix} -1 & 0 & 1\\ 1 & 2 & 1 \end{pmatrix}. \]
Para determinar si son linealmente independientes, planteamos
\[ c_1A_1+c_2A_2+c_3A_3=0. \]
Entonces
\[ \begin{aligned} 0 &= c_1 \begin{pmatrix} 1 & 0 & 2\\ 3 & 1 & -1 \end{pmatrix} + c_2 \begin{pmatrix} -1 & 1 & 4\\ 2 & 3 & 0 \end{pmatrix} + c_3 \begin{pmatrix} -1 & 0 & 1\\ 1 & 2 & 1 \end{pmatrix}. \end{aligned} \]
Sumando entrada por entrada,
\[ \begin{pmatrix} 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix} = \begin{pmatrix} c_1-c_2-c_3 & c_2 & 2c_1+4c_2+c_3\\ 3c_1+2c_2+c_3 & c_1+3c_2+2c_3 & -c_1+c_3 \end{pmatrix}. \]
Esto da un sistema homogéneo de seis ecuaciones con tres incógnitas. De las entradas se obtiene, por ejemplo,
\[ c_2=0, \]
\[ -c_1+c_3=0, \]
y
\[ c_1-c_2-c_3=0. \]
Con \(c_2=0\), las últimas dos ecuaciones implican \(c_1=c_3\) y \(c_1=c_3\), pero usando además
\[ 2c_1+4c_2+c_3=0 \]
se obtiene
\[ 2c_1+c_3=0. \]
Como \(c_3=c_1\), resulta
\[ 3c_1=0, \]
por lo que
\[ c_1=0, \qquad c_3=0, \qquad c_2=0. \]
La única solución es la trivial. Por tanto, las matrices son linealmente independientes.
Ejemplo: cuatro polinomios linealmente independientes en \(P_3\)
En \(P_3\), determine si los polinomios
\[ 1, \qquad x, \qquad x^2, \qquad x^3 \]
son linealmente dependientes o independientes.
Solución
Supongamos que
\[ c_1+c_2x+c_3x^2+c_4x^3=0 \]
para todo número real \(x\).
Esto significa que el polinomio
\[ c_1+c_2x+c_3x^2+c_4x^3 \]
es el polinomio cero.
Por igualdad de polinomios, todos sus coeficientes deben ser cero:
\[ c_1=0, \qquad c_2=0, \qquad c_3=0, \qquad c_4=0. \]
Por tanto, la única combinación lineal que da el polinomio cero es la trivial. Así, los polinomios son linealmente independientes.
Ejemplo: tres polinomios linealmente dependientes en \(P_2\)
En \(P_2\), determine si los polinomios
\[ x-2x^2, \qquad x^2-4x, \qquad -7x+8x^2 \]
son linealmente dependientes o independientes.
Solución
Planteamos
\[ c_1(x-2x^2)+c_2(x^2-4x)+c_3(-7x+8x^2)=0. \]
Agrupando términos semejantes:
\[ (c_1-4c_2-7c_3)x+(-2c_1+c_2+8c_3)x^2=0. \]
Esto se cumple para todo \(x\) si y sólo si
\[ c_1-4c_2-7c_3=0, \]
\[ -2c_1+c_2+8c_3=0. \]
Este es un sistema homogéneo de dos ecuaciones con tres incógnitas, por lo que tiene soluciones no triviales. Por tanto, los polinomios son linealmente dependientes.
Reducimos el sistema:
\[ \left( \begin{array}{rrr|r} 1 & -4 & -7 & 0\\ -2 & 1 & 8 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 1 & -4 & -7 & 0\\ 0 & -7 & -6 & 0 \end{array} \right). \]
Luego,
\[ \left( \begin{array}{rrr|r} 1 & -4 & -7 & 0\\ 0 & -7 & -6 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 1 & -4 & -7 & 0\\ 0 & 1 & \frac67 & 0 \end{array} \right). \]
Finalmente,
\[ \left( \begin{array}{rrr|r} 1 & -4 & -7 & 0\\ 0 & 1 & \frac67 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 1 & 0 & -\frac{25}{7} & 0\\ 0 & 1 & \frac67 & 0 \end{array} \right). \]
Por tanto,
\[ c_1=\frac{25}{7}c_3, \qquad c_2=-\frac67c_3. \]
Tomando
\[ c_3=7, \]
obtenemos
\[ c_1=25, \qquad c_2=-6. \]
Así,
\[ 25(x-2x^2)-6(x^2-4x)+7(-7x+8x^2)=0. \]
Como esta es una combinación lineal no trivial que da el polinomio cero, los polinomios son linealmente dependientes.
5.5 Bases y dimensión
Motivación
En \(\mathbb{R}^2\), todo vector puede escribirse como combinación lineal de
\[ \mathbf{i}= \begin{pmatrix} 1\\ 0 \end{pmatrix}, \qquad \mathbf{j}= \begin{pmatrix} 0\\ 1 \end{pmatrix}. \]
En \(\mathbb{R}^3\), todo vector puede escribirse como combinación lineal de
\[ \begin{pmatrix} 1\\ 0\\ 0 \end{pmatrix}, \qquad \begin{pmatrix} 0\\ 1\\ 0 \end{pmatrix}, \qquad \begin{pmatrix} 0\\ 0\\ 1 \end{pmatrix}. \]
Estos conjuntos tienen dos propiedades esenciales:
- Son linealmente independientes.
- Generan todo el espacio.
Esta idea se generaliza mediante el concepto de base.
Base de un espacio vectorial
Un conjunto finito de vectores
\[ \{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\} \]
es una base de un espacio vectorial \(V\) si cumple dos condiciones:
- El conjunto es linealmente independiente.
- El conjunto genera a \(V\).
Es decir, una base es un conjunto mínimo y suficiente para describir todos los vectores del espacio.
Base canónica de \(\mathbb{R}^n\)
En \(\mathbb{R}^n\), se definen los vectores
\[ \mathbf{e}_1= \begin{pmatrix} 1\\ 0\\ 0\\ \vdots\\ 0 \end{pmatrix}, \qquad \mathbf{e}_2= \begin{pmatrix} 0\\ 1\\ 0\\ \vdots\\ 0 \end{pmatrix}, \qquad \ldots, \qquad \mathbf{e}_n= \begin{pmatrix} 0\\ 0\\ 0\\ \vdots\\ 1 \end{pmatrix}. \]
Estos vectores son las columnas de la matriz identidad \(I_n\). Por tanto, son linealmente independientes y generan \(\mathbb{R}^n\).
Así,
\[ \{\mathbf{e}_1,\mathbf{e}_2,\ldots,\mathbf{e}_n\} \]
es una base de \(\mathbb{R}^n\), llamada base canónica.
Ejemplo: base canónica de \(P_n\)
En el espacio \(P_n\) de polinomios de grado menor o igual que \(n\), los monomios
\[ 1,x,x^2,\ldots,x^n \]
forman una base.
Por ejemplo, en \(P_3\), el conjunto
\[ \{1,x,x^2,x^3\} \]
es una base, porque todo polinomio de grado menor o igual que \(3\) puede escribirse de manera única como
\[ p(x)=a_0+a_1x+a_2x^2+a_3x^3. \]
En general,
\[ \{1,x,x^2,\ldots,x^n\} \]
es la base canónica de \(P_n\).
Ejemplo: base canónica de \(M_{22}\)
En el espacio \(M_{22}\) de matrices reales de tamaño \(2\times 2\), las matrices
\[ E_{11}= \begin{pmatrix} 1 & 0\\ 0 & 0 \end{pmatrix}, \qquad E_{12}= \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix}, \]
\[ E_{21}= \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix}, \qquad E_{22}= \begin{pmatrix} 0 & 0\\ 0 & 1 \end{pmatrix} \]
forman una base.
En efecto, cualquier matriz
\[ A= \begin{pmatrix} a & b\\ c & d \end{pmatrix} \]
puede escribirse como
\[ A = aE_{11}+bE_{12}+cE_{21}+dE_{22}. \]
Además, si
\[ c_1E_{11}+c_2E_{12}+c_3E_{21}+c_4E_{22} = \begin{pmatrix} 0 & 0\\ 0 & 0 \end{pmatrix}, \]
entonces necesariamente
\[ c_1=c_2=c_3=c_4=0. \]
Por tanto, estas cuatro matrices son linealmente independientes y generan \(M_{22}\).
Ejemplo: base de un subespacio de \(\mathbb{R}^3\)
Encuentre una base para el conjunto de vectores que pertenecen al plano
\[ \pi= \left\{ \begin{pmatrix} x\\ y\\ z \end{pmatrix} : 2x-y+3z=0 \right\}. \]
Solución
De la ecuación del plano,
\[ 2x-y+3z=0, \]
despejamos
\[ y=2x+3z. \]
Entonces todo vector en \(\pi\) tiene la forma
\[ \begin{pmatrix} x\\ y\\ z \end{pmatrix} = \begin{pmatrix} x\\ 2x+3z\\ z \end{pmatrix}. \]
Separando parámetros,
\[ \begin{pmatrix} x\\ 2x+3z\\ z \end{pmatrix} = \begin{pmatrix} x\\ 2x\\ 0 \end{pmatrix} + \begin{pmatrix} 0\\ 3z\\ z \end{pmatrix}. \]
Por tanto,
\[ \begin{pmatrix} x\\ 2x+3z\\ z \end{pmatrix} = x \begin{pmatrix} 1\\ 2\\ 0 \end{pmatrix} + z \begin{pmatrix} 0\\ 3\\ 1 \end{pmatrix}. \]
Así, los vectores
\[ \begin{pmatrix} 1\\ 2\\ 0 \end{pmatrix}, \qquad \begin{pmatrix} 0\\ 3\\ 1 \end{pmatrix} \]
generan el plano \(\pi\).
Además, no son múltiplos escalares entre sí, por lo que son linealmente independientes.
Por tanto, una base para \(\pi\) es
\[ \left\{ \begin{pmatrix} 1\\ 2\\ 0 \end{pmatrix}, \begin{pmatrix} 0\\ 3\\ 1 \end{pmatrix} \right\}. \]
Teorema: Representación única respecto a una base
Si
\[ \{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\} \]
es una base de \(V\), entonces cada vector \(\mathbf{v}\in V\) puede escribirse de manera única como
\[ \mathbf{v} = c_1\mathbf{v}_1+c_2\mathbf{v}_2+\cdots+c_n\mathbf{v}_n. \]
Una base puede no ser única, pero todas las bases de un mismo espacio vectorial tienen la misma cantidad de vectores.
Teorema: Todas las bases tienen el mismo número de vectores
Si
\[ \{\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_m\} \]
y
\[ \{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\} \]
son bases de un mismo espacio vectorial \(V\), entonces
\[ m=n. \]
Esto permite definir la dimensión de un espacio vectorial.
Dimensión
Si un espacio vectorial \(V\) tiene una base con un número finito de elementos, entonces la dimensión de \(V\) es el número de vectores en cualquiera de sus bases.
Se escribe
\[ \operatorname{dim} V. \]
Si \(V\) no tiene una base finita, se dice que \(V\) es de dimensión infinita.
Si
\[ V=\{\mathbf{0}\}, \]
entonces
\[ \operatorname{dim} V=0. \]
Ejemplo: dimensión de \(\mathbb{R}^n\)
Como la base canónica de \(\mathbb{R}^n\) tiene \(n\) vectores,
\[ \operatorname{dim}\mathbb{R}^n=n. \]
Ejemplo: dimensión de \(P_n\)
La base canónica de \(P_n\) es
\[ \{1,x,x^2,\ldots,x^n\}. \]
Este conjunto tiene \(n+1\) vectores. Por tanto,
\[ \operatorname{dim}P_n=n+1. \]
Ejemplo: dimensión de \(M_{mn}\)
En \(M_{mn}\), para cada posición \((i,j)\) se define la matriz \(E_{ij}\) como la matriz que tiene un \(1\) en la posición \((i,j)\) y ceros en todas las demás posiciones.
Las matrices
\[ E_{ij}, \qquad i=1,2,\ldots,m, \qquad j=1,2,\ldots,n, \]
forman una base de \(M_{mn}\).
Como hay \(mn\) matrices de este tipo,
\[ \operatorname{dim}M_{mn}=mn. \]
Teorema
Suponga que
\[ \operatorname{dim}V=n. \]
Si
\[ \mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_m \]
es un conjunto linealmente independiente en \(V\), entonces
\[ m\leq n. \]
Es decir, en un espacio de dimensión \(n\), no puede haber más de \(n\) vectores linealmente independientes.
Teorema: dimensión de subespacios
Sea \(H\) un subespacio de un espacio vectorial de dimensión finita \(V\). Entonces \(H\) también tiene dimensión finita y
\[ \operatorname{dim}H\leq \operatorname{dim}V. \]
Ejemplo: subespacios de \(\mathbb{R}^3\)
Sea \(H\) un subespacio de \(\mathbb{R}^3\).
Como
\[ \operatorname{dim}\mathbb{R}^3=3, \]
las posibilidades son:
\[ \operatorname{dim}H=0,1,2,3. \]
Caso 1: dimensión cero
Si
\[ \operatorname{dim}H=0, \]
entonces
\[ H=\{\mathbf{0}\}. \]
Caso 2: dimensión uno
Si
\[ \operatorname{dim}H=1, \]
entonces \(H\) tiene una base formada por un solo vector no nulo
\[ \mathbf{v}=(a,b,c). \]
Todo vector de \(H\) tiene la forma
\[ t(a,b,c), \qquad t\in\mathbb{R}. \]
Por tanto, \(H\) es una recta que pasa por el origen.
Caso 3: dimensión dos
Si
\[ \operatorname{dim}H=2, \]
entonces \(H\) tiene una base formada por dos vectores linealmente independientes
\[ \mathbf{v}_1=(a_1,b_1,c_1), \qquad \mathbf{v}_2=(a_2,b_2,c_2). \]
Todo vector de \(H\) se escribe como
\[ \mathbf{x}=s\mathbf{v}_1+t\mathbf{v}_2. \]
El vector
\[ \mathbf{n}=\mathbf{v}_1\times \mathbf{v}_2 \]
es perpendicular tanto a \(\mathbf{v}_1\) como a \(\mathbf{v}_2\).
Por tanto, si
\[ \mathbf{n}=(\alpha,\beta,\gamma), \]
todo vector
\[ \mathbf{x}=(x,y,z)\in H \]
satisface
\[ \alpha x+\beta y+\gamma z=0. \]
Así, \(H\) es un plano que pasa por el origen.
Caso 4: dimensión tres
Si
\[ \operatorname{dim}H=3, \]
entonces \(H\) contiene tres vectores linealmente independientes de \(\mathbb{R}^3\), por lo que esos vectores forman una base de \(\mathbb{R}^3\).
Así,
\[ H=\mathbb{R}^3. \]
Por tanto, los únicos subespacios propios de \(\mathbb{R}^3\) son rectas y planos que pasan por el origen.
Ejemplo: espacio de solución y espacio nulo
Sea \(A\) una matriz de tamaño \(m\times n\) y sea
\[ S=\{\mathbf{x}\in\mathbb{R}^n: A\mathbf{x}=\mathbf{0}\}. \]
Este conjunto es el espacio de soluciones del sistema homogéneo
\[ A\mathbf{x}=\mathbf{0}. \]
También se llama espacio nulo de la matriz \(A\).
Para verificar que es subespacio, tomemos
\[ \mathbf{x}_1,\mathbf{x}_2\in S. \]
Entonces
\[ A\mathbf{x}_1=\mathbf{0}, \qquad A\mathbf{x}_2=\mathbf{0}. \]
Por tanto,
\[ A(\mathbf{x}_1+\mathbf{x}_2) = A\mathbf{x}_1+A\mathbf{x}_2 = \mathbf{0}+\mathbf{0} = \mathbf{0}. \]
Así,
\[ \mathbf{x}_1+\mathbf{x}_2\in S. \]
Además, para cualquier escalar \(\alpha\),
\[ A(\alpha\mathbf{x}_1) = \alpha A\mathbf{x}_1 = \alpha\mathbf{0} = \mathbf{0}. \]
Por tanto,
\[ \alpha\mathbf{x}_1\in S. \]
Así, \(S\) es un subespacio de \(\mathbb{R}^n\).
Ejemplo: base para un espacio de solución
Encuentre una base y la dimensión del espacio de solución \(S\) del sistema homogéneo
\[ \begin{cases} x+2y-z=0,\\ 2x-y+3z=0. \end{cases} \]
Solución
La matriz aumentada es
\[ \left( \begin{array}{rrr|r} 1 & 2 & -1 & 0\\ 2 & -1 & 3 & 0 \end{array} \right). \]
Reducimos por renglones:
\[ \left( \begin{array}{rrr|r} 1 & 2 & -1 & 0\\ 2 & -1 & 3 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 1 & 2 & -1 & 0\\ 0 & -5 & 5 & 0 \end{array} \right). \]
Luego,
\[ \left( \begin{array}{rrr|r} 1 & 2 & -1 & 0\\ 0 & -5 & 5 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 1 & 2 & -1 & 0\\ 0 & 1 & -1 & 0 \end{array} \right). \]
Finalmente,
\[ \left( \begin{array}{rrr|r} 1 & 2 & -1 & 0\\ 0 & 1 & -1 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 1 & 0 & 1 & 0\\ 0 & 1 & -1 & 0 \end{array} \right). \]
Por tanto,
\[ x+z=0, \qquad y-z=0. \]
Entonces
\[ x=-z, \qquad y=z. \]
Tomando
\[ z=t, \]
se obtiene
\[ (x,y,z)=(-t,t,t). \]
Así,
\[ (x,y,z) = t(-1,1,1). \]
Por tanto, una base para \(S\) es
\[ \left\{ \begin{pmatrix} -1\\ 1\\ 1 \end{pmatrix} \right\}. \]
La dimensión es
\[ \operatorname{dim}S=1. \]
Ejemplo: base para otro espacio de solución
Encuentre una base para el espacio de solución \(S\) del sistema
\[ \begin{cases} 2x-y+3z=0,\\ 4x-2y+6z=0,\\ -6x+3y-9z=0. \end{cases} \]
Solución
La matriz aumentada es
\[ \left( \begin{array}{rrr|r} 2 & -1 & 3 & 0\\ 4 & -2 & 6 & 0\\ -6 & 3 & -9 & 0 \end{array} \right). \]
Reduciendo por renglones:
\[ \left( \begin{array}{rrr|r} 2 & -1 & 3 & 0\\ 4 & -2 & 6 & 0\\ -6 & 3 & -9 & 0 \end{array} \right) \longrightarrow \left( \begin{array}{rrr|r} 2 & -1 & 3 & 0\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 \end{array} \right). \]
Por tanto, el sistema se reduce a una sola ecuación:
\[ 2x-y+3z=0. \]
Despejando,
\[ y=2x+3z. \]
Entonces
\[ (x,y,z) = (x,2x+3z,z). \]
Separando parámetros,
\[ (x,2x+3z,z) = x(1,2,0)+z(0,3,1). \]
Por tanto, una base para \(S\) es
\[ \left\{ \begin{pmatrix} 1\\ 2\\ 0 \end{pmatrix}, \begin{pmatrix} 0\\ 3\\ 1 \end{pmatrix} \right\}. \]
La dimensión es
\[ \operatorname{dim}S=2. \]
Teorema
Cualquier conjunto de \(n\) vectores linealmente independientes en un espacio vectorial \(V\) de dimensión \(n\) constituye una base para \(V\).
Interpretación
En un espacio de dimensión \(n\), si ya tenemos \(n\) vectores linealmente independientes, entonces automáticamente generan todo el espacio.
Por tanto, para probar que un conjunto de \(n\) vectores es base de un espacio de dimensión \(n\), basta verificar independencia lineal.
5.6 Cambio de bases
Motivación
En espacios vectoriales de dimensión finita, un mismo vector puede escribirse usando distintas bases. Por ejemplo, en \(\mathbb{R}^2\) se suele usar la base canónica
\[ B_1=\left\{ \begin{pmatrix} 1\\ 0 \end{pmatrix}, \begin{pmatrix} 0\\ 1 \end{pmatrix} \right\}. \]
Sin embargo, también se puede trabajar con otra base, por ejemplo
\[ B_2=\left\{ \begin{pmatrix} 1\\ 3 \end{pmatrix}, \begin{pmatrix} -1\\ 2 \end{pmatrix} \right\}. \]
Cambiar de una base a otra permite expresar el mismo vector con coordenadas diferentes. Esta idea es útil en geometría, álgebra, economía y aplicaciones donde ciertos sistemas de referencia simplifican los cálculos.
Coordenadas de un vector respecto a una base
Sea
\[ B_1=\{\mathbf{u}_1,\mathbf{u}_2\} \]
la base canónica de \(\mathbb{R}^2\), donde
\[ \mathbf{u}_1= \begin{pmatrix} 1\\ 0 \end{pmatrix}, \qquad \mathbf{u}_2= \begin{pmatrix} 0\\ 1 \end{pmatrix}. \]
Si
\[ \mathbf{x}= \begin{pmatrix} x_1\\ x_2 \end{pmatrix}, \]
entonces
\[ \mathbf{x} = x_1\mathbf{u}_1+x_2\mathbf{u}_2. \]
Para indicar que estas son las coordenadas de \(\mathbf{x}\) respecto a la base \(B_1\), se escribe
\[ (\mathbf{x})_{B_1} = \begin{pmatrix} x_1\\ x_2 \end{pmatrix}. \]
Ahora, si
\[ B_2=\{\mathbf{v}_1,\mathbf{v}_2\} \]
es otra base de \(\mathbb{R}^2\), con
\[ \mathbf{v}_1= \begin{pmatrix} 1\\ 3 \end{pmatrix}, \qquad \mathbf{v}_2= \begin{pmatrix} -1\\ 2 \end{pmatrix}, \]
entonces todo vector \(\mathbf{x}\in\mathbb{R}^2\) puede escribirse como
\[ \mathbf{x} = c_1\mathbf{v}_1+c_2\mathbf{v}_2. \]
En ese caso,
\[ (\mathbf{x})_{B_2} = \begin{pmatrix} c_1\\ c_2 \end{pmatrix}. \]
Nota: también se usa la notación:
\[(x)_{B_2}=[x]^{B_2}\]
Primer ejemplo de cambio de base en \(\mathbb{R}^2\)
Queremos expresar las coordenadas de un vector desde la base canónica
\[ B_1= \left\{ \begin{pmatrix} 1\\ 0 \end{pmatrix}, \begin{pmatrix} 0\\ 1 \end{pmatrix} \right\} \]
hacia la base
\[ B_2= \left\{ \begin{pmatrix} 1\\ 3 \end{pmatrix}, \begin{pmatrix} -1\\ 2 \end{pmatrix} \right\}. \]
Primero expresamos los vectores de \(B_1\) en términos de los vectores de \(B_2\):
\[ \begin{pmatrix} 1\\ 0 \end{pmatrix} = \frac{2}{5} \begin{pmatrix} 1\\ 3 \end{pmatrix} - \frac{3}{5} \begin{pmatrix} -1\\ 2 \end{pmatrix}, \]
y
\[ \begin{pmatrix} 0\\ 1 \end{pmatrix} = \frac{1}{5} \begin{pmatrix} 1\\ 3 \end{pmatrix} + \frac{1}{5} \begin{pmatrix} -1\\ 2 \end{pmatrix}. \]
Por tanto,
\[ (\mathbf{u}_1)_{B_2} = \begin{pmatrix} \frac{2}{5}\\ -\frac{3}{5} \end{pmatrix}, \qquad (\mathbf{u}_2)_{B_2} = \begin{pmatrix} \frac{1}{5}\\ \frac{1}{5} \end{pmatrix}. \]
La matriz cuyas columnas son estas coordenadas es
\[ A= \begin{pmatrix} \frac{2}{5} & \frac{1}{5}\\ -\frac{3}{5} & \frac{1}{5} \end{pmatrix}. \]
Esta matriz permite transformar coordenadas de \(B_1\) a \(B_2\):
\[ (\mathbf{x})_{B_2} = A(\mathbf{x})_{B_1}. \]
Si
\[ (\mathbf{x})_{B_1} = \begin{pmatrix} x_1\\ x_2 \end{pmatrix}, \]
entonces
\[ (\mathbf{x})_{B_2} = \begin{pmatrix} \frac{2}{5} & \frac{1}{5}\\ -\frac{3}{5} & \frac{1}{5} \end{pmatrix} \begin{pmatrix} x_1\\ x_2 \end{pmatrix}. \]
Es decir,
\[ (\mathbf{x})_{B_2} = \begin{pmatrix} \frac{2}{5}x_1+\frac{1}{5}x_2\\ -\frac{3}{5}x_1+\frac{1}{5}x_2 \end{pmatrix}. \]
Ejemplo numérico
Si
\[ (\mathbf{x})_{B_1} = \begin{pmatrix} 3\\ -4 \end{pmatrix}, \]
entonces
\[ (\mathbf{x})_{B_2} = \begin{pmatrix} \frac{2}{5} & \frac{1}{5}\\ -\frac{3}{5} & \frac{1}{5} \end{pmatrix} \begin{pmatrix} 3\\ -4 \end{pmatrix} = \begin{pmatrix} \frac{2}{5}\\ -\frac{13}{5} \end{pmatrix}. \]
Verificación:
\[ \frac{2}{5} \begin{pmatrix} 1\\ 3 \end{pmatrix} - \frac{13}{5} \begin{pmatrix} -1\\ 2 \end{pmatrix} = \begin{pmatrix} 3\\ -4 \end{pmatrix}. \]
Matriz de transición
Sean
\[ B_1=\{\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_n\} \]
y
\[ B_2=\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\} \]
dos bases de un espacio vectorial \(V\) de dimensión \(n\).
Para cada vector \(\mathbf{u}_j\) de la base \(B_1\), se puede escribir
\[ \mathbf{u}_j = a_{1j}\mathbf{v}_1+a_{2j}\mathbf{v}_2+\cdots+a_{nj}\mathbf{v}_n. \]
Entonces
\[ (\mathbf{u}_j)_{B_2} = \begin{pmatrix} a_{1j}\\ a_{2j}\\ \vdots\\ a_{nj} \end{pmatrix}. \]
La matriz de transición de \(B_1\) a \(B_2\) es la matriz cuyas columnas son las coordenadas de los vectores de \(B_1\) expresados en la base \(B_2\):
\[ A= \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix}. \]
Nota: A esta matriz también se le denota como:
\[A=[A]_{B_1}^{B_2}\]
Teorema: matriz de transición
Si \(A\) es la matriz de transición de \(B_1\) a \(B_2\), entonces, para todo \(\mathbf{x}\in V\),
\[ (\mathbf{x})_{B_2} = A(\mathbf{x})_{B_1}. \]
Esto significa que la matriz de transición transforma las coordenadas de un vector escritas en la base \(B_1\) en coordenadas del mismo vector escritas en la base \(B_2\).
Notación alternativa:
\[ [\mathbf{x}]^{B_2} = [A]_{B_1}^{B_2}[\mathbf{x}]^{B_1}. \]
Teorema: transición inversa
Si \(A\) es la matriz de transición de \(B_1\) a \(B_2\), entonces
\[ A^{-1} \]
es la matriz de transición de \(B_2\) a \(B_1\).
Es decir,
\[ (\mathbf{x})_{B_2} = A(\mathbf{x})_{B_1} \]
y
\[ (\mathbf{x})_{B_1} = A^{-1}(\mathbf{x})_{B_2}. \]
Cambio desde la base canónica
Cuando \(C\) es la base canónica de \(\mathbb{R}^n\) y
\[ B_1=\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\}, \]
se puede construir la matriz
\[ A=[A]_{B_1}^C= \begin{pmatrix} | & | & & |\\ \mathbf{v}_1 & \mathbf{v}_2 & \cdots & \mathbf{v}_n\\ | & | & & | \end{pmatrix}. \]
Esta matriz \(C\) es la matriz de transición de \(B_1\) a la base canónica.
Por tanto, la matriz de transición de la base canónica a \(B_1\) es
\[ A^{-1}=[A]_C^{B_1}. \]
Procedimiento
Para encontrar la matriz de transición de la base canónica a
\[ B_1=\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\}, \]
se hace lo siguiente:
- Formar la matriz \(A\) cuyas columnas son \(\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\).
- Calcular \(A^{-1}\).
- La matriz buscada es
\[ A^{-1}=[A]_C^{B_1}. \]
Ejemplo: cambio de base en \(\mathbb{R}^3\)
En \(\mathbb{R}^3\), sea
\[ C=\{\mathbf{i},\mathbf{j},\mathbf{k}\} \]
la base canónica, y sea
\[ B_1= \left\{ \begin{pmatrix} 1\\ 0\\ 2 \end{pmatrix}, \begin{pmatrix} 3\\ -1\\ 0 \end{pmatrix}, \begin{pmatrix} 0\\ 1\\ -2 \end{pmatrix} \right\}. \]
Primero verificamos que \(B_1\) es base. La matriz con esos vectores como columnas es
\[ A= \begin{pmatrix} 1 & 3 & 0\\ 0 & -1 & 1\\ 2 & 0 & -2 \end{pmatrix}. \]
Como
\[ \det(A)=8\neq 0, \]
los vectores son linealmente independientes y forman una base de \(\mathbb{R}^3\).
La matriz de transición de \(B_1\) a \(C\) es
\[ A= \begin{pmatrix} 1 & 3 & 0\\ 0 & -1 & 1\\ 2 & 0 & -2 \end{pmatrix}. \]
Por tanto, la matriz de transición de \(B_1\) a \(B_2\) es
\[ A^{-1} = \frac{1}{8} \begin{pmatrix} 2 & 6 & 3\\ 2 & -2 & -1\\ 2 & 6 & -1 \end{pmatrix}. \]
Si
\[ (\mathbf{x})_{C} = \begin{pmatrix} 1\\ -2\\ 4 \end{pmatrix}, \]
entonces
\[ (\mathbf{x})_{B_1} = \frac{1}{8} \begin{pmatrix} 2 & 6 & 3\\ 2 & -2 & -1\\ 2 & 6 & -1 \end{pmatrix} \begin{pmatrix} 1\\ -2\\ 4 \end{pmatrix}. \]
Calculando,
\[ (\mathbf{x})_{B_1} = \frac{1}{8} \begin{pmatrix} 2\\ 2\\ -14 \end{pmatrix} = \begin{pmatrix} \frac{1}{4}\\ \frac{1}{4}\\ -\frac{7}{4} \end{pmatrix}. \]
Verificación:
\[ \frac{1}{4} \begin{pmatrix} 1\\ 0\\ 2 \end{pmatrix} + \frac{1}{4} \begin{pmatrix} 3\\ -1\\ 0 \end{pmatrix} - \frac{7}{4} \begin{pmatrix} 0\\ 1\\ -2 \end{pmatrix} = \begin{pmatrix} 1\\ -2\\ 4 \end{pmatrix}. \]
Ejemplo: cambio de base en \(P_2\)
En \(P_2\), sea la base canónica
\[ C=\{1,x,x^2\}. \]
Otra base es
\[ B_1=\{4x-1,\;2x^2-x,\;3x^2+3\}. \]
Queremos expresar
\[ p(x)=a_0+a_1x+a_2x^2 \]
en términos de los polinomios de \(B_1\).
Primero escribimos los vectores de \(B_1\) en coordenadas respecto a \(C\):
\[ (4x-1)_{C} = \begin{pmatrix} -1\\ 4\\ 0 \end{pmatrix}, \]
\[ (2x^2-x)_{C} = \begin{pmatrix} 0\\ -1\\ 2 \end{pmatrix}, \]
y
\[ (3x^2+3)_{C} = \begin{pmatrix} 3\\ 0\\ 3 \end{pmatrix}. \]
Entonces la matriz de transición de \(B_1\) a \(C\) es
\[ A= \begin{pmatrix} -1 & 0 & 3\\ 4 & -1 & 0\\ 0 & 2 & 3 \end{pmatrix}. \]
La matriz de transición de \(C\) a \(B_1\) es
\[ A^{-1} = \frac{1}{27} \begin{pmatrix} -3 & 6 & 3\\ -12 & -3 & 12\\ 8 & 2 & 1 \end{pmatrix}. \]
Como
\[ (p)_{C} = \begin{pmatrix} a_0\\ a_1\\ a_2 \end{pmatrix}, \]
entonces
\[ (p)_{B_1} = \frac{1}{27} \begin{pmatrix} -3 & 6 & 3\\ -12 & -3 & 12\\ 8 & 2 & 1 \end{pmatrix} \begin{pmatrix} a_0\\ a_1\\ a_2 \end{pmatrix}. \]
Por tanto,
\[ (p)_{B_1} = \begin{pmatrix} \frac{-3a_0+6a_1+3a_2}{27}\\ \frac{-12a_0-3a_1+12a_2}{27}\\ \frac{8a_0+2a_1+a_2}{27} \end{pmatrix}. \]
Ejemplo numérico
Si
\[ p(x)=5x^2-3x+4, \]
entonces
\[ (p)_{C} = \begin{pmatrix} 4\\ -3\\ 5 \end{pmatrix}. \]
Luego,
\[ (p)_{B_1} = \frac{1}{27} \begin{pmatrix} -3 & 6 & 3\\ -12 & -3 & 12\\ 8 & 2 & 1 \end{pmatrix} \begin{pmatrix} 4\\ -3\\ 5 \end{pmatrix} = \begin{pmatrix} -\frac{15}{27}\\ \frac{21}{27}\\ \frac{31}{27} \end{pmatrix}. \]
Es decir,
\[ 5x^2-3x+4 = -\frac{15}{27}(4x-1) + \frac{21}{27}(2x^2-x) + \frac{31}{27}(3x^2+3). \]
Ejemplo: cambio entre dos bases no canónicas en \(\mathbb{R}^2\)
Sean
\[ B_1= \left\{ \begin{pmatrix} 3\\ 1 \end{pmatrix}, \begin{pmatrix} 2\\ -1 \end{pmatrix} \right\} \]
y
\[ B_2= \left\{ \begin{pmatrix} 2\\ 4 \end{pmatrix}, \begin{pmatrix} -5\\ 3 \end{pmatrix} \right\}. \]
Queremos expresar las coordenadas de un vector desde \(B_1\) hacia \(B_2\).
Para construir la matriz de transición, expresamos los vectores de \(B_1\) como combinaciones lineales de los vectores de \(B_2\):
\[ \begin{pmatrix} 3\\ 1 \end{pmatrix} = a_{11} \begin{pmatrix} 2\\ 4 \end{pmatrix} + a_{21} \begin{pmatrix} -5\\ 3 \end{pmatrix}, \]
y
\[ \begin{pmatrix} 2\\ -1 \end{pmatrix} = a_{12} \begin{pmatrix} 2\\ 4 \end{pmatrix} + a_{22} \begin{pmatrix} -5\\ 3 \end{pmatrix}. \]
Esto conduce a los sistemas
\[ \begin{cases} 2a_{11}-5a_{21}=3,\\ 4a_{11}+3a_{21}=1, \end{cases} \]
y
\[ \begin{cases} 2a_{12}-5a_{22}=2,\\ 4a_{12}+3a_{22}=-1. \end{cases} \]
Las soluciones son
\[ a_{11}=\frac{7}{13}, \qquad a_{21}=-\frac{5}{13}, \]
\[ a_{12}=\frac{1}{26}, \qquad a_{22}=-\frac{5}{13}. \]
Por tanto, la matriz de transición de \(B_1\) a \(B_2\) es
\[ A = \frac{1}{26} \begin{pmatrix} 14 & 1\\ -10 & -10 \end{pmatrix}. \]
Así, si
\[ (\mathbf{x})_{B_1} = \begin{pmatrix} b_1\\ b_2 \end{pmatrix}, \]
entonces
\[ (\mathbf{x})_{B_2} = \frac{1}{26} \begin{pmatrix} 14 & 1\\ -10 & -10 \end{pmatrix} \begin{pmatrix} b_1\\ b_2 \end{pmatrix}. \]
Por tanto,
\[ (\mathbf{x})_{B_2} = \begin{pmatrix} \frac{14b_1+b_2}{26}\\ -\frac{10(b_1+b_2)}{26} \end{pmatrix}. \]
Ejemplo numérico
Sea
\[ \mathbf{x} = \begin{pmatrix} 7\\ 4 \end{pmatrix}. \]
Como
\[ \begin{pmatrix} 7\\ 4 \end{pmatrix} = 3 \begin{pmatrix} 3\\ 1 \end{pmatrix} - \begin{pmatrix} 2\\ -1 \end{pmatrix}, \]
se tiene
\[ (\mathbf{x})_{B_1} = \begin{pmatrix} 3\\ -1 \end{pmatrix}. \]
Entonces
\[ (\mathbf{x})_{B_2} = \frac{1}{26} \begin{pmatrix} 14 & 1\\ -10 & -10 \end{pmatrix} \begin{pmatrix} 3\\ -1 \end{pmatrix} = \begin{pmatrix} \frac{41}{26}\\ -\frac{20}{26} \end{pmatrix}. \]
Es decir,
\[ \begin{pmatrix} 7\\ 4 \end{pmatrix} = \frac{41}{26} \begin{pmatrix} 2\\ 4 \end{pmatrix} - \frac{20}{26} \begin{pmatrix} -5\\ 3 \end{pmatrix}. \]
Cambio entre dos bases usando la base canónica
Si queremos encontrar la matriz de transición de una base \(B_1\) a una base \(B_2\), podemos usar la base canónica \(C\) como paso intermedio.
Sea
\[ [A]_{B_1}^C \]
la matriz cuyas columnas son los vectores de \(B_1\) escritos en coordenadas canónicas.
Sea
\[ [A]_{B_2}^C \]
la matriz cuyas columnas son los vectores de \(B_2\) escritos en coordenadas canónicas.
Entonces la matriz de transición de \(B_1\) a \(B_2\) es
\[ [A]_{B_1}^{B_2} = [[A]_{B_2}^C]^{-1}[A]_{B_1}^C=[A]_C^{B_2}[A]_{B_1}^C \]
Ejemplo: transición entre bases usando la base canónica
Usando las bases del ejemplo anterior,
\[ B_1= \left\{ \begin{pmatrix} 3\\ 1 \end{pmatrix}, \begin{pmatrix} 2\\ -1 \end{pmatrix} \right\}, \]
y
\[ B_2= \left\{ \begin{pmatrix} 2\\ 4 \end{pmatrix}, \begin{pmatrix} -5\\ 3 \end{pmatrix} \right\}. \]
Se tiene
\[ [A]_{B_1}^C = \begin{pmatrix} 3 & 2\\ 1 & -1 \end{pmatrix}, \]
y
\[ [A]_{B_2}^C = \begin{pmatrix} 2 & -5\\ 4 & 3 \end{pmatrix}. \]
Por tanto,
\[ [A]_{B_1}^{B_2} = [[A]_{B_2}^C]^{-1}[A]_{B_1}^C. \]
Calculamos:
\[ [A]_{B_1}^{B_2} = \begin{pmatrix} 2 & -5\\ 4 & 3 \end{pmatrix}^{-1} \begin{pmatrix} 3 & 2\\ 1 & -1 \end{pmatrix}. \]
Como
\[ \begin{pmatrix} 2 & -5\\ 4 & 3 \end{pmatrix}^{-1} = \frac{1}{26} \begin{pmatrix} 3 & 5\\ -4 & 2 \end{pmatrix}, \]
entonces
\[ [A]_{B_1}^{B_2} = \frac{1}{26} \begin{pmatrix} 3 & 5\\ -4 & 2 \end{pmatrix} \begin{pmatrix} 3 & 2\\ 1 & -1 \end{pmatrix}. \]
Multiplicando,
\[ [A]_{B_1}^{B_2} = \frac{1}{26} \begin{pmatrix} 14 & 1\\ -10 & -10 \end{pmatrix}. \]
Este resultado coincide con el obtenido directamente en un ejercicio anterior.
Teorema: Independencia lineal usando coordenadas en una base
Sea
\[ B_1=\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\} \]
una base de un espacio vectorial \(V\) de dimensión \(n\).
Suponga que los vectores
\[ \mathbf{x}_1,\mathbf{x}_2,\ldots,\mathbf{x}_n \]
tienen coordenadas respecto a \(B_1\) dadas por
\[ (\mathbf{x}_1)_{B_1} = \begin{pmatrix} a_{11}\\ a_{21}\\ \vdots\\ a_{n1} \end{pmatrix}, \qquad (\mathbf{x}_2)_{B_1} = \begin{pmatrix} a_{12}\\ a_{22}\\ \vdots\\ a_{n2} \end{pmatrix}, \]
\[ \ldots, \qquad (\mathbf{x}_n)_{B_1} = \begin{pmatrix} a_{1n}\\ a_{2n}\\ \vdots\\ a_{nn} \end{pmatrix}. \]
Formamos la matriz
\[ A= \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix}. \]
Entonces
\[ \mathbf{x}_1,\mathbf{x}_2,\ldots,\mathbf{x}_n \]
son linealmente independientes si y sólo si
\[ \det(A)\neq 0. \]
Ejemplo: independencia de polinomios en \(P_2\)
En \(P_2\), determine si los polinomios
\[ 3-x, \qquad 2+x^2, \qquad 4+5x-2x^2 \]
son linealmente dependientes o independientes.
Usamos la base canónica
\[ C=\{1,x,x^2\}. \]
Entonces
\[ (3-x)_{C} = \begin{pmatrix} 3\\ -1\\ 0 \end{pmatrix}, \]
\[ (2+x^2)_{C} = \begin{pmatrix} 2\\ 0\\ 1 \end{pmatrix}, \]
y
\[ (4+5x-2x^2)_{C} = \begin{pmatrix} 4\\ 5\\ -2 \end{pmatrix}. \]
Formamos la matriz con estas coordenadas como columnas:
\[ A= \begin{pmatrix} 3 & 2 & 4\\ -1 & 0 & 5\\ 0 & 1 & -2 \end{pmatrix}. \]
Calculamos:
\[ \det(A) = -23. \]
Como
\[ \det(A)\neq 0, \]
los polinomios son linealmente independientes.
Ejemplo: dependencia de matrices en \(M_{22}\)
En \(M_{22}\), determine si las matrices
\[ A_1= \begin{pmatrix} 1 & 2\\ 3 & 6 \end{pmatrix}, \qquad A_2= \begin{pmatrix} -1 & 3\\ -1 & 1 \end{pmatrix}, \]
\[ A_3= \begin{pmatrix} 2 & -1\\ 0 & 1 \end{pmatrix}, \qquad A_4= \begin{pmatrix} 1 & 4\\ 4 & 9 \end{pmatrix} \]
son linealmente dependientes o independientes.
Usamos la base estándar de \(M_{22}\):
\[ B_1= \left\{ \begin{pmatrix} 1 & 0\\ 0 & 0 \end{pmatrix}, \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix}, \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix}, \begin{pmatrix} 0 & 0\\ 0 & 1 \end{pmatrix} \right\}. \]
Las coordenadas de las matrices respecto a esta base forman la matriz
\[ A= \begin{pmatrix} 1 & -1 & 2 & 1\\ 2 & 3 & -1 & 4\\ 3 & -1 & 0 & 4\\ 6 & 1 & 1 & 9 \end{pmatrix}. \]
Se obtiene
\[ \det(A)=0. \]
Por tanto, las matrices son linealmente dependientes.
De hecho, se tiene la relación no trivial
\[ -29 \begin{pmatrix} 1 & 2\\ 3 & 6 \end{pmatrix} - 7 \begin{pmatrix} -1 & 3\\ -1 & 1 \end{pmatrix} + \begin{pmatrix} 2 & -1\\ 0 & 1 \end{pmatrix} + 20 \begin{pmatrix} 1 & 4\\ 4 & 9 \end{pmatrix} = \begin{pmatrix} 0 & 0\\ 0 & 0 \end{pmatrix}. \]