2 Vectores y Matrices
2.1 Definiciones generales
2.1.1 Definición de vector
Definición: Vector fila
Un vector de dimensión \(n\) es un conjunto ordenado de números:
\[ (x_1, x_2, \ldots, x_n) \]
Definición: Vector columna
\[ \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix} \]
Definición: Elementos o componentes
Cada \(x_i\) se llama componente del vector.
- \(x_1\): primera componente
- \(x_k\): \(k\)-ésima componente
Definición: Vector cero
Un vector cuyos elementos son todos cero:
\[ \mathbf{0} = (0,0,\ldots,0) \]
Ejemplos de vectores
- \((3,6)\) → vector de dimensión 2
- \(\begin{pmatrix}2\\-1\\5\end{pmatrix}\) → vector de dimensión 3
- \((2,-1,0,4)\) → dimensión 4
- \(\begin{pmatrix}0\\0\\0\\0\\0\end{pmatrix}\) → vector cero
Advertencia importante
El orden importa:
\[ (1,2) \neq (2,1) \]
2.1.2 Definición de matriz
Una matriz \(m \times n\) es un arreglo rectangular:
\[ A = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix} \]
Conceptos clave
- \(a_{ij}\): elemento en fila \(i\), columna \(j\)
- tamaño: \(m \times n\)
- matriz cuadrada: \(m=n\)
- matriz cero: todos sus elementos son \(0\)
Ejemplos de matrices
- \(\begin{pmatrix}1 & 3\\ 4 & 2\end{pmatrix}\) → \(2\times2\)
- \(\begin{pmatrix}-1 & 3\\ 4 & 0\\ 1 & -2\end{pmatrix}\) → \(3\times2\)
- \(\begin{pmatrix}-1 & 4 & 1\\ 3 & 0 & 2\end{pmatrix}\) → \(2\times3\)
- \(\begin{pmatrix}1 & 6 & -2\\ 3 & 1 & 4\\ 2 & -6 & 5\end{pmatrix}\) → \(3\times3\)
- matriz cero \(2\times4\)
Componentes o entradas de una matriz
Ejemplo:
\[ A = \begin{pmatrix} 1 & 6 & 4\\ 2 & -3 & 5\\ 7 & 4 & 0 \end{pmatrix} \]
- \(a_{12} = 6\)
- \(a_{31} = 7\)
- \(a_{22} = -3\)
Definición: Igualdad de matrices
Dos matrices son iguales si:
- Tienen el mismo tamaño
- Sus entradas correspondientes son iguales
2.1.3 Operaciones con matrices
Suma
Si \(A\) y \(B\) son \(m\times n\):
\[ A+B = (a_{ij} + b_{ij}) \]
Ejemplo
\[ \begin{pmatrix} 2 & 4 & -6 & 7\\ 1 & 3 & 2 & 1\\ -4 & 3 & -5 & 5 \end{pmatrix} + \begin{pmatrix} 0 & 1 & 6 & -2\\ 2 & 3 & 4 & 3\\ -2 & 1 & 4 & 4 \end{pmatrix} = \begin{pmatrix} 2 & 5 & 0 & 5\\ 3 & 6 & 6 & 4\\ -6 & 4 & -1 & 9 \end{pmatrix} \]
Nota: Solo se pueden sumar matrices del mismo tamaño.
Multiplicación por escalar
\[ \alpha A = (\alpha a_{ij}) \]
Ejemplo
\[ 2A = \begin{pmatrix} 2 & -6 & 8 & 4\\ 6 & 2 & 8 & 12\\ -4 & 6 & 10 & 14 \end{pmatrix} \]
Combinación lineal de vectores
Ejemplo:
\[ \mathbf{a}= \begin{pmatrix}4\\6\\1\\3\end{pmatrix}, \quad \mathbf{b}= \begin{pmatrix}-2\\4\\-3\\0\end{pmatrix} \]
\[ 2\mathbf{a}-3\mathbf{b}= \begin{pmatrix} 14\\ 0\\ 11\\ 6 \end{pmatrix} \]
Teorema: Propiedades básicas
Sean \(A,B,C\) matrices y \(\alpha,\beta\) escalares:
- \(A+0 = A\)
- \(0A = 0\)
- \(A+B = B+A\) (conmutativa)
- \((A+B)+C = A+(B+C)\) (asociativa)
- \(\alpha(A+B) = \alpha A + \alpha B\)
- \(1A = A\)
- \((\alpha+\beta)A = \alpha A + \beta A\)
2.2 Productos vectorial y matricial
2.2.1 Producto escalar
Definición: producto escalar
Si
\[ \mathbf{a}= \begin{pmatrix} a_1\\ a_2\\ \vdots\\ a_n \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_n \end{pmatrix}, \]
entonces el producto escalar se define por
\[ \mathbf{a}\cdot\mathbf{b}=a_1b_1+a_2b_2+\cdots+a_nb_n. \tag{2.2.1} \]
También se conoce como:
- producto punto
- producto interno
Notas:
- El producto escalar de dos vectores de dimensión \(n\) es un número.
- Para calcular \(\mathbf{a}\cdot\mathbf{b}\), ambos vectores deben tener el mismo número de componentes.
Ejemplo: producto escalar de dos vectores
Sea
\[ \mathbf{a}= \begin{pmatrix} -4\\ -2\\ 3 \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} 3\\ -2\\ -5 \end{pmatrix}. \]
Entonces
\[ \mathbf{a}\cdot\mathbf{b} =(-4)(3)+(-2)(-2)+(3)(-5) =-12+4-15=-23. \]
Ejemplo: producto escalar de dos vectores
Sea
\[ \mathbf{a}=(2,-5,4,-6), \qquad \mathbf{b}= \begin{pmatrix} 1\\ 0\\ -7\\ 3 \end{pmatrix}. \]
Entonces
\[ \mathbf{a}\cdot\mathbf{b} =(2)(1)+(-5)(0)+(4)(-7)+(-6)(3) =2+0-28-18=-44. \]
Teorema: Propiedades del producto escalar
Sean \(\mathbf{a},\mathbf{b},\mathbf{c}\) vectores de dimensión \(n\) y \(\alpha\) un escalar. Entonces:
- \[\mathbf{a}\cdot \mathbf{0}=0\]
- \[\mathbf{a}\cdot\mathbf{b}=\mathbf{b}\cdot\mathbf{a}\]
- \[\mathbf{a}\cdot(\mathbf{b}+\mathbf{c})=\mathbf{a}\cdot\mathbf{b}+\mathbf{a}\cdot\mathbf{c}\]
- \[(\alpha\mathbf{a})\cdot\mathbf{b}=\alpha(\mathbf{a}\cdot\mathbf{b})\]
Nota: No existe una ley asociativa del tipo
\[ (\mathbf{a}\cdot\mathbf{b})\cdot\mathbf{c} \]
porque \(\mathbf{a}\cdot\mathbf{b}\) es un escalar, no un vector.
2.2.2 Producto de matrices
Definición
Si \(A=(a_{ij})\) es una matriz \(m\times n\) y \(B=(b_{ij})\) es una matriz \(n\times p\), entonces el producto
\[ C=AB \]
es una matriz \(m\times p\), donde
\[ c_{ij}=(\text{renglón }i\text{ de }A)\cdot(\text{columna }j\text{ de }B). \tag{2.2.3} \]
Equivalentemente,
\[ c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+\cdots+a_{in}b_{nj}. \tag{2.2.4} \]
Compatibilidad bajo multiplicación
Las matrices \(A\) y \(B\) son compatibles para multiplicar si:
\[ \text{número de columnas de }A = \text{número de renglones de }B. \]
Nota:
Si esa condición no se cumple, el producto \(AB\) no está definido.
Ejemplo: producto de dos matrices \(2\times2\)
Sean
\[ A= \begin{pmatrix} 1 & 3\\ -2 & 4 \end{pmatrix}, \qquad B= \begin{pmatrix} 3 & -2\\ 5 & 6 \end{pmatrix}. \]
Entonces
\[ AB= \begin{pmatrix} 18 & 16\\ 14 & 28 \end{pmatrix}. \]
En cambio,
\[ BA= \begin{pmatrix} 7 & 1\\ -7 & 39 \end{pmatrix}. \]
En general,
\[ AB\neq BA. \]
Es decir, el producto matricial no es conmutativo.
Ejemplo: producto \(2\times3\) por \(3\times4\)
Sean
\[ A= \begin{pmatrix} 2 & 0 & -3\\ 4 & 1 & 5 \end{pmatrix}, \qquad B= \begin{pmatrix} 7 & -1 & 4 & 7\\ 2 & 5 & 0 & -4\\ -3 & 1 & 2 & 3 \end{pmatrix}. \]
Como \(A\) es \(2\times 3\) y \(B\) es \(3\times 4\), el producto \(AB\) está definido y es una matriz \(2\times 4\):
\[ AB= \begin{pmatrix} 23 & -5 & 2 & 5\\ 15 & 6 & 26 & 39 \end{pmatrix}. \]
En cambio, \(BA\) no está definido, porque \(B\) tiene 4 columnas y \(A\) tiene 2 renglones.
2.2.2.1 Leyes del producto matricial
Teorema: ley asociativa
Si los productos están definidos, entonces
\[ A(BC)=(AB)C. \tag{2.2.5} \]
Por tanto, se puede escribir simplemente
\[ ABC. \]
Y más generalmente,
\[ ABCD=A(B(CD))=((AB)C)D=A(BC)D=(AB)(CD). \tag{2.2.6} \]
Teorema: leyes distributivas
Si las sumas y productos están definidos, entonces
\[ A(B+C)=AB+AC, \tag{2.2.7} \]
y
\[ (A+B)C=AC+BC. \tag{2.2.8} \]
2.2.2.2 Producto \(A\mathbf{x}\) como combinación lineal de columnas
Si \(A\) es una matriz \(m\times n\) y
\[ \mathbf{x}= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}, \]
entonces
\[ A\mathbf{x} = x_1\mathbf{c}_1+x_2\mathbf{c}_2+\cdots+x_n\mathbf{c}_n, \tag{2.2.10} \]
donde \(\mathbf{c}_1,\mathbf{c}_2,\ldots,\mathbf{c}_n\) son las columnas de \(A\).
Nota:
El producto \(A\mathbf{x}\) es una combinación lineal de las columnas de \(A\).
Ejemplo: columnas de \(AB\) como combinaciones lineales de las columnas de \(A\)
Sean
\[ A= \begin{pmatrix} 1 & -2\\ 2 & 4\\ 3 & 5 \end{pmatrix}, \qquad B= \begin{pmatrix} 1 & -1\\ 2 & 7 \end{pmatrix}. \]
Entonces
\[ AB= \begin{pmatrix} -3 & -15\\ 10 & 26\\ 13 & 32 \end{pmatrix}. \]
La primera columna de \(AB\) es
\[ \begin{pmatrix} -3\\ 10\\ 13 \end{pmatrix} = 1 \begin{pmatrix} 1\\ 2\\ 3 \end{pmatrix} + 2 \begin{pmatrix} -2\\ 4\\ 5 \end{pmatrix}, \]
y la segunda columna es
\[ \begin{pmatrix} -15\\ 26\\ 32 \end{pmatrix} = -1 \begin{pmatrix} 1\\ 2\\ 3 \end{pmatrix} + 7 \begin{pmatrix} -2\\ 4\\ 5 \end{pmatrix}. \]
Es decir, cada columna de \(AB\) es una combinación lineal de las columnas de \(A\).
2.2.3 Notación sigma
La sumatoria
\[ a_M+a_{M+1}+\cdots+a_N \]
se escribe como
\[ \sum_{k=M}^{N} a_k. \tag{2.2.11} \]
Ejemplos:
\[ \sum_{k=1}^{5} b_k=b_1+b_2+b_3+b_4+b_5. \]
\[ \sum_{k=3}^{6} c_k=c_3+c_4+c_5+c_6. \]
\[ \sum_{k=-2}^{3}k^2 = (-2)^2+(-1)^2+0^2+1^2+2^2+3^2 =19. \]
Ejemplo
El producto escalar puede escribirse como
\[ \mathbf{a}\cdot\mathbf{b}=\sum_{i=1}^{n}a_ib_i. \]
Y la entrada \(c_{ij}\) de \(AB\) se expresa como
\[ c_{ij}=\sum_{k=1}^{n}a_{ik}b_{kj}. \tag{2.2.12} \]
2.3 Matrices y sistemas de ecuaciones lineales
Anteriormente se estudiaron sistemas de \(m\) ecuaciones lineales con \(n\) incógnitas. Una ventaja importante del lenguaje matricial es que permite escribir estos sistemas de forma compacta y preparar el terreno para métodos más avanzados, como el uso de la matriz inversa y la interpretación estructural de las soluciones.
Un sistema general puede escribirse como
\[ \begin{array}{cccccc} a_{11}x_1 & + & a_{12}x_2 & +\cdots+ & a_{1n}x_n & = b_1 \\ a_{21}x_1 & + & a_{22}x_2 & +\cdots+ & a_{2n}x_n & = b_2 \\ \vdots & & \vdots & & \vdots & \vdots \\ a_{m1}x_1 & + & a_{m2}x_2 & +\cdots+ & a_{mn}x_n & = b_m \end{array} \tag{2.3.1} \]
Si definimos
\[ A= \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix}, \qquad \mathbf{x}= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_m \end{pmatrix}, \]
entonces el sistema se expresa en forma matricial como
\[ A\mathbf{x}=\mathbf{b}. \tag{2.3.2} \]
Ejemplo: cómo escribir un sistema en forma matricial
Considere el sistema
\[ \begin{aligned} 2x_1+4x_2+6x_3&=18,\\ 4x_1+5x_2+6x_3&=24,\\ 3x_1+x_2-2x_3&=4. \end{aligned} \tag{2.3.3} \]
Esto puede escribirse como
\[ A\mathbf{x}=\mathbf{b}, \]
donde
\[ A= \begin{pmatrix} 2 & 4 & 6\\ 4 & 5 & 6\\ 3 & 1 & -2 \end{pmatrix}, \qquad \mathbf{x}= \begin{pmatrix} x_1\\ x_2\\ x_3 \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} 18\\ 24\\ 4 \end{pmatrix}. \]
2.3.1 Sistemas homogéneos y no homogéneos
Si
\[ \mathbf{b}= \begin{pmatrix} 0\\ 0\\ \vdots\\ 0 \end{pmatrix} =\mathbf{0}, \]
entonces el sistema
\[ A\mathbf{x}=\mathbf{0} \]
se llama sistema homogéneo.
Si al menos una entrada de \(\mathbf{b}\) es distinta de cero, el sistema
\[ A\mathbf{x}=\mathbf{b} \tag{2.3.4} \]
se llama no homogéneo.
El sistema homogéneo asociado al sistema no homogéneo anterior es
\[ A\mathbf{x}=\mathbf{0}. \tag{2.3.5} \]
Teorema: Relación fundamental entre sistemas homogéneos y no homogéneos
Si \(\mathbf{x}_1\) y \(\mathbf{x}_2\) son soluciones del sistema no homogéneo
\[ A\mathbf{x}=\mathbf{b}, \]
entonces su diferencia
\[ \mathbf{x}_1-\mathbf{x}_2 \]
es solución del sistema homogéneo asociado
\[ A\mathbf{x}=\mathbf{0}. \]
2.3.2 Interpretación
Esto significa que dos soluciones de un mismo sistema no homogéneo difieren en una solución del sistema homogéneo asociado.
2.4 Inversa de una matriz cuadrada
La matriz identidad y la matriz inversa son conceptos centrales en Álgebra Lineal. Su importancia proviene de que permiten:
- caracterizar cuándo un sistema lineal tiene solución única,
- resolver sistemas de la forma \(A\mathbf{x}=\mathbf{b}\),
- conectar operaciones por filas, pivotes y determinantes.
Como punto de partida, si
\[ A=\begin{pmatrix}2 & 5\\ 1 & 3\end{pmatrix}, \qquad B=\begin{pmatrix}3 & -5\\ -1 & 2\end{pmatrix}, \]
entonces
\[ AB=BA=I_2, \]
donde
\[ I_2=\begin{pmatrix}1 & 0\\ 0 & 1\end{pmatrix}. \]
En este caso, \(B\) es la inversa de \(A\), y se escribe \(B=A^{-1}\).
Definición: Matriz identidad
La matriz identidad \(I_n\) de tamaño \(n\times n\) es la matriz que tiene:
- \(1\) en la diagonal principal,
- \(0\) en todas las demás entradas.
Es decir,
\[ I_n=(b_{ij}), \qquad b_{ij}= \begin{cases} 1, & \text{si } i=j,\\ 0, & \text{si } i\neq j. \end{cases} \tag{2.4.1} \]
Ejemplo
\[ I_3= \begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}, \qquad I_5= \begin{pmatrix} 1&0&0&0&0\\ 0&1&0&0&0\\ 0&0&1&0&0\\ 0&0&0&1&0\\ 0&0&0&0&1 \end{pmatrix}. \]
Teorema:
Si \(A\) es una matriz cuadrada de \(n\times n\), entonces
\[ AI_n=I_nA=A. \]
Interpretación:
La matriz identidad juega, para matrices, el mismo papel que el número \(1\) para los números reales (elemento neutro de la multiplicación):
\[ 1\cdot a=a\cdot 1=a. \]
Definición: Inversa de una matriz
Sean \(A\) y \(B\) matrices cuadradas de \(n\times n\). Si
\[ AB=BA=I, \]
entonces \(B\) se llama la inversa de \(A\), y se denota por
\[ A^{-1}. \]
Por tanto,
\[ AA^{-1}=A^{-1}A=I. \]
Si \(A\) tiene inversa, se dice que \(A\) es invertible.
- Si no tiene inversa, se llama singular.
- Si sí tiene inversa, se llama no singular.
Notas:
- Si \(A\) es invertible, entonces
\[ (A^{-1})^{-1}=A. \]
- No toda matriz cuadrada es invertible.
Teorema: Unicidad de la inversa y producto de inversas
Si una matriz \(A\) es invertible, entonces su inversa es única.
Teorema
Si \(A\) y \(B\) son matrices invertibles de \(n\times n\), entonces \(AB\) es invertible y
\[ (AB)^{-1}=B^{-1}A^{-1}. \]
Nota:
El orden de las inversas se invierte. En particular,
\[ (ABC)^{-1}=C^{-1}B^{-1}A^{-1}. \]
2.4.1 Resolver sistemas usando la inversa
Considere el sistema
\[ A\mathbf{x}=\mathbf{b}, \]
donde \(A\) es una matriz cuadrada invertible. Multiplicando a izquierda por \(A^{-1}\):
\[ A^{-1}A\mathbf{x}=A^{-1}\mathbf{b}, \]
de donde
\[ I\mathbf{x}=A^{-1}\mathbf{b}, \]
y por tanto
\[ \mathbf{x}=A^{-1}\mathbf{b}. \]
Teorema
Si \(A\) es invertible, el sistema
\[ A\mathbf{x}=\mathbf{b} \]
tiene una solución única dada por
\[ \mathbf{x}=A^{-1}\mathbf{b}. \]
2.4.2 Cómo calcular la inversa de una matriz
La forma práctica de calcular \(A^{-1}\) es por Gauss-Jordan.
Procedimiento general
Para una matriz cuadrada \(A\):
- Formar la matriz aumentada
\[ (A\mid I). \]
Reducir por renglones hasta llevar la parte izquierda a forma escalonada reducida.
Concluir:
- Si la parte izquierda se reduce a \(I\), entonces la parte derecha es \(A^{-1}\).
- Si aparece un renglón cero en la parte izquierda antes de llegar a \(I\), entonces \(A\) no es invertible.
Nota:
Una matriz \(A\) es invertible si y solo si su forma escalonada reducida por renglones es la identidad.
Ejemplo:
Sea
\[ A=\begin{pmatrix} 2 & -3\\ -4 & 5 \end{pmatrix}. \]
Supongamos que
\[ A^{-1}= \begin{pmatrix} x & y\\ z & w \end{pmatrix}. \]
Entonces de \(AA^{-1}=I\) se obtiene el sistema
\[ \begin{aligned} 2x-3z&=1,\\ 2y-3w&=0,\\ -4x+5z&=0,\\ -4y+5w&=1. \end{aligned} \tag{2.4.6} \]
Agrupando en bloques equivalentes, se reduce la matriz aumentada
\[ \left( \begin{array}{cc|cc} 2 & -3 & 1 & 0\\ -4 & 5 & 0 & 1 \end{array} \right) \]
hasta obtener
\[ \left( \begin{array}{cc|cc} 1 & 0 & -\frac{5}{2} & -\frac{3}{2}\\ 0 & 1 & -2 & -1 \end{array} \right). \]
Por tanto,
\[ A^{-1}= \begin{pmatrix} -\frac{5}{2} & -\frac{3}{2}\\ -2 & -1 \end{pmatrix}. \]
Y se verifica que
\[ AA^{-1}=A^{-1}A=I. \]
Ejemplo
Sea
\[ A=\begin{pmatrix} 1 & 2\\ -2 & -4 \end{pmatrix}. \]
Al intentar calcular su inversa mediante \((A\mid I)\), se obtiene una fila incompatible, del tipo
\[ 0=2 \quad \text{o} \quad 0=1. \]
Por tanto, \(A\) no es invertible.
2.4.3 Determinante e inversa en matrices \(2\times 2\)
Para una matriz
\[ A= \begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix}, \]
se define el determinante por
\[ \det(A)=a_{11}a_{22}-a_{12}a_{21}. \tag{2.4.11} \]
Teorema
Sea \(A\) una matriz \(2\times 2\). Entonces:
- \(A\) es invertible si y solo si
\[ \det(A)\neq 0. \]
- Si \(\det(A)\neq 0\), entonces
\[ A^{-1} = \frac{1}{\det(A)} \begin{pmatrix} a_{22} & -a_{12}\\ -a_{21} & a_{11} \end{pmatrix}. \]
Ejemplo
Sea
\[ A= \begin{pmatrix} 2 & -4\\ 1 & 3 \end{pmatrix}. \]
Entonces
\[ \det(A)=(2)(3)-(-4)(1)=10\neq 0, \]
por lo que \(A^{-1}\) existe. Usando la fórmula:
\[ A^{-1} = \frac{1}{10} \begin{pmatrix} 3 & 4\\ -1 & 2 \end{pmatrix} = \begin{pmatrix} \frac{3}{10} & \frac{4}{10}\\ -\frac{1}{10} & \frac{2}{10} \end{pmatrix}. \]
Y se verifica que
\[ A^{-1}A=AA^{-1}=I. \]
Ejemplo:
Sea
\[ A= \begin{pmatrix} 1 & 2\\ -2 & -4 \end{pmatrix}. \]
Entonces
\[ \det(A)=(1)(-4)-(2)(-2)=0. \]
Por tanto,
\[ A^{-1} \text{ no existe.} \]
2.4.4 Inversas de matrices \(3\times 3\)
Ejemplo
Sea
\[ A= \begin{pmatrix} 2 & 4 & 6\\ 4 & 5 & 6\\ 3 & 1 & -2 \end{pmatrix}. \]
Se forma la matriz aumentada
\[ \left( \begin{array}{ccc|ccc} 2 & 4 & 6 & 1 & 0 & 0\\ 4 & 5 & 6 & 0 & 1 & 0\\ 3 & 1 & -2 & 0 & 0 & 1 \end{array} \right) \]
y se reduce por filas hasta obtener
\[ \left( \begin{array}{ccc|ccc} 1 & 0 & 0 & -\frac{8}{3} & \frac{7}{3} & -1\\ 0 & 1 & 0 & \frac{13}{3} & -\frac{11}{3} & 2\\ 0 & 0 & 1 & -\frac{11}{6} & \frac{5}{3} & -1 \end{array} \right). \]
Por tanto,
\[ A^{-1}= \begin{pmatrix} -\frac{8}{3} & \frac{7}{3} & -1\\ \frac{13}{3} & -\frac{11}{3} & 2\\ -\frac{11}{6} & \frac{5}{3} & -1 \end{pmatrix} = \frac{1}{6} \begin{pmatrix} -16 & 14 & -6\\ 26 & -22 & 12\\ -11 & 10 & -6 \end{pmatrix}. \]
Nota:
Al calcular inversas por Gauss–Jordan es fácil cometer errores aritméticos. Por eso es importante verificar que
\[ A^{-1}A=I \quad \text{y/o} \quad AA^{-1}=I. \]
Ejemplo:
Sea
\[ A= \begin{pmatrix} 1 & -3 & 4\\ 2 & -5 & 7\\ 0 & -1 & 1 \end{pmatrix}. \]
Al reducir \((A\mid I)\), la parte izquierda no se transforma en la identidad; aparece una fila cero. Por tanto,
\[ A \text{ no es invertible.} \]
2.4.5 Aspectos adicionales
Definición: Matrices equivalentes por renglones
Dos matrices \(A\) y \(B\) son equivalentes por filas si una puede transformarse en la otra mediante operaciones elementales por filas.
Teorema: Criterios equivalentes de invertibilidad
Sea \(A\) una matriz \(n\times n\). Son equivalentes:
- \(A\) es invertible.
- \(A\) es equivalente por renglones a \(I_n\).
- La forma escalonada reducida por renglones de \(A\) es \(I_n\).
- La forma escalonada reducida de \(A\) tiene \(n\) pivotes.
- El sistema
\[ A\mathbf{x}=\mathbf{b} \]
tiene solución única para todo vector \(\mathbf{b}\in\mathbb{R}^n\).
- Si \(A\) es invertible, la solución única es
\[ \mathbf{x}=A^{-1}\mathbf{b}. \]
Ejemplo: Uso de la inversa para resolver sistemas
Resuelva
\[ \begin{aligned} 2x_1+4x_2+3x_3&=6,\\ x_2-x_3&=-4,\\ 3x_1+5x_2+7x_3&=7. \end{aligned} \]
Se escribe como
\[ A\mathbf{x}=\mathbf{b}, \]
donde
\[ A= \begin{pmatrix} 2 & 4 & 3\\ 0 & 1 & -1\\ 3 & 5 & 7 \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} 6\\ -4\\ 7 \end{pmatrix}. \]
Dado que
\[ A^{-1}= \begin{pmatrix} 4 & -\frac{13}{3} & -\frac{7}{3}\\ -1 & \frac{5}{3} & \frac{2}{3}\\ -1 & \frac{2}{3} & \frac{2}{3} \end{pmatrix}, \]
la solución única es
\[ \mathbf{x}=A^{-1}\mathbf{b} = \begin{pmatrix} 25\\ -8\\ -4 \end{pmatrix}. \tag{2.4.15} \]
Teorema de resumen
Sea \(A\) una matriz \(n\times n\). Las siguientes afirmaciones son equivalentes:
- \(A\) es invertible.
- La única solución del sistema homogéneo \[ A\mathbf{x}=\mathbf{0} \] es la solución trivial.
- El sistema
\[ A\mathbf{x}=\mathbf{b} \] tiene solución única para todo \(\mathbf{b}\in\mathbb{R}^n\).
- \(A\) es equivalente por renglones a \(I_n\).
- La forma escalonada reducida de \(A\) tiene \(n\) pivotes.
- \(\det(A)\neq 0\) (para \(2\times 2\), y luego en general más adelante).
Teorema: Verificación parcial de la inversa
Sean \(A\) y \(B\) matrices \(n\times n\). Entonces basta verificar una de estas condiciones para concluir que \(A\) es invertible y que \(B=A^{-1}\):
- \[BA=I\]
- \[AB=I\]
Nota:
No es necesario comprobar siempre las dos igualdades; una sola basta.
2.5 Transpuesta de una matriz
A toda matriz se le puede asociar otra matriz muy importante: su transpuesta. Esta operación intercambia filas por columnas y conserva muchas propiedades estructurales de la matriz original. Más adelante, la transpuesta será clave para estudiar:
- productos escalares,
- matrices simétricas,
- ortogonalidad,
- diagonalización.
Definición
Sea \(A=(a_{ij})\) una matriz de tamaño \(m\times n\). La transpuesta de \(A\), denotada por \(A^{\top}\), es la matriz de tamaño \(n\times m\) obtenida al intercambiar los renglones por las columnas.
En símbolos,
\[ A^{\top}=(a_{ji}). \]
Si
\[ A= \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix}, \tag{2.5.1} \]
entonces
\[ A^{\top}= \begin{pmatrix} a_{11} & a_{21} & \cdots & a_{m1}\\ a_{12} & a_{22} & \cdots & a_{m2}\\ \vdots & \vdots & \ddots & \vdots\\ a_{1n} & a_{2n} & \cdots & a_{mn} \end{pmatrix}. \]
Notas:
- El renglón \(i\) de \(A\) pasa a ser la columna \(i\) de \(A^{\top}\).
- La columna \(j\) de \(A\) pasa a ser el renglón \(j\) de \(A^{\top}\).
Ejemplo: transpuestas de tres matrices
Sea
\[ A= \begin{pmatrix} 2 & 3\\ 1 & 4 \end{pmatrix}, \qquad B= \begin{pmatrix} 2 & 3 & 1\\ -1 & 4 & 6 \end{pmatrix}, \qquad C= \begin{pmatrix} 1 & 2 & -6\\ 2 & -3 & 4\\ 0 & 1 & 2\\ 2 & -1 & 5 \end{pmatrix}. \]
Entonces
\[ A^{\top}= \begin{pmatrix} 2 & 1\\ 3 & 4 \end{pmatrix}, \qquad B^{\top}= \begin{pmatrix} 2 & -1\\ 3 & 4\\ 1 & 6 \end{pmatrix}, \]
y
\[ C^{\top}= \begin{pmatrix} 1 & 2 & 0 & 2\\ 2 & -3 & 1 & -1\\ -6 & 4 & 2 & 5 \end{pmatrix}. \]
Nota:
Si una entrada ocupa la posición \((i,j)\) en \(A\), en la transpuesta aparece en la posición \((j,i)\).
Por ejemplo, el número \(4\) en la posición \((2,3)\) de \(C\) pasa a la posición \((3,2)\) de \(C^{\top}\).
Teorema: Propiedades de la transpuesta
Si \(A\) es una matriz \(n\times m\) y \(B\) una matriz \(m\times p\), entonces:
\[\left(A^{\top}\right)^{\top}=A\]
\[(AB)^{\top}=B^{\top}A^{\top}\]
Si \(A\) y \(B\) tienen el mismo tamaño, entonces
\[ (A+B)^{\top}=A^{\top}+B^{\top} \]
- Si \(A\) es invertible, entonces \(A^{\top}\) también es invertible y
\[ \left(A^{\top}\right)^{-1}=\left(A^{-1}\right)^{\top} \]
Definición: Matrices simétricas
Una matriz cuadrada \(A\) de tamaño \(n\times n\) se llama simétrica si
\[ A^{\top}=A. \]
Es decir, la matriz coincide con su transpuesta.
Interpretación:
Una matriz simétrica tiene la misma información reflejada respecto de la diagonal principal.
Ejemplo: matrices simétricas
Las siguientes matrices son simétricas:
\[ I, \qquad A= \begin{pmatrix} 1 & 2\\ 2 & 3 \end{pmatrix}, \]
\[ B= \begin{pmatrix} 1 & -4 & 2\\ -4 & 7 & 5\\ 2 & 5 & 0 \end{pmatrix}, \]
\[ C= \begin{pmatrix} -1 & 2 & 4 & 6\\ 2 & 7 & 3 & 5\\ 4 & 3 & 8 & 0\\ 6 & 5 & 0 & -4 \end{pmatrix}. \]
2.5.1 Otra forma de escribir el producto escalar
Sean
\[ \mathbf{a}= \begin{pmatrix} a_1\\ a_2\\ \vdots\\ a_n \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_n \end{pmatrix} \]
dos vectores columna.
Por definición, el producto escalar es
\[ \mathbf{a}\cdot \mathbf{b} = a_1b_1+a_2b_2+\cdots+a_nb_n. \]
Ahora, como \(\mathbf{a}\) es un vector columna, su transpuesta es el vector renglón
\[ \mathbf{a}^{\top}= (a_1,a_2,\ldots,a_n). \]
Entonces el producto matricial \(\mathbf{a}^{\top}\mathbf{b}\) es una matriz \(1\times 1\), es decir, un escalar:
\[ \mathbf{a}^{\top}\mathbf{b} = (a_1,a_2,\ldots,a_n) \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_n \end{pmatrix} = a_1b_1+a_2b_2+\cdots+a_nb_n. \]
Por tanto,
\[ \mathbf{a}\cdot\mathbf{b}=\mathbf{a}^{\top}\mathbf{b}. \tag{2.5.6} \]