2  Vectores y Matrices

2.1 Definiciones generales

2.1.1 Definición de vector


Definición: Vector fila

Un vector de dimensión \(n\) es un conjunto ordenado de números:

\[ (x_1, x_2, \ldots, x_n) \]


Definición: Vector columna

\[ \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix} \]


Definición: Elementos o componentes

Cada \(x_i\) se llama componente del vector.

  • \(x_1\): primera componente
  • \(x_k\): \(k\)-ésima componente

Definición: Vector cero

Un vector cuyos elementos son todos cero:

\[ \mathbf{0} = (0,0,\ldots,0) \]


Ejemplos de vectores

  • \((3,6)\) → vector de dimensión 2
  • \(\begin{pmatrix}2\\-1\\5\end{pmatrix}\) → vector de dimensión 3
  • \((2,-1,0,4)\) → dimensión 4
  • \(\begin{pmatrix}0\\0\\0\\0\\0\end{pmatrix}\) → vector cero

Advertencia importante

El orden importa:

\[ (1,2) \neq (2,1) \]


2.1.2 Definición de matriz

Una matriz \(m \times n\) es un arreglo rectangular:

\[ A = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix} \]


Conceptos clave

  • \(a_{ij}\): elemento en fila \(i\), columna \(j\)
  • tamaño: \(m \times n\)
  • matriz cuadrada: \(m=n\)
  • matriz cero: todos sus elementos son \(0\)

Ejemplos de matrices

  • \(\begin{pmatrix}1 & 3\\ 4 & 2\end{pmatrix}\)\(2\times2\)
  • \(\begin{pmatrix}-1 & 3\\ 4 & 0\\ 1 & -2\end{pmatrix}\)\(3\times2\)
  • \(\begin{pmatrix}-1 & 4 & 1\\ 3 & 0 & 2\end{pmatrix}\)\(2\times3\)
  • \(\begin{pmatrix}1 & 6 & -2\\ 3 & 1 & 4\\ 2 & -6 & 5\end{pmatrix}\)\(3\times3\)
  • matriz cero \(2\times4\)

Componentes o entradas de una matriz

Ejemplo:

\[ A = \begin{pmatrix} 1 & 6 & 4\\ 2 & -3 & 5\\ 7 & 4 & 0 \end{pmatrix} \]

  • \(a_{12} = 6\)
  • \(a_{31} = 7\)
  • \(a_{22} = -3\)

Definición: Igualdad de matrices

Dos matrices son iguales si:

  1. Tienen el mismo tamaño
  2. Sus entradas correspondientes son iguales

2.1.3 Operaciones con matrices

Suma

Si \(A\) y \(B\) son \(m\times n\):

\[ A+B = (a_{ij} + b_{ij}) \]


Ejemplo

\[ \begin{pmatrix} 2 & 4 & -6 & 7\\ 1 & 3 & 2 & 1\\ -4 & 3 & -5 & 5 \end{pmatrix} + \begin{pmatrix} 0 & 1 & 6 & -2\\ 2 & 3 & 4 & 3\\ -2 & 1 & 4 & 4 \end{pmatrix} = \begin{pmatrix} 2 & 5 & 0 & 5\\ 3 & 6 & 6 & 4\\ -6 & 4 & -1 & 9 \end{pmatrix} \]

Nota: Solo se pueden sumar matrices del mismo tamaño.


Multiplicación por escalar

\[ \alpha A = (\alpha a_{ij}) \]


Ejemplo

\[ 2A = \begin{pmatrix} 2 & -6 & 8 & 4\\ 6 & 2 & 8 & 12\\ -4 & 6 & 10 & 14 \end{pmatrix} \]


Combinación lineal de vectores

Ejemplo:

\[ \mathbf{a}= \begin{pmatrix}4\\6\\1\\3\end{pmatrix}, \quad \mathbf{b}= \begin{pmatrix}-2\\4\\-3\\0\end{pmatrix} \]

\[ 2\mathbf{a}-3\mathbf{b}= \begin{pmatrix} 14\\ 0\\ 11\\ 6 \end{pmatrix} \]


Teorema: Propiedades básicas

Sean \(A,B,C\) matrices y \(\alpha,\beta\) escalares:

  • \(A+0 = A\)
  • \(0A = 0\)
  • \(A+B = B+A\) (conmutativa)
  • \((A+B)+C = A+(B+C)\) (asociativa)
  • \(\alpha(A+B) = \alpha A + \alpha B\)
  • \(1A = A\)
  • \((\alpha+\beta)A = \alpha A + \beta A\)

2.2 Productos vectorial y matricial

2.2.1 Producto escalar


Definición: producto escalar

Si

\[ \mathbf{a}= \begin{pmatrix} a_1\\ a_2\\ \vdots\\ a_n \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_n \end{pmatrix}, \]

entonces el producto escalar se define por

\[ \mathbf{a}\cdot\mathbf{b}=a_1b_1+a_2b_2+\cdots+a_nb_n. \tag{2.2.1} \]

También se conoce como:

  • producto punto
  • producto interno

Notas:

  • El producto escalar de dos vectores de dimensión \(n\) es un número.
  • Para calcular \(\mathbf{a}\cdot\mathbf{b}\), ambos vectores deben tener el mismo número de componentes.

Ejemplo: producto escalar de dos vectores

Sea

\[ \mathbf{a}= \begin{pmatrix} -4\\ -2\\ 3 \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} 3\\ -2\\ -5 \end{pmatrix}. \]

Entonces

\[ \mathbf{a}\cdot\mathbf{b} =(-4)(3)+(-2)(-2)+(3)(-5) =-12+4-15=-23. \]


Ejemplo: producto escalar de dos vectores

Sea

\[ \mathbf{a}=(2,-5,4,-6), \qquad \mathbf{b}= \begin{pmatrix} 1\\ 0\\ -7\\ 3 \end{pmatrix}. \]

Entonces

\[ \mathbf{a}\cdot\mathbf{b} =(2)(1)+(-5)(0)+(4)(-7)+(-6)(3) =2+0-28-18=-44. \]


Teorema: Propiedades del producto escalar

Sean \(\mathbf{a},\mathbf{b},\mathbf{c}\) vectores de dimensión \(n\) y \(\alpha\) un escalar. Entonces:

  1. \[\mathbf{a}\cdot \mathbf{0}=0\]
  2. \[\mathbf{a}\cdot\mathbf{b}=\mathbf{b}\cdot\mathbf{a}\]
  3. \[\mathbf{a}\cdot(\mathbf{b}+\mathbf{c})=\mathbf{a}\cdot\mathbf{b}+\mathbf{a}\cdot\mathbf{c}\]
  4. \[(\alpha\mathbf{a})\cdot\mathbf{b}=\alpha(\mathbf{a}\cdot\mathbf{b})\]

Nota: No existe una ley asociativa del tipo

\[ (\mathbf{a}\cdot\mathbf{b})\cdot\mathbf{c} \]

porque \(\mathbf{a}\cdot\mathbf{b}\) es un escalar, no un vector.


2.2.2 Producto de matrices


Definición

Si \(A=(a_{ij})\) es una matriz \(m\times n\) y \(B=(b_{ij})\) es una matriz \(n\times p\), entonces el producto

\[ C=AB \]

es una matriz \(m\times p\), donde

\[ c_{ij}=(\text{renglón }i\text{ de }A)\cdot(\text{columna }j\text{ de }B). \tag{2.2.3} \]

Equivalentemente,

\[ c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+\cdots+a_{in}b_{nj}. \tag{2.2.4} \]


Compatibilidad bajo multiplicación

Las matrices \(A\) y \(B\) son compatibles para multiplicar si:

\[ \text{número de columnas de }A = \text{número de renglones de }B. \]

Nota:

Si esa condición no se cumple, el producto \(AB\) no está definido.


Ejemplo: producto de dos matrices \(2\times2\)

Sean

\[ A= \begin{pmatrix} 1 & 3\\ -2 & 4 \end{pmatrix}, \qquad B= \begin{pmatrix} 3 & -2\\ 5 & 6 \end{pmatrix}. \]

Entonces

\[ AB= \begin{pmatrix} 18 & 16\\ 14 & 28 \end{pmatrix}. \]

En cambio,

\[ BA= \begin{pmatrix} 7 & 1\\ -7 & 39 \end{pmatrix}. \]


En general,

\[ AB\neq BA. \]

Es decir, el producto matricial no es conmutativo.


Ejemplo: producto \(2\times3\) por \(3\times4\)

Sean

\[ A= \begin{pmatrix} 2 & 0 & -3\\ 4 & 1 & 5 \end{pmatrix}, \qquad B= \begin{pmatrix} 7 & -1 & 4 & 7\\ 2 & 5 & 0 & -4\\ -3 & 1 & 2 & 3 \end{pmatrix}. \]

Como \(A\) es \(2\times 3\) y \(B\) es \(3\times 4\), el producto \(AB\) está definido y es una matriz \(2\times 4\):

\[ AB= \begin{pmatrix} 23 & -5 & 2 & 5\\ 15 & 6 & 26 & 39 \end{pmatrix}. \]

En cambio, \(BA\) no está definido, porque \(B\) tiene 4 columnas y \(A\) tiene 2 renglones.


2.2.2.1 Leyes del producto matricial


Teorema: ley asociativa

Si los productos están definidos, entonces

\[ A(BC)=(AB)C. \tag{2.2.5} \]

Por tanto, se puede escribir simplemente

\[ ABC. \]

Y más generalmente,

\[ ABCD=A(B(CD))=((AB)C)D=A(BC)D=(AB)(CD). \tag{2.2.6} \]


Teorema: leyes distributivas

Si las sumas y productos están definidos, entonces

\[ A(B+C)=AB+AC, \tag{2.2.7} \]

y

\[ (A+B)C=AC+BC. \tag{2.2.8} \]


2.2.2.2 Producto \(A\mathbf{x}\) como combinación lineal de columnas

Si \(A\) es una matriz \(m\times n\) y

\[ \mathbf{x}= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}, \]

entonces

\[ A\mathbf{x} = x_1\mathbf{c}_1+x_2\mathbf{c}_2+\cdots+x_n\mathbf{c}_n, \tag{2.2.10} \]

donde \(\mathbf{c}_1,\mathbf{c}_2,\ldots,\mathbf{c}_n\) son las columnas de \(A\).

Nota:

El producto \(A\mathbf{x}\) es una combinación lineal de las columnas de \(A\).


Ejemplo: columnas de \(AB\) como combinaciones lineales de las columnas de \(A\)

Sean

\[ A= \begin{pmatrix} 1 & -2\\ 2 & 4\\ 3 & 5 \end{pmatrix}, \qquad B= \begin{pmatrix} 1 & -1\\ 2 & 7 \end{pmatrix}. \]

Entonces

\[ AB= \begin{pmatrix} -3 & -15\\ 10 & 26\\ 13 & 32 \end{pmatrix}. \]

La primera columna de \(AB\) es

\[ \begin{pmatrix} -3\\ 10\\ 13 \end{pmatrix} = 1 \begin{pmatrix} 1\\ 2\\ 3 \end{pmatrix} + 2 \begin{pmatrix} -2\\ 4\\ 5 \end{pmatrix}, \]

y la segunda columna es

\[ \begin{pmatrix} -15\\ 26\\ 32 \end{pmatrix} = -1 \begin{pmatrix} 1\\ 2\\ 3 \end{pmatrix} + 7 \begin{pmatrix} -2\\ 4\\ 5 \end{pmatrix}. \]

Es decir, cada columna de \(AB\) es una combinación lineal de las columnas de \(A\).


2.2.3 Notación sigma

La sumatoria

\[ a_M+a_{M+1}+\cdots+a_N \]

se escribe como

\[ \sum_{k=M}^{N} a_k. \tag{2.2.11} \]


Ejemplos:

\[ \sum_{k=1}^{5} b_k=b_1+b_2+b_3+b_4+b_5. \]

\[ \sum_{k=3}^{6} c_k=c_3+c_4+c_5+c_6. \]

\[ \sum_{k=-2}^{3}k^2 = (-2)^2+(-1)^2+0^2+1^2+2^2+3^2 =19. \]


Ejemplo

El producto escalar puede escribirse como

\[ \mathbf{a}\cdot\mathbf{b}=\sum_{i=1}^{n}a_ib_i. \]

Y la entrada \(c_{ij}\) de \(AB\) se expresa como

\[ c_{ij}=\sum_{k=1}^{n}a_{ik}b_{kj}. \tag{2.2.12} \]


2.3 Matrices y sistemas de ecuaciones lineales

Anteriormente se estudiaron sistemas de \(m\) ecuaciones lineales con \(n\) incógnitas. Una ventaja importante del lenguaje matricial es que permite escribir estos sistemas de forma compacta y preparar el terreno para métodos más avanzados, como el uso de la matriz inversa y la interpretación estructural de las soluciones.

Un sistema general puede escribirse como

\[ \begin{array}{cccccc} a_{11}x_1 & + & a_{12}x_2 & +\cdots+ & a_{1n}x_n & = b_1 \\ a_{21}x_1 & + & a_{22}x_2 & +\cdots+ & a_{2n}x_n & = b_2 \\ \vdots & & \vdots & & \vdots & \vdots \\ a_{m1}x_1 & + & a_{m2}x_2 & +\cdots+ & a_{mn}x_n & = b_m \end{array} \tag{2.3.1} \]

Si definimos

\[ A= \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix}, \qquad \mathbf{x}= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_m \end{pmatrix}, \]

entonces el sistema se expresa en forma matricial como

\[ A\mathbf{x}=\mathbf{b}. \tag{2.3.2} \]


Ejemplo: cómo escribir un sistema en forma matricial

Considere el sistema

\[ \begin{aligned} 2x_1+4x_2+6x_3&=18,\\ 4x_1+5x_2+6x_3&=24,\\ 3x_1+x_2-2x_3&=4. \end{aligned} \tag{2.3.3} \]

Esto puede escribirse como

\[ A\mathbf{x}=\mathbf{b}, \]

donde

\[ A= \begin{pmatrix} 2 & 4 & 6\\ 4 & 5 & 6\\ 3 & 1 & -2 \end{pmatrix}, \qquad \mathbf{x}= \begin{pmatrix} x_1\\ x_2\\ x_3 \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} 18\\ 24\\ 4 \end{pmatrix}. \]


2.3.1 Sistemas homogéneos y no homogéneos

Si

\[ \mathbf{b}= \begin{pmatrix} 0\\ 0\\ \vdots\\ 0 \end{pmatrix} =\mathbf{0}, \]

entonces el sistema

\[ A\mathbf{x}=\mathbf{0} \]

se llama sistema homogéneo.

Si al menos una entrada de \(\mathbf{b}\) es distinta de cero, el sistema

\[ A\mathbf{x}=\mathbf{b} \tag{2.3.4} \]

se llama no homogéneo.

El sistema homogéneo asociado al sistema no homogéneo anterior es

\[ A\mathbf{x}=\mathbf{0}. \tag{2.3.5} \]


Teorema: Relación fundamental entre sistemas homogéneos y no homogéneos

Si \(\mathbf{x}_1\) y \(\mathbf{x}_2\) son soluciones del sistema no homogéneo

\[ A\mathbf{x}=\mathbf{b}, \]

entonces su diferencia

\[ \mathbf{x}_1-\mathbf{x}_2 \]

es solución del sistema homogéneo asociado

\[ A\mathbf{x}=\mathbf{0}. \]

2.3.2 Interpretación

Esto significa que dos soluciones de un mismo sistema no homogéneo difieren en una solución del sistema homogéneo asociado.

2.4 Inversa de una matriz cuadrada

La matriz identidad y la matriz inversa son conceptos centrales en Álgebra Lineal. Su importancia proviene de que permiten:

  • caracterizar cuándo un sistema lineal tiene solución única,
  • resolver sistemas de la forma \(A\mathbf{x}=\mathbf{b}\),
  • conectar operaciones por filas, pivotes y determinantes.

Como punto de partida, si

\[ A=\begin{pmatrix}2 & 5\\ 1 & 3\end{pmatrix}, \qquad B=\begin{pmatrix}3 & -5\\ -1 & 2\end{pmatrix}, \]

entonces

\[ AB=BA=I_2, \]

donde

\[ I_2=\begin{pmatrix}1 & 0\\ 0 & 1\end{pmatrix}. \]

En este caso, \(B\) es la inversa de \(A\), y se escribe \(B=A^{-1}\).


Definición: Matriz identidad

La matriz identidad \(I_n\) de tamaño \(n\times n\) es la matriz que tiene:

  • \(1\) en la diagonal principal,
  • \(0\) en todas las demás entradas.

Es decir,

\[ I_n=(b_{ij}), \qquad b_{ij}= \begin{cases} 1, & \text{si } i=j,\\ 0, & \text{si } i\neq j. \end{cases} \tag{2.4.1} \]


Ejemplo

\[ I_3= \begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}, \qquad I_5= \begin{pmatrix} 1&0&0&0&0\\ 0&1&0&0&0\\ 0&0&1&0&0\\ 0&0&0&1&0\\ 0&0&0&0&1 \end{pmatrix}. \]


Teorema:

Si \(A\) es una matriz cuadrada de \(n\times n\), entonces

\[ AI_n=I_nA=A. \]


Interpretación:

La matriz identidad juega, para matrices, el mismo papel que el número \(1\) para los números reales (elemento neutro de la multiplicación):

\[ 1\cdot a=a\cdot 1=a. \]


Definición: Inversa de una matriz

Sean \(A\) y \(B\) matrices cuadradas de \(n\times n\). Si

\[ AB=BA=I, \]

entonces \(B\) se llama la inversa de \(A\), y se denota por

\[ A^{-1}. \]


Por tanto,

\[ AA^{-1}=A^{-1}A=I. \]

Si \(A\) tiene inversa, se dice que \(A\) es invertible.

  • Si no tiene inversa, se llama singular.
  • Si sí tiene inversa, se llama no singular.

Notas:

  1. Si \(A\) es invertible, entonces

\[ (A^{-1})^{-1}=A. \]

  1. No toda matriz cuadrada es invertible.

Teorema: Unicidad de la inversa y producto de inversas

Si una matriz \(A\) es invertible, entonces su inversa es única.


Teorema

Si \(A\) y \(B\) son matrices invertibles de \(n\times n\), entonces \(AB\) es invertible y

\[ (AB)^{-1}=B^{-1}A^{-1}. \]


Nota:

El orden de las inversas se invierte. En particular,

\[ (ABC)^{-1}=C^{-1}B^{-1}A^{-1}. \]

2.4.1 Resolver sistemas usando la inversa

Considere el sistema

\[ A\mathbf{x}=\mathbf{b}, \]

donde \(A\) es una matriz cuadrada invertible. Multiplicando a izquierda por \(A^{-1}\):

\[ A^{-1}A\mathbf{x}=A^{-1}\mathbf{b}, \]

de donde

\[ I\mathbf{x}=A^{-1}\mathbf{b}, \]

y por tanto

\[ \mathbf{x}=A^{-1}\mathbf{b}. \]


Teorema

Si \(A\) es invertible, el sistema

\[ A\mathbf{x}=\mathbf{b} \]

tiene una solución única dada por

\[ \mathbf{x}=A^{-1}\mathbf{b}. \]


2.4.2 Cómo calcular la inversa de una matriz

La forma práctica de calcular \(A^{-1}\) es por Gauss-Jordan.

Procedimiento general

Para una matriz cuadrada \(A\):

  1. Formar la matriz aumentada

\[ (A\mid I). \]

  1. Reducir por renglones hasta llevar la parte izquierda a forma escalonada reducida.

  2. Concluir:

  • Si la parte izquierda se reduce a \(I\), entonces la parte derecha es \(A^{-1}\).
  • Si aparece un renglón cero en la parte izquierda antes de llegar a \(I\), entonces \(A\) no es invertible.

Nota:

Una matriz \(A\) es invertible si y solo si su forma escalonada reducida por renglones es la identidad.


Ejemplo:

Sea

\[ A=\begin{pmatrix} 2 & -3\\ -4 & 5 \end{pmatrix}. \]

Supongamos que

\[ A^{-1}= \begin{pmatrix} x & y\\ z & w \end{pmatrix}. \]

Entonces de \(AA^{-1}=I\) se obtiene el sistema

\[ \begin{aligned} 2x-3z&=1,\\ 2y-3w&=0,\\ -4x+5z&=0,\\ -4y+5w&=1. \end{aligned} \tag{2.4.6} \]

Agrupando en bloques equivalentes, se reduce la matriz aumentada

\[ \left( \begin{array}{cc|cc} 2 & -3 & 1 & 0\\ -4 & 5 & 0 & 1 \end{array} \right) \]

hasta obtener

\[ \left( \begin{array}{cc|cc} 1 & 0 & -\frac{5}{2} & -\frac{3}{2}\\ 0 & 1 & -2 & -1 \end{array} \right). \]

Por tanto,

\[ A^{-1}= \begin{pmatrix} -\frac{5}{2} & -\frac{3}{2}\\ -2 & -1 \end{pmatrix}. \]

Y se verifica que

\[ AA^{-1}=A^{-1}A=I. \]


Ejemplo

Sea

\[ A=\begin{pmatrix} 1 & 2\\ -2 & -4 \end{pmatrix}. \]

Al intentar calcular su inversa mediante \((A\mid I)\), se obtiene una fila incompatible, del tipo

\[ 0=2 \quad \text{o} \quad 0=1. \]

Por tanto, \(A\) no es invertible.


2.4.3 Determinante e inversa en matrices \(2\times 2\)

Para una matriz

\[ A= \begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix}, \]

se define el determinante por

\[ \det(A)=a_{11}a_{22}-a_{12}a_{21}. \tag{2.4.11} \]


Teorema

Sea \(A\) una matriz \(2\times 2\). Entonces:

  1. \(A\) es invertible si y solo si

\[ \det(A)\neq 0. \]

  1. Si \(\det(A)\neq 0\), entonces

\[ A^{-1} = \frac{1}{\det(A)} \begin{pmatrix} a_{22} & -a_{12}\\ -a_{21} & a_{11} \end{pmatrix}. \]


Ejemplo

Sea

\[ A= \begin{pmatrix} 2 & -4\\ 1 & 3 \end{pmatrix}. \]

Entonces

\[ \det(A)=(2)(3)-(-4)(1)=10\neq 0, \]

por lo que \(A^{-1}\) existe. Usando la fórmula:

\[ A^{-1} = \frac{1}{10} \begin{pmatrix} 3 & 4\\ -1 & 2 \end{pmatrix} = \begin{pmatrix} \frac{3}{10} & \frac{4}{10}\\ -\frac{1}{10} & \frac{2}{10} \end{pmatrix}. \]

Y se verifica que

\[ A^{-1}A=AA^{-1}=I. \]


Ejemplo:

Sea

\[ A= \begin{pmatrix} 1 & 2\\ -2 & -4 \end{pmatrix}. \]

Entonces

\[ \det(A)=(1)(-4)-(2)(-2)=0. \]

Por tanto,

\[ A^{-1} \text{ no existe.} \]


2.4.4 Inversas de matrices \(3\times 3\)


Ejemplo

Sea

\[ A= \begin{pmatrix} 2 & 4 & 6\\ 4 & 5 & 6\\ 3 & 1 & -2 \end{pmatrix}. \]

Se forma la matriz aumentada

\[ \left( \begin{array}{ccc|ccc} 2 & 4 & 6 & 1 & 0 & 0\\ 4 & 5 & 6 & 0 & 1 & 0\\ 3 & 1 & -2 & 0 & 0 & 1 \end{array} \right) \]

y se reduce por filas hasta obtener

\[ \left( \begin{array}{ccc|ccc} 1 & 0 & 0 & -\frac{8}{3} & \frac{7}{3} & -1\\ 0 & 1 & 0 & \frac{13}{3} & -\frac{11}{3} & 2\\ 0 & 0 & 1 & -\frac{11}{6} & \frac{5}{3} & -1 \end{array} \right). \]

Por tanto,

\[ A^{-1}= \begin{pmatrix} -\frac{8}{3} & \frac{7}{3} & -1\\ \frac{13}{3} & -\frac{11}{3} & 2\\ -\frac{11}{6} & \frac{5}{3} & -1 \end{pmatrix} = \frac{1}{6} \begin{pmatrix} -16 & 14 & -6\\ 26 & -22 & 12\\ -11 & 10 & -6 \end{pmatrix}. \]

Nota:

Al calcular inversas por Gauss–Jordan es fácil cometer errores aritméticos. Por eso es importante verificar que

\[ A^{-1}A=I \quad \text{y/o} \quad AA^{-1}=I. \]


Ejemplo:

Sea

\[ A= \begin{pmatrix} 1 & -3 & 4\\ 2 & -5 & 7\\ 0 & -1 & 1 \end{pmatrix}. \]

Al reducir \((A\mid I)\), la parte izquierda no se transforma en la identidad; aparece una fila cero. Por tanto,

\[ A \text{ no es invertible.} \]

2.4.5 Aspectos adicionales


Definición: Matrices equivalentes por renglones

Dos matrices \(A\) y \(B\) son equivalentes por filas si una puede transformarse en la otra mediante operaciones elementales por filas.


Teorema: Criterios equivalentes de invertibilidad

Sea \(A\) una matriz \(n\times n\). Son equivalentes:

  1. \(A\) es invertible.
  2. \(A\) es equivalente por renglones a \(I_n\).
  3. La forma escalonada reducida por renglones de \(A\) es \(I_n\).
  4. La forma escalonada reducida de \(A\) tiene \(n\) pivotes.
  5. El sistema

\[ A\mathbf{x}=\mathbf{b} \]

tiene solución única para todo vector \(\mathbf{b}\in\mathbb{R}^n\).

  1. Si \(A\) es invertible, la solución única es

\[ \mathbf{x}=A^{-1}\mathbf{b}. \]


Ejemplo: Uso de la inversa para resolver sistemas

Resuelva

\[ \begin{aligned} 2x_1+4x_2+3x_3&=6,\\ x_2-x_3&=-4,\\ 3x_1+5x_2+7x_3&=7. \end{aligned} \]

Se escribe como

\[ A\mathbf{x}=\mathbf{b}, \]

donde

\[ A= \begin{pmatrix} 2 & 4 & 3\\ 0 & 1 & -1\\ 3 & 5 & 7 \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} 6\\ -4\\ 7 \end{pmatrix}. \]

Dado que

\[ A^{-1}= \begin{pmatrix} 4 & -\frac{13}{3} & -\frac{7}{3}\\ -1 & \frac{5}{3} & \frac{2}{3}\\ -1 & \frac{2}{3} & \frac{2}{3} \end{pmatrix}, \]

la solución única es

\[ \mathbf{x}=A^{-1}\mathbf{b} = \begin{pmatrix} 25\\ -8\\ -4 \end{pmatrix}. \tag{2.4.15} \]


Teorema de resumen

Sea \(A\) una matriz \(n\times n\). Las siguientes afirmaciones son equivalentes:

  1. \(A\) es invertible.
  2. La única solución del sistema homogéneo \[ A\mathbf{x}=\mathbf{0} \] es la solución trivial.
  3. El sistema

\[ A\mathbf{x}=\mathbf{b} \] tiene solución única para todo \(\mathbf{b}\in\mathbb{R}^n\).

  1. \(A\) es equivalente por renglones a \(I_n\).
  2. La forma escalonada reducida de \(A\) tiene \(n\) pivotes.
  3. \(\det(A)\neq 0\) (para \(2\times 2\), y luego en general más adelante).

Teorema: Verificación parcial de la inversa

Sean \(A\) y \(B\) matrices \(n\times n\). Entonces basta verificar una de estas condiciones para concluir que \(A\) es invertible y que \(B=A^{-1}\):

  1. \[BA=I\]
  2. \[AB=I\]

Nota:

No es necesario comprobar siempre las dos igualdades; una sola basta.

2.5 Transpuesta de una matriz

A toda matriz se le puede asociar otra matriz muy importante: su transpuesta. Esta operación intercambia filas por columnas y conserva muchas propiedades estructurales de la matriz original. Más adelante, la transpuesta será clave para estudiar:

  • productos escalares,
  • matrices simétricas,
  • ortogonalidad,
  • diagonalización.

Definición

Sea \(A=(a_{ij})\) una matriz de tamaño \(m\times n\). La transpuesta de \(A\), denotada por \(A^{\top}\), es la matriz de tamaño \(n\times m\) obtenida al intercambiar los renglones por las columnas.

En símbolos,

\[ A^{\top}=(a_{ji}). \]


Si

\[ A= \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix}, \tag{2.5.1} \]

entonces

\[ A^{\top}= \begin{pmatrix} a_{11} & a_{21} & \cdots & a_{m1}\\ a_{12} & a_{22} & \cdots & a_{m2}\\ \vdots & \vdots & \ddots & \vdots\\ a_{1n} & a_{2n} & \cdots & a_{mn} \end{pmatrix}. \]

Notas:

  • El renglón \(i\) de \(A\) pasa a ser la columna \(i\) de \(A^{\top}\).
  • La columna \(j\) de \(A\) pasa a ser el renglón \(j\) de \(A^{\top}\).

Ejemplo: transpuestas de tres matrices

Sea

\[ A= \begin{pmatrix} 2 & 3\\ 1 & 4 \end{pmatrix}, \qquad B= \begin{pmatrix} 2 & 3 & 1\\ -1 & 4 & 6 \end{pmatrix}, \qquad C= \begin{pmatrix} 1 & 2 & -6\\ 2 & -3 & 4\\ 0 & 1 & 2\\ 2 & -1 & 5 \end{pmatrix}. \]

Entonces

\[ A^{\top}= \begin{pmatrix} 2 & 1\\ 3 & 4 \end{pmatrix}, \qquad B^{\top}= \begin{pmatrix} 2 & -1\\ 3 & 4\\ 1 & 6 \end{pmatrix}, \]

y

\[ C^{\top}= \begin{pmatrix} 1 & 2 & 0 & 2\\ 2 & -3 & 1 & -1\\ -6 & 4 & 2 & 5 \end{pmatrix}. \]


Nota:

Si una entrada ocupa la posición \((i,j)\) en \(A\), en la transpuesta aparece en la posición \((j,i)\).

Por ejemplo, el número \(4\) en la posición \((2,3)\) de \(C\) pasa a la posición \((3,2)\) de \(C^{\top}\).


Teorema: Propiedades de la transpuesta

Si \(A\) es una matriz \(n\times m\) y \(B\) una matriz \(m\times p\), entonces:

  1. \[\left(A^{\top}\right)^{\top}=A\]

  2. \[(AB)^{\top}=B^{\top}A^{\top}\]

  3. Si \(A\) y \(B\) tienen el mismo tamaño, entonces

\[ (A+B)^{\top}=A^{\top}+B^{\top} \]

  1. Si \(A\) es invertible, entonces \(A^{\top}\) también es invertible y

\[ \left(A^{\top}\right)^{-1}=\left(A^{-1}\right)^{\top} \]


Definición: Matrices simétricas

Una matriz cuadrada \(A\) de tamaño \(n\times n\) se llama simétrica si

\[ A^{\top}=A. \]

Es decir, la matriz coincide con su transpuesta.


Interpretación:

Una matriz simétrica tiene la misma información reflejada respecto de la diagonal principal.


Ejemplo: matrices simétricas

Las siguientes matrices son simétricas:

\[ I, \qquad A= \begin{pmatrix} 1 & 2\\ 2 & 3 \end{pmatrix}, \]

\[ B= \begin{pmatrix} 1 & -4 & 2\\ -4 & 7 & 5\\ 2 & 5 & 0 \end{pmatrix}, \]

\[ C= \begin{pmatrix} -1 & 2 & 4 & 6\\ 2 & 7 & 3 & 5\\ 4 & 3 & 8 & 0\\ 6 & 5 & 0 & -4 \end{pmatrix}. \]


2.5.1 Otra forma de escribir el producto escalar

Sean

\[ \mathbf{a}= \begin{pmatrix} a_1\\ a_2\\ \vdots\\ a_n \end{pmatrix}, \qquad \mathbf{b}= \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_n \end{pmatrix} \]

dos vectores columna.

Por definición, el producto escalar es

\[ \mathbf{a}\cdot \mathbf{b} = a_1b_1+a_2b_2+\cdots+a_nb_n. \]

Ahora, como \(\mathbf{a}\) es un vector columna, su transpuesta es el vector renglón

\[ \mathbf{a}^{\top}= (a_1,a_2,\ldots,a_n). \]

Entonces el producto matricial \(\mathbf{a}^{\top}\mathbf{b}\) es una matriz \(1\times 1\), es decir, un escalar:

\[ \mathbf{a}^{\top}\mathbf{b} = (a_1,a_2,\ldots,a_n) \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_n \end{pmatrix} = a_1b_1+a_2b_2+\cdots+a_nb_n. \]

Por tanto,

\[ \mathbf{a}\cdot\mathbf{b}=\mathbf{a}^{\top}\mathbf{b}. \tag{2.5.6} \]