Matrices de transformaciones
Matrices de transformaciones
Hay ahora una cierta cantidad de trabajo rutinario a hacer, la mayor parte del cual dejaremos a la imaginación. El problema es este: en un sistema de coordenadas fijo \(\mathcal{X}=\{x_{1}, \ldots, x_{n}\}\) , conociendo las matrices de \(A\) y \(B\) , ¿cómo podemos encontrar las matrices de \(\alpha A+\beta B\) , de \(A B\) , de \(0\) , \(1\) , etc.?
Escriba \([A]=(\alpha_{i j})\) , \([B]=(\beta_{i j})\) , \(C=\alpha A+\beta B\) , \([C]=(\gamma_{i j})\) ; afirmamos que \[\gamma_{i j}=\alpha \alpha_{i j}+\beta \beta_{i j};\] también si \([0]=(o_{i j})\) y \([1]=(e_{i j})\) , entonces \[o_{i j}=0\] y
\[e_{i j}=\delta_{i j} \text {(= la delta de Kronecker).}\]
Una regla más complicada es la siguiente: si \(C=A B\) , \([C]=(\gamma_{i j})\) , entonces \[\gamma_{i j}=\sum_{k} \alpha_{i k} \beta_{k j}.\] Para probar esto usamos la definición de la matriz asociada con una transformación, y manipulamos, así: \begin{align} C x_{j} = A(B x_{j}) &= A\Big(\sum_{k} \beta_{k j} x_{k}\Big)\\ &= \sum_{k} \beta_{k j} A x_{k}\\ &= \sum_{k} \beta_{k j}\Big(\sum_{i} \alpha_{i k} x_{i}\Big)\\ &=\sum_{i}\Big(\sum_{k} \alpha_{i k} \beta_{k j}\Big) x_{i}. \end{align}
La relación entre transformaciones y matrices es exactamente la misma que la relación entre vectores y sus coordenadas, y el análogo del teorema de isomorfismo de Sección: Isomorfismo es verdadero en el mejor sentido posible. Haremos estas afirmaciones precisas.
Con la ayuda de una base fija \(\mathcal{X}\) , hemos hecho corresponder una matriz \([A]\) a cada transformación lineal \(A\) ; la correspondencia se describe por las relaciones \(A x_{j}=\sum_{i} \alpha_{i j} x_{i}\) . Afirmamos ahora que esta correspondencia es uno a uno (es decir, que las matrices de dos transformaciones diferentes son diferentes), y que todo arreglo \((\alpha_{i j})\) de \(n^{2}\) escalares es la matriz de alguna transformación. Para probar esto, observamos en primer lugar que el conocimiento de la matriz de \(A\) determina completamente \(A\) (es decir, que \(A x\) es así unívocamente definido para todo \(x\) , como sigue: si \(x=\sum_{j} \xi_{j} x_{j}\) , entonces \begin{align} A x &= \sum_{j} \xi_{j} A x_{j}\\ &= \sum_{j} \xi_{j}\Big(\sum_{i} \alpha_{i j} x_{i}\Big)\\ &= \sum_{i}\Big(\sum_{j} \alpha_{i j} \xi_{j}\Big) x_{i}. \end{align} (En otras palabras, si \(y=A x=\sum_{i} \eta_{i} x_{i}\) , entonces \(\eta_{i}=\sum_{j} \alpha_{i j} \xi_{j}.\) Compare esto con los comentarios en Sección: Matrices sobre la perversidad de índices.) En segundo lugar, no hay ley que prohíba leer la relación \(A x_{j}=\sum_{i} \alpha_{i j} x_{i}\) al revés. Si, en otras palabras, \((\alpha_{i j})\) es cualquier arreglo, podemos usar esta relación para definir una transformación lineal \(A\) ; es claro que la matriz de \(A\) será exactamente \((\alpha_{i j})\) . (Una vez más, sin embargo, enfatizamos el hecho fundamental de que esta correspondencia uno a uno entre transformaciones y matrices se estableció por medio de un sistema de coordenadas particular, y que, como pasamos de un sistema de coordenadas a otro, la misma transformación lineal puede corresponder a varias matrices, y una matriz puede ser la correspondiente de muchas transformaciones lineales.) La siguiente afirmación resume la parte esencial de la discusión anterior.
Teorema 1. Entre el conjunto de todas las matrices \((\alpha_{i j})\) , \((\beta_{i j})\) , etc., \(i, j=1, \ldots, n\) (no consideradas en relación con transformaciones lineales), definimos suma, multiplicación escalar, producto, \((o_{i j})\) , e \((e_{i j})\) , por \begin{align} (\alpha_{i j})+(\beta_{i j}) & =(\alpha_{i j}+\beta_{i j}) \\ \alpha(\alpha_{i j}) & =(\alpha \alpha_{i j}) \\ (\alpha_{i j})(\beta_{i j}) & =\Big(\sum_{k} \alpha_{i k} \beta_{k j}\Big) \\ o_{i j} & =0,\\ e_{i j} & =\delta_{i j} . \end{align} Entonces la correspondencia (establecida por medio de un sistema de coordenadas arbitrario \(\mathcal{X} = \{x_{1}, \ldots, x_{n}\}\) del espacio vectorial de dimensión \(n\) \(\mathcal{V}\) ), entre todas las transformaciones lineales \(A\) en \(\mathcal{V}\) y todas las matrices \((\alpha_{i j})\) , descrita por \(A x_{j}=\sum_{i} \alpha_{i j} x_{i}\) , es un isomorfismo; en otras palabras, es una correspondencia uno a uno que preserva suma, multiplicación escalar, producto, \(0\) , e \(1\) .
Hemos evitado cuidadosamente discutir la matriz de \(A^{-1}\) . Es posible dar una expresión para \([A^{-1}]\) en términos de los elementos \(\alpha_{i j}\) de \([A]\) , pero la expresión no es simple y, afortunadamente, no es útil para nosotros.
EJERCICIOS
Ejercicio 1. Sea \(A\) la transformación lineal en \(\mathcal{P}_{n}\) definida por \((A x)(t)=x(t+1)\) , y sea \(\{x_{0}, \ldots, x_{n-1}\}\) la base de \(\mathcal{P}_{n}\) definida por \(x_{j}(t)=t^{j}\) , \(j=0, \ldots, n-1\) . Encuentre la matriz de \(A\) con respecto a esta base.
Ejercicio 2. Encuentre la matriz de la operación de conjugación en \(\mathbb{C}\) , considerada como un espacio vectorial real, con respecto a la base \(\{1, i\}\) (donde \(i=\sqrt{-1}\) ).
Ejercicio 3.
- Sea \(\pi\) una permutación de los enteros \(1, \ldots, n\) ; si \(x=(\xi_{1}, \ldots, \xi_{n})\) es un vector en \(\mathbb{C}^{n}\) , escriba \(A x=(\xi_{\pi(1)}, \ldots, \xi_{\pi(n)})\) . Si \(x_{i}=(\delta_{i 1}, \ldots, \delta_{i n})\) , encuentre la matriz de \(A\) con respecto a \(\{x_{1}, \ldots, x_{n}\}\) .
- Encuentre todas las matrices que conmutan con la matriz de \(A\) .
Ejercicio 4. Considere el espacio vectorial que consiste en todas las matrices reales de dos por dos y sea \(A\) la transformación lineal en este espacio que envía cada matriz \(X\) a \(P X\) , donde \[P=\begin{bmatrix} 1 & 1 \\ 1 & 1 \end{bmatrix}.\] Encuentre la matriz de \(A\) con respecto a la base que consiste en \[\begin{bmatrix} 1 & 0\\ 0 & 0 \end{bmatrix}, \quad \begin{bmatrix} 0 & 1\\ 0 & 0 \end{bmatrix}, \quad \begin{bmatrix} 0 & 0\\ 1 & 0 \end{bmatrix}, \quad \begin{bmatrix} 0 & 0\\ 0 & 1 \end{bmatrix}.\]
Ejercicio 5. Considere el espacio vectorial que consiste en todas las transformaciones lineales en un espacio vectorial \(\mathcal{V}\) , y sea \(A\) la transformación de multiplicación (a la izquierda) que envía cada transformación \(X\) en \(\mathcal{V}\) a \(P X\) , donde \(P\) es alguna transformación prescrita en \(\mathcal{V}\) . ¿Bajo qué condiciones en \(P\) es \(A\) invertible?
Ejercicio 6. Pruebe que si \(I\) , \(J\) , y \(K\) son las matrices complejas \[\begin{bmatrix} 0 & 1 \\ -1 & 0 \end{bmatrix}, \quad \begin{bmatrix} 0 & i \\ i & 0 \end{bmatrix}, \quad \begin{bmatrix} i & 0 \\ 0 & -i \end{bmatrix}\] respectivamente (donde \(i=\sqrt{-1}\) ), entonces \begin{align} I^{2} &= J^{2}=K^{2}=-1,\\ I J &=-J I=K,\\ J K &=-K J=I,\\ K I &=-I K=J. \end{align}
Ejercicio 7.
- Pruebe que si \(A\) , \(B\) , y \(C\) son transformaciones lineales en un espacio vectorial de dimensión dos, entonces \((A B-B A)^{2}\) conmuta con \(C\) .
- ¿Es verdadera la conclusión de (a) para espacios de dimensión superior?
Ejercicio 8. Sea \(A\) la transformación lineal en \(\mathbb{C}^{2}\) definida por \(A(\xi_{1}, \xi_{2})=(\xi_{1}+\xi_{2}, \xi_{2})\) . Pruebe que si una transformación lineal \(B\) conmuta con \(A\) , entonces existe un polinomio \(p\) tal que \(B=p(A)\) .
Ejercicio 9. ¿Para cuál de los siguientes polinomios \(p\) y matrices \(A\) es verdadero que \(p(A)=0\) ?
- \(p(t)=t^{3}-3 t^{2}+3 t-1\) , \(A=\begin{bmatrix} 1 & 1 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 1 \end{bmatrix}\) .
- \(p(t)=t^{2}-3 t\) , \(A= \begin{bmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{bmatrix}\) .
- \(p(t)=t^{3}+t^{2}+t+1\) , \(A=\begin{bmatrix} 1 & 1 & 0 \\ 1 & 1 & 1 \\ 0 & 1 & 1 \end{bmatrix}\) .
- \(p(t)=t^{3}-2 t\) , \(A=\begin{bmatrix} 0 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & 0 \end{bmatrix}\) .
Ejercicio 10. Pruebe que si \(A\) y \(B\) son las matrices complejas \[\begin{bmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 \end{bmatrix} \quad \text { y } \quad \begin{bmatrix} i & 0 & 0 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & 0 & -i & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix}\] respectivamente (donde \(i=\sqrt{-1}\) ), y si \(C=A B-i B A\) , entonces \(C^{2}+C^{2}+C=0\) .
Ejercicio 11. Si \(A\) y \(B\) son transformaciones lineales en un espacio vectorial, y si \(A B=0\) , ¿se sigue que \(B A=0\) ?
Ejercicio 12. ¿Qué sucede con la matriz de una transformación lineal en un espacio vectorial de dimensión finita cuando los elementos de la base con respecto a la cual se calcula la matriz se permutan entre sí?
Ejercicio 13.
- Supongamos que \(\mathcal{V}\) es un espacio vectorial de dimensión finita con base \(\{x_{1}, \ldots, x_{n}\}\) . Supongamos que \(\alpha_{1}, \ldots, \alpha_{n}\) son escalares distintos por parejas. Si \(A\) es una transformación lineal tal que \(A x_{j}=\alpha_{j} x_{j}\) , \(j=1, \ldots, n\) , y si \(B\) es una transformación lineal que conmuta con \(A\) , entonces existen escalares \(\beta_{1}, \ldots, \beta_{n}\) tales que \(B x_{j}=\beta_{j} x_{j}\) .
- Pruebe que si \(B\) es una transformación lineal en un espacio vectorial de dimensión finita \(\mathcal{V}\) y si \(B\) conmuta con toda transformación lineal en \(\mathcal{V}\) , entonces \(B\) es un escalar (es decir, existe un escalar \(\beta\) tal que \(B x=\beta x\) para todo \(x\) en \(\mathcal{V}\) ).
Ejercicio 14. Si \(\{x_{1}, \ldots, x_{k}\}\) y \(\{y_{1}, \ldots, y_{k}\}\) son conjuntos linealmente independientes de vectores en un espacio vectorial de dimensión finita \(\mathcal{V}\) , entonces existe una transformación lineal invertible \(A\) en \(\mathcal{V}\) tal que \(A x_{j}=y_{j}\) , \(j=1, \ldots, k\) .
Ejercicio 15. Si una matriz \([A]=(\alpha_{i j})\) es tal que \(\alpha_{i i}=0\) , \(i=1, \ldots, n\) , entonces existen matrices \([B]=(\beta_{i j})\) y \([C]=(\gamma_{i j})\) tales que \([A]=[B][C]-[C][B]\) . (Pista: intente \(\beta_{i j}=\beta_{i} \delta_{i j}\) .)
Ejercicio 16. Decida cuáles de las siguientes matrices son invertibles y encuentre las inversas de las que lo son.
2
- \(\begin{bmatrix} 1 & 1 \\ 0 & 1 \end{bmatrix}\) .
- \(\begin{bmatrix} 1 & 1 \\ 1 & 1 \end{bmatrix}\) .
- \(\begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix}\) .
- \(\begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}\) .
- \(\begin{bmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 1 & 0 & 0 \end{bmatrix}\) .
- \(\begin{bmatrix} 1 & 0 & 1 \\ 1 & 0 & 1 \\ 1 & 0 & 1 \end{bmatrix}\) .
- \(\begin{bmatrix} 0 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & 0 \end{bmatrix}\) .
Ejercicio 17. ¿Para cuáles valores de \(\alpha\) son invertibles las siguientes matrices? Encuentre las inversas cuando sea posible.
2
- \(\begin{bmatrix} \alpha & 1 \\ 1 & 0 \end{bmatrix}\) .
- \(\begin{bmatrix} 1 & \alpha \\ 1 & 0 \end{bmatrix}\) .
- \(\begin{bmatrix} 1 & \alpha \\ 1 & \alpha \end{bmatrix}\) .
- \(\begin{bmatrix} 1 & 1 \\ 1 & \alpha \end{bmatrix}\) .
Ejercicio 18. ¿Para cuáles valores de \(\alpha\) son invertibles las siguientes matrices? Encuentre las inversas cuando sea posible.
2
- \(\begin{bmatrix} 1 & \alpha & 0 \\ \alpha & 1 & \alpha \\ 0 & \alpha & 1 \end{bmatrix}\) .
- \(\begin{bmatrix} \alpha & 1 & 0 \\ 1 & \alpha & 1 \\ 0 & 1 & \alpha \end{bmatrix}\) .
- \(\begin{bmatrix} 0 & 1 & \alpha \\ 1 & \alpha & 0 \\ \alpha & 0 & 1 \end{bmatrix}\) .
- \(\begin{bmatrix} 1 & 1 & 1 \\ 1 & 1 & \alpha \\ 1 & \alpha & 1 \end{bmatrix}\) .
Ejercicio 19.
- Es fácil extender la teoría de matrices a transformaciones lineales entre espacios vectoriales diferentes. Supongamos que \(\mathcal{U}\) y \(\mathcal{V}\) son espacios vectoriales sobre el mismo cuerpo, sea \(\{x_{1}, \ldots, x_{n}\}\) y \(\{y_{1}, \ldots, y_{m}\}\) bases de \(\mathcal{U}\) y \(\mathcal{V}\) respectivamente, y sea \(A\) una transformación lineal de \(\mathcal{U}\) a \(\mathcal{V}\) . La matriz de \(A\) es, por definición, el arreglo rectangular, \(m\) por \(n\) , de escalares definido por \[A x_{j}=\sum_{i} \alpha_{i j} y_{i}.\] Defina adición y multiplicación de matrices rectangulares de modo que se generalicen tantos resultados como sea posible de Sección: Matrices de transformaciones . (Nótese que el producto de una matriz \(m_{1}\) por \(n_{1}\) y una matriz \(m_{2}\) por \(n_{2}\) , en ese orden, será definido solo si \(n_{1}=m_{2}\) .)
- Supongamos que \(A\) y \(B\) son matrices multiplicables. Particione \(A\) en cuatro bloques rectangulares (arriba a la izquierda, arriba a la derecha, abajo a la izquierda, abajo a la derecha) y luego particione \(B\) similarmente de modo que el número de columnas en la parte superior izquierda de \(A\) sea igual al número de filas en la parte superior izquierda de \(B\) . Si, en una notación taquigráfica obvia, estas particiones se indican por \[A=\begin{bmatrix} A_{11} & A_{12} \\ A_{21} & A_{22} \end{bmatrix}, \quad B=\begin{bmatrix} B_{11} & B_{12} \\ B_{21} & B_{22} \end{bmatrix},\] entonces \[A B=\begin{bmatrix} A_{11} B_{11}+A_{12} B_{21} & A_{11} B_{12}+A_{12} B_{22} \\ A_{21} B_{11}+A_{22} B_{21} & A_{21} B_{12}+A_{22} B_{22} \end{bmatrix}\]
- Use subespacios y complementos para expresar el resultado de (b) en términos de transformaciones lineales (en lugar de matrices).
- Generalice ambas (b) y (c) a números mayores de piezas (en lugar de cuatro).