Inversas

Inversas

En cada una de las dos secciones anteriores dimos un ejemplo; estos dos ejemplos sacan a la luz las dos propiedades desagradables que tiene la multiplicación de transformaciones lineales, es decir, la no conmutatividad y la existencia de divisores de cero. Nos dirigimos ahora a las propiedades más agradables que las transformaciones lineales a veces tienen.

Puede ocurrir que la transformación lineal \(A\) tenga una o ambas de las dos propiedades muy especiales siguientes.

  1. Si \(x_{1} \neq x_{2}\) , entonces \(A x_{1} \neq A x_{2}\) .
  2. A cada vector \(y\) le corresponde (al menos) un vector \(x\) tal que \(A x=y\) .

Si alguna vez \(A\) tiene ambas propiedades diremos que \(A\) es invertible . Si \(A\) es invertible, definimos una transformación lineal, llamada la inversa de \(A\) y denotada por \(A^{-1}\) , como sigue. Si \(y_{0}\) es cualquier vector, podemos (por (ii)) encontrar un \(x_{0}\) para el cual \(A x_{0}=y_{0}\) . Este \(x_{0}\) es, además, unívocamente determinado, ya que \(x_{0} \neq x_{1}\) implica (por (i)) que \(y_{0}=A x_{0} \neq A x_{1}\) . Definimos \(A^{-1} y_{0}\) como \(x_{0}\) . Para probar que \(A^{-1}\) es lineal, evaluamos \(A^{-1}(\alpha_{1} y_{1}+\alpha_{2} y_{2})\) . Si \(A x_{1}=y_{1}\) y \(A x_{2}=y_{2}\) , entonces la linealidad de \(A\) nos dice que \[A(\alpha_{1} x_{1}+\alpha_{2} x_{2})=\alpha_{1} y_{1}+\alpha_{2} y_{2},\] de modo que \[A^{-1}(\alpha_{1} y_{1}+\alpha_{2} y_{2})=\alpha_{1} x_{1}+\alpha_{2} x_{2}=\alpha_{1} A^{-1} y_{1}+\alpha_{2} A^{-1} y_{2}.\] 

Como ejemplo trivial de una transformación invertible mencionamos la transformación identidad \(1\) ; claramente \(1^{-1}=1\) . La transformación \(0\) no es invertible; viola ambas condiciones (i) e (ii) tan fuertemente como pueden ser violadas.

Es inmediato de la definición que para cualquier \(A\) invertible tenemos \[A A^{-1}=A^{-1} A=1\] mostraremos ahora que estas ecuaciones sirven para caracterizar \(A^{-1}\) .

Teorema 1. Si \(A\) , \(B\) , y \(C\) son transformaciones lineales tales que \[A B=C A=1\] entonces \(A\) es invertible y \(A^{-1}=B=C\) .

Demostración. Si \(A x_{1}=A x_{2}\) , entonces \(C A x_{1}=C A x_{2}\) , de modo que (ya que \(C A=1\) ) \(x_{1}=x_{2}\) ; en otras palabras, se satisface la primera condición de la definición de invertibilidad. La segunda condición también se satisface, pues si \(y\) es cualquier vector y \(x=B y\) , entonces \(y=A B y=A x\) . Multiplicando \(A B=1\) a la izquierda, y \(C A=1\) a la derecha, por \(A^{-1}\) , vemos que \(A^{-1}=B=C\) . ◻

Para mostrar que ni \(A B=1\) ni \(C A=1\) es, por sí solo, suficiente para asegurar la invertibilidad de \(A\) , llamamos la atención sobre las transformaciones de diferenciación e integración \(D\) y \(S\) , definidas en Sección: Transformaciones lineales , (4) y (5). Aunque \(D S=1\) , ni \(D\) ni \(S\) es invertible; \(D\) viola (i), y \(S\) viola (ii).

En espacios de dimensión finita la situación es mucho más simple.

Teorema 2. Una transformación lineal \(A\) en un espacio vectorial de dimensión finita \(\mathcal{V}\) es invertible si y solo si \(A x=0\) implica que \(x=0\) , o, alternativamente, si y solo si todo \(y\) en \(\mathcal{V}\) puede escribirse en la forma \(y=A x\) .

Demostración. Si \(A\) es invertible, ambas condiciones se satisfacen; esto es trivial. Supongamos ahora que \(A x=0\) implica que \(x=0\) . Entonces \(u \neq v\) , es decir, \(u-v \neq 0\) , implica que \(A(u-v) \neq 0\) , es decir, que \(A u \neq A v\) ; esto prueba (i). Para probar (ii), sea \(\{x_{1}, \ldots, x_{n}\}\) una base en \(\mathcal{V}\) ; afirmamos que \(\{A x_{1}, \ldots, A x_{n}\}\) también es una base. Según Sección: Dimensión , Teorema 2, solo necesitamos probar la independencia lineal. Pero \(\sum_{i} \alpha_{i} A x_{i}=0\) significa \(A\big(\sum_{i} \alpha_{i} x_{i}\big)=0\) , y, por hipótesis, esto implica que \(\sum_{i} \alpha_{i} x_{i}=0\) ; la independencia lineal de los \(x_{i}\) ahora nos dice que \(\alpha_{1}=\cdots=\alpha_{n}=0\) . Se sigue, por supuesto, que todo vector \(y\) puede escribirse en la forma \[y=\sum_{i} \alpha_{i} A x_{i}=A\Big(\sum_{i} \alpha_{i} x_{i}\Big).\] 

Supongamos a continuación que todo \(y\) es un \(A x\) , y sea \(\{y_{1}, \ldots, y_{n}\}\) cualquier base en \(\mathcal{V}\) . Correspondiendo a cada \(y_{i}\) podemos encontrar un (no necesariamente único) \(x_{i}\) para el cual \(y_{i}=A x_{i}\) ; afirmamos que \(\{x_{1}, \ldots, x_{n}\}\) también es una base. Pues \(\sum_{i} \alpha_{i} x_{i}=0\) implica \[\sum_{i} \alpha_{i} A x_{i}=\sum_{i} \alpha_{i} y_{i}=0,\] de modo que \(\alpha_{1}=\cdots=\alpha_{n}=0\) . Consecuentemente todo \(x\) puede escribirse en la forma \(x=\sum_{i} \alpha_{i} x_{i}\) , y \(A x=0\) implica, como en el argumento que acabamos de hacer, que \(x=0\) . ◻

Teorema 3. Si \(A\) y \(B\) son invertibles, entonces \(A B\) es invertible y \((A B)^{-1}=B^{-1} A^{-1}\) . Si \(A\) es invertible y \(\alpha \neq 0\) , entonces \(\alpha A\) es invertible y \((\alpha A)^{-1}=\frac{1}{\alpha} A^{-1}\) . Si \(A\) es invertible, entonces \(A^{-1}\) es invertible y \((A^{-1})^{-1}=A\) .

Demostración. Según el Teorema 1, es suficiente probar (para la primera afirmación) que el producto de \(A B\) con \(B^{-1} A^{-1}\) , en ambos órdenes, es la identidad; esta verificación dejamos al lector. Las pruebas de ambas afirmaciones restantes son idénticas en principio a esta prueba de la primera afirmación; la última afirmación, por ejemplo, se sigue del hecho de que las ecuaciones \(A A^{-1}=A^{-1} A=1\) son completamente simétricas en \(A\) y \(A^{-1}\) . ◻

Concluimos nuestra discusión de inversas con el siguiente comentario. En el espíritu de la sección anterior podemos, si queremos, definir funciones racionales de \(A\) , cuando sea posible, usando \(A^{-1}\) . No encontraremos útil hacer esto, excepto en un caso: si \(A\) es invertible, entonces sabemos que \(A^{n}\) también es invertible, \(n=1,2, \ldots\) ; escribiremos \(A^{-n}\) para \((A^{n})^{-1}\) , de modo que \(A^{-n}=(A^{-1})^{n}\) .

EJERCICIOS

Ejercicio 1. ¿Cuáles de las transformaciones lineales descritas en Sección: Transformaciones como vectores , Ej. 1 son invertibles?

Ejercicio 2. Una transformación lineal \(A\) se define en \(\mathbb{C}^{2}\) por \[A(\xi_{1}, \xi_{2})=(\alpha \xi_{1}+\beta \xi_{2}, \gamma \xi_{1}+\delta \xi_{2})\] donde \(\alpha\) , \(\beta\) , \(\gamma\) , y \(\delta\) son escalares fijos. Pruebe que \(A\) es invertible si y solo si \(\alpha \delta - \beta \gamma \neq 0\) .

Ejercicio 3. Si \(A\) y \(B\) son transformaciones lineales (en el mismo espacio vectorial), entonces una condición necesaria y suficiente para que ambas \(A\) y \(B\) sean invertibles es que ambas \(A B\) y \(B A\) sean invertibles.

Ejercicio 4. Si \(A\) y \(B\) son transformaciones lineales en un espacio vectorial de dimensión finita, y si \(A B=1\) , entonces ambas \(A\) y \(B\) son invertibles.

Ejercicio 5. 

  1. Si \(A\) , \(B\) , \(C\) , y \(D\) son transformaciones lineales (todas en el mismo espacio vectorial), y si ambas \(A+B\) y \(A-B\) son invertibles, entonces existen transformaciones lineales \(X\) e \(Y\) tales que \[A X+B Y=C\] y \[B X+A Y=D.\] 
  2. ¿En qué medida son necesarios los supuestos de invertibilidad en (a)?

Ejercicio 6. 

  1. Una transformación lineal en un espacio vectorial de dimensión finita es invertible si y solo si preserva la independencia lineal. Decir que \(A\) preserva la independencia lineal significa que siempre que \(\mathcal{X}\) es un conjunto linealmente independiente en el espacio \(\mathcal{V}\) en el cual \(A\) actúa, entonces \(A\mathcal{X}\) también es un conjunto linealmente independiente en \(\mathcal{V}\) . (El símbolo \(A\mathcal{X}\) denota, por supuesto, el conjunto de todos los vectores de la forma \(A x\) , con \(x\) en \(\mathcal{X}\) .)
  2. ¿Es necesario el supuesto de dimensión finita para la validez de (a)?

Ejercicio 7. Muestre que si \(A\) es una transformación lineal tal que \(A^{2}-A+1=0\) , entonces \(A\) es invertible.

Ejercicio 8. Si \(A\) y \(B\) son transformaciones lineales (en el mismo espacio vectorial) y si \(A B=1\) , entonces \(A\) se llama inversa por la izquierda de \(B\) e \(B\) se llama inversa por la derecha de \(A\) . Pruebe que si \(A\) tiene exactamente una inversa por la derecha, digamos \(B\) , entonces \(A\) es invertible. (Pista: considere \(B A+B-1\) .)

Ejercicio 9. Si \(A\) es una transformación lineal invertible en un espacio vectorial de dimensión finita \(\mathcal{V}\) , entonces existe un polinomio \(p\) tal que \(A^{-1}=p(A)\) . (Pista: encuentre un polinomio \(q\) no nulo de grado mínimo tal que \(q(A)=0\) y pruebe que su término constante no puede ser \(0\) .)

Ejercicio 10. Ideé una definición sensata de invertibilidad para transformaciones lineales de un espacio vectorial a otro. Usando esa definición, decida cuál (si alguna) de las transformaciones lineales descritas en Sección: Transformaciones como vectores , Ej. 3 son invertibles.