Repaso de Álgebra Matricial
Conceptos Básicos
-
Una matriz \mathbf{A} es simétrica si \mathbf{A}^{T}=\mathbf{A}.
-
Una matriz \mathbf{A} es invertible si existe una matriz \mathbf{A}^{-1} tal que \mathbf{A}^{-1}\mathbf{A}=\mathbf{I} y \mathbf{A}\mathbf{A}^{-1}=\mathbf{I}.
Si \mathbf{A}^{-1} existe es única. También se dice:
-
Matriz regular: una matriz cuadrada que tiene inversa.
-
Matriz singular: una matriz que no tiene inversa (su determinante es cero).
-
-
Se denomina matriz ortogonal a toda matriz \mathbf{Q} real cuadrada no-singular cuya inversa coincide con su traspuesta:, esto es \mathbf{Q}^{-1}=\mathbf{Q}^{T}.
-
La traza de una matriz es la suma de los elementos de su diagonal.
Propiedades (matrices traspuesta e inversa)
- ( \mathbf{A}^{T} )^{T}=\mathbf{A}
- ( \mathbf{A}^{-1} )^{-1}=\mathbf{A}
- ( \mathbf{A}\mathbf{B} )^{T}=\mathbf{B}^{T}\mathbf{A}^{T}
- ( \mathbf{A}^{T} )^{-1}=( \mathbf{A}^{-1} )^{T}
- \mathbf{A}^{T}\mathbf{A} y \mathbf{A}\mathbf{A}^{T} son simétricas.
- Si \mathbf{A} y \mathbf{B} son no singulares, entonces ( \mathbf{A}\mathbf{B} )^{-1}=\mathbf{B}^{-1}\mathbf{A}^{-1}.
Propiedades (determinante de una matriz)
- El determinante de una matriz diagonal es igual al producto de sus elementos diagonales.
- Si \mathbf{A} y \mathbf{B} son matrices de dimensión n \times n entonces \text{det}(\mathbf{A}\mathbf{B})=\text{det}(\mathbf{B}\mathbf{A})=\text{det}\mathbf{A}\cdot \text{det}\mathbf{B}.
- Si \mathbf{A} es singular entonces \text{det}(\mathbf{A})=0.
- Si \mathbf{C} es una matriz ortogonal entonces \text{det}(\mathbf{C})=\pm 1.
- Si \mathbf{C} es una matriz ortogonal entonces \text{det}(\mathbf{C}^{T}\mathbf{A}\mathbf{C})=\pm \text{det}(\mathbf{A}).
- El determinante de una matriz definida positiva es positivo.
Propiedades (traza de una matriz)
- \text{traza}(\mathbf{A}^{T})=\text{traza}(\mathbf{A}).
- \text{traza}(k\mathbf{A})=k\text{traza}(\mathbf{A}).
- \text{traza}(\mathbf{A}+\mathbf{B})=\text{traza}(\mathbf{A})+\text{traza}(\mathbf{B}).
- \text{traza}(\mathbf{A}\mathbf{B})=\text{traza}(\mathbf{B}\mathbf{A}).
- \text{traza}(\mathbf{A}\mathbf{B}\mathbf{C})=\text{traza}(\mathbf{C}\mathbf{A}\mathbf{B})=\text{traza}(\mathbf{B}\mathbf{A}\mathbf{C}).
- \text{traza}(\mathbf{I}_{n})=n.
- Si \mathbf{C} es una matriz ortogonal entonces \text{traza}(\mathbf{C}^{T}\mathbf{A}\mathbf{C})=\text{traza}(\mathbf{A}).
Espacio columna de una matriz
Sea \mathbb{R}^{m\times n} el conjunto de las matrices con m filas y n columnas y \mathbf{A} \in \mathbf{R}^{m\times n}
\mathbf{A}= \begin{pmatrix} \mathbf{a}_{1} & \ldots & \mathbf{a}_{n} \end{pmatrix} = \begin{pmatrix} a_{11} & \ldots & a_{1n} \\ \vdots & & \vdots \\ a_{m1} & \ldots & a_{mn} \end{pmatrix}
donde \mathbf{a}_i \in \mathbb{R}^{m}, \quad i = 1 \ldots n, son vectores columna (columnas de la matriz \mathbf{A})
\mathbf{a}_{1}=\begin{pmatrix}a_{11}\\ \vdots \\ a_{m1}\end{pmatrix}, \ldots, \mathbf{a}_{n}=\begin{pmatrix}a_{1n}\\ \vdots \\ a_{mn}\end{pmatrix}
El espacio columna de la matriz \mathbf{A} es el conjunto de vectores \mathbf{y} \in \mathbb{R}^{m} que pueden escribirse como combinaciones lineales de las columnas de \mathbf{A}:
\mathbf{y}=\mathbf{a}_{1}x_{1}+\ldots +\mathbf{a}_{n}x_{n}\text{,} \quad \text{con } \; x_{1},\ldots,x_{n} \in \mathbb{R}
Se denomina espacio fila de la matriz \mathbf{A} a \text{Col}(\mathbf{A}^{T}).
Propiedades (espacio columna)
- El espacio columna de \mathbf{A} es el espacio generado por las columnas de \mathbf{A}:\begin{align*} \text{Col}(\mathbf{A})& = \left\{ \text{combinaciones lineales de las columnas de } \mathbf{A} \right\} = \\ &=\text{Gen}\left\{ \mathbf{a}_{1},\ldots,\mathbf{a}_{n}\right\} =\left\{ \mathbf{y} \in\mathbb{R}^{m} \text{: } \mathbf{y}=\mathbf{A}\mathbf{x} \text{, para algún } \mathbf{x} \in \mathbb{R}^{n} \right\} \\ &=\left\{ \mathbf{y} \in\mathbb{R}^{m} \text{: } \mathbf{y}=\mathbf{A}\mathbf{x} \text{ es compatible (o consistente)} \right\} \end{align*}
- El espacio columna está definido explícitamente, ya que los vectores en Col(\mathbf{A}) se pueden construir (por medio de combinaciones lineales) a partir de columnas de \mathbf{A}. Es decir, está caracterizado por las ecuaciones paramétricas: \left\{ \begin{matrix} y_{1}=a_{11}x_{1}+\ldots +a_{1n}x_{n} \\ \vdots \\ y_{m}=a_{m1}x_{1}+\ldots +a_{mn}x_{n} \end{matrix} \right\}.
- El espacio columna de la matriz \mathbf{A} es un subespacio de \mathbb{R}^{m} y el espacio fila de la matriz \mathbf{A} es un subespacio de \mathbb{R}^{n}.
- \text{Col}(\mathbf{A})=\mathbb{R}^{m} \Leftrightarrow \text{La ecuación } \mathbf{A}\mathbf{x}=\mathbf{y} \text{ tiene solución para cada } \mathbf{y} \in \mathbb{R}^{m}.
Teorema (Caracterización de matrices invertibles en términos de su espacio columna)
Si \mathbf{A} es una matriz cuadrada de orden n, entonces
\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{Col}( \mathbf{A} )=\mathbb{R}^{n}.
Espacio nulo de una matriz
El espacio nulo de la matriz \mathbf{A} es el conjunto de todas las soluciones posibles para la ecuación homogénea \mathbf{A}\mathbf{x}=\mathbf{0}. Esto es,
\text{Nul}(\mathbf{A})=\left\{ \mathbf{x} \in \mathbb{R}^{n} \text{: } \mathbf{A}\mathbf{x}=\mathbf{0} \right\}
El espacio nulo de la matriz \mathbf{A}^{T} se denomina espacio nulo izquierdo de la matriz \mathbf{A}.
Propiedades (espacio nulo)
- El espacio nulo de \mathbf{A}, Nul(\mathbf{A}), es un subespacio de \mathbb{R}^{n} y su espacio nulo izquierdo es un subespacio de \mathbb{R}^{m}.
- El espacio nulo está definido implícitamente, ya que está caracterizado por las ecuaciones implícitas \left\{ \begin{matrix} a_{11}x_{1}+\ldots +a_{1n}x_{n}=0 \\ \vdots \\ a_{m1}x_{1}+\ldots +a_{mn}x_{n}=0 \end{matrix} \right\}.
- Nul(\mathbf{A})={\mathbf{0} } \Leftrightarrow \mathbf{A}\mathbf{x}=\mathbf{0} no tiene solución no trivial.
- La dimensión de Nul(\mathbf{A}) es el número de variables libres en \mathbf{A}\mathbf{x}=\mathbf{0}.
Teorema (Caracterización de matrices invertibles en términos de su espacio nulo)
Si \mathbf{A} es una matriz cuadrada de orden n, entonces:
\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{Nul}(\mathbf{A})=0.
Dimensión y rango de una matriz
Una base para un subespacio S \in \mathbb{R}^{m} es un conjunto de vectores linealmente independientes en S que genera S.
La dimensión de un subespacio S (diferente de cero) es el número de vectores en cualquier base de S.
Recordar que:
- dim\left\{ 0 \right\}=0
- dim\left\{ \mathbb{R}^{m} \right\}=m
El rango de una matriz \mathbf{A} es la dimensión de su espacio columna (máximo número de columnas linealmente independientes). Es decir,
\text{rango}(\mathbf{A})=\text{dim}(\text{Col}(\mathbf{A}))=r
Propiedad (rango de una matriz)
- rango(\mathbf{A})= rango(\mathbf{A}^{T})=r.Esto es, el espacio columna y el espacio fila tienen la misma dimensión: \text{dim} \underbrace{ ( \text{Col}(\mathbf{A}) )}_{\substack{\text{subespacio de } \mathbb{R}^{m} \\ \text{ generado por las } \\ n \text{ columnas de } \mathbf{A}}} = \text{dim} \underbrace{ ( \text{Col}(\mathbf{A}^{T}) )}_{\substack{ \text{subespacio de } \mathbb{R}^{n} \\ \text{ generado por las } m \text{ columnas de } \mathbf{A}^{T} \\ \text{i.e., las } m \text{ filas de } \mathbf{A} }}
Teorema (Caracterización de matrices invertibles en términos de su rango)
Si \mathbf{A} es una matriz cuadrada de orden n, entonces:
\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{rango}(\mathbf{A}) = n
Teorema (del rango)
Sea \mathbf{A} una matriz, con \dim(\mathbf{A})=m \times n. Se verifica:
\underbrace{\dim ( \text{Col}(\mathbf{A}) }_{r} + \underbrace{\dim ( \text{Nul}(\mathbf{A}) }_{n-r}=n
Esto es, rango(\mathbf{A}) + \dim \left( \text{Nul}(\mathbf{A}) \right)=n, lo que significa que el rango de una matriz es el orden del mayor menor no nulo.
Equivalentemente:
\underbrace{\dim ( \text{Fil}(\mathbf{A}) )}_{r} + \underbrace{\dim ( \text{Nul}(\mathbf{A}^{T}) )}_{m-r}=m
Propiedades (del rango)
- rango(\mathbf{A}\mathbf{B})\leq rango(\mathbf{A}) rango(\mathbf{B})
- rango(\mathbf{A}+\mathbf{B})\leq rango(\mathbf{A})+ rango(\mathbf{B})
- Si dim(\mathbf{A})=n \times n, entonces: rango(\mathbf{A})<n \Leftrightarrow det(\mathbf{A})=0 (los vectores fila (columnas) no son independientes).
- Si rango(\mathbf{A})=m\leq n, entonces el número de vectores fila (columnas) linealmente independientes es m.
- Si \mathbf{A} es una matriz no singular, entonces rango(\mathbf{A}\mathbf{B})= rango(\mathbf{B}\mathbf{A})= rango(\mathbf{B}). Esto es, el rango de una matriz no varía si la multiplicamos por matrices invertibles.
- Si \mathbf{A} y \mathbf{B} son matrices n \times n de rango r y s, respectivamente, entonces rango(\mathbf{A}\mathbf{B}) \leq r+s-n.
- rango(\mathbf{A}\mathbf{A}^{T})= rango(\mathbf{A}^{T}\mathbf{A})= rango(\mathbf{A}).
Producto escalar, norma, distancia y ortogonalidad
- Se denomina producto escalar de dos vectores} de dos vectores \mathbf{x}, \mathbf{y}\in \mathbb{R}^{n} al número real
\mathbf{x}\cdot \mathbf{y}=\mathbf{x}^{T}\mathbf{y}=\mathbf{y}^{T}\mathbf{x}=x_{1}y_{1}+\ldots+x_{n}y_{n} \in \mathbb{R}
- Se denomina norma de un vector} de un vector \mathbf{x}\in \mathbb{R}^{n} al número real no negativo
|\mathbf{x}|=\sqrt{|x_{1}|^{2}+\ldots+|x_{n}|^{2}}=\sqrt{\mathbf{x}^{T}\cdot \mathbf{x}} \geq 0
- Se denomina distancia entre dos vectores \mathbf{x}, \mathbf{y}\in \mathbb{R}^{n} al número real no negativo
d(\mathbf{x},\mathbf{y})=|\mathbf{x}-\mathbf{y}|
- Se dice que dos vectores \mathbf{x}, \mathbf{y}\in \mathbb{R}^{n} son ortogonales (\mathbf{x}\perp \mathbf{y}) si
\mathbf{x}\cdot \mathbf{y}=0
- Se dice que un conjunto de vectores {\mathbf{v}_{1},\ldots,\mathbf{v}_{m}} de \mathbb{R}^{n} es un conjunto ortogonal si cada uno de los vectores \mathbf{v}_{k} es ortogonal a todos los demás.
- Se dice que un conjunto de vectores {\mathbf{v}_{1},\ldots,\mathbf{v}_{m}} de \mathbb{R}^{n} es un conjunto ortonormal si es un conjunto ortogonal y cada uno de los vectores \mathbf{v}_{k} tiene norma igual a uno.
\mathbf{v}_{i}\cdot \mathbf{v}_{j}=0 \text{, } i\neq j \text{; } \quad |\mathbf{v}_{1}|=\ldots=|\mathbf{v}_{m}|=1
Propiedades (producto escalar y norma)
Sea \mathbf{x},\mathbf{y}\in \mathbb{R}^{n}, \alpha \in \mathbb{R}
- |\mathbf{x}|=0 \Leftrightarrow \mathbf{x}=0
- |\alpha \mathbf{x}|=|\alpha||\mathbf{x}|
- Desigualdad triangular: |\mathbf{x}+\mathbf{y}|\leq |\mathbf{x}|+|\mathbf{y}|, \quad |\mathbf{x}-\mathbf{y}|\leq |\mathbf{x}|+|\mathbf{y}|
- Desigualdad de Cauchy-Schwartz: |\mathbf{x}\cdot \mathbf{y}| \leq |\mathbf{x}| |\mathbf{y}|
- Teorema de Pitágoras: \mathbf{x}\perp \mathbf{y} \Leftrightarrow |\mathbf{x}+\mathbf{y}|^{2}=|\mathbf{x}|^{2}+|\mathbf{y}|^{2}
Complemento ortogonal de un subespacio y matrices ortogonales
Dado un subespacio vectorial S de \mathbb{R}^{n}, se denomina complemento ortogonal de S al conjunto
S^{\perp}=\{ \mathbf{v} \in \mathbb{R}^{n}: \, \mathbf{v} \perp \mathbf{u}, \forall \,\mathbf{u}\in S \}
Esto es, S^{\perp} está formado por todos los vectores que son ortogonales a todos los vectores de S.
Propiedades (complemento ortogonal)
- { 0 } ^{\perp} = \mathbb{R}^{n}
- { \mathbb{R}^{n} } ^{\perp} = { 0 }
- S^{\perp} es un subespacio de \mathbb{R}^{n}.
- (S^{\perp})^{\perp}=S
- S\cap (S^{\perp})={ 0 } y S\cup (S^{\perp})=\mathbb{R}^{n}. Por tanto, todo vector se puede expresar de forma única como suma de un vector de S y un vector de S^{\perp}.
- Si S=\text{Gen}\{\mathbf{v}_{1}, \ldots,\mathbf{v}_{p} \}, entonces: \mathbf{v} \in S^{\perp}\Leftrightarrow \mathbf{v} \perp \mathbf{v}_{1}, \ldots ,\mathbf{v} \perp \mathbf{v}_{p}
Teorema (Los cuatro subespacios asociados a una matriz)
Sea \mathbf{A} una matriz real de orden m \times n. Se verifica:
[\text{Col}(\mathbf{A})]^{\perp}=\text{Nul}(\mathbf{A}^{T}) \qquad [\text{Nul}(\mathbf{A})]^{\perp}=\text{Col}(\mathbf{A}^{T})
Otras relaciones de interés son:
\text{Nul}(\mathbf{A}^{T}\mathbf{A})=\text{Nul}(\mathbf{A}) \qquad \text{Col}(\mathbf{A}^{T}\mathbf{A})=\text{Col}(\mathbf{A}^{T})
Con respecto a las dimensiones de los complementos ortogonales tenemos:
\dim\left( [\text{Col}(\mathbf{A})]^{\perp} \right) =m-\dim \left( \text{Col}(\mathbf{A}) \right)
Puesto que, cualquier subespacio vectorial se puede expresar como el espacio columna de una matriz tenemos que para cualquier subespacio vectorial S de \mathbb{R}^{m}, se verifica
\dim (S^{\perp})=m-\dim (S)
Propiedades (matrices ortogonales)
Se denomina matriz ortogonal a toda matriz \mathbf{Q} real cuadrada no-singular cuya inversa coincide con su traspuesta: \mathbf{Q}^{-1}=\mathbf{Q}^{T}. Esto es, \mathbf{Q}\mathbf{Q}^{T}=\mathbf{I}.
Se verifica:
- Si \mathbf{Q} es ortogonal, entonces \Rightarrow \det (\mathbf{Q})=\pm 1.
- Si \mathbf{Q} es ortogonal, entonces \Leftrightarrow \mathbf{Q}^{T} es ortogonal.
- Si \mathbf{Q}_{1} y \mathbf{Q}_{2} son ortogonales, entonces \mathbf{Q}_{1}\mathbf{Q}_{2} es ortogonal.
Si \mathbf{Q} una matriz real cuadrada con \mathbf{Q} \in \mathbb{R}^{n \times n}. Son equivalentes:
- \mathbf{Q} es una matriz ortogonal.
- Las n columnas de \mathbf{Q} son ortonormales (y, por tanto, forman una base ortonormal de \mathbb{R}^{n}).
- Las n filas de \mathbf{Q} son ortonormales (y, por tanto, forman una base ortonormal de \mathbb{R}^{n}).
Teorema (de la descomposición ortogonal)
Sea S un subespacio vectorial de \mathbb{R}^{n}. Dado cualquier vector \mathbf{y} \in \mathbb{R}^{n} existe un único vector \widehat{\mathbf{y}} \in S (llamado proyección ortogonal de \mathbf{y} sobre S) tal que
\mathbf{y}-\widehat{\mathbf{y}} \in S^{\perp}
De hecho, si \{\mathbf{u}_{1}, \mathbf{u}_{2}, \ldots, \mathbf{u}_{r}\} es una base ortogonal de S, entonces la proyección ortogonal de \mathbf{y} sobre S es
\widehat{\mathbf{y}} \doteq \text{Proy}_{S}(\mathbf{y})=\frac{\mathbf{y}\cdot \mathbf{u}_{1}}{|\mathbf{u}_{1}|^{2}}\mathbf{u}_{1}+\ldots+\frac{\mathbf{y}\cdot \mathbf{u}_{r}}{|\mathbf{u}_{r}|^{2}}\mathbf{u}_{r}
Teorema (de la mejor aproximación)
Sea S un subespacio vectorial de \mathbb{R}^{n} y consideremos un vector \mathbf{y} \in \mathbb{R}^{n} e \widehat{\mathbf{y}} la proyección ortogonal de \mathbf{y} sobre S. Entonces, se verifica que \widehat{\mathbf{y}}=\text{Proy}_{S}(\mathbf{y}) es la mejor aproximación de \mathbf{y} desde S. Esto es,
|\mathbf{y}-\widehat{\mathbf{y}}| \leq |\mathbf{y}-\mathbf{w}| \text{, } \quad \forall \, \mathbf{w} \in S
Formas Cuadráticas
Una forma cuadrática en \mathbb{R}^{n} es una función Q
Q:\mathbb{R}^{n}\rightarrow \mathbb{R}
de la forma:
Q(\mathbf{x})=\mathbf{x}^{T}\mathbf{S}\mathbf{x}, \quad \mathbf{x} \in \mathbb{R}^{n}
donde \mathbf{S} es una matriz simétrica con \mathbf{S} \in \mathbb{R}^{n \times n} que se denomina matriz de la forma cuadrática. El rango de una forma cuadrática en \mathbb{R}^{n} se define como el rango de la matriz simétrica asociada.
Clasificación de las formas cuadráticas
Una forma cuadrática Q es:
- Definida positiva si Q(\mathbf{x})>0 \quad \forall \, \mathbf{x}\neq \mathbf{0}
- Definida negativa si Q(\mathbf{x})<0 \quad \forall \, \mathbf{x}\neq \mathbf{0}
- Semidefinida positiva si Q(\mathbf{x})\geq 0 \quad \forall \, \mathbf{x}
- Semidefinida negativa si Q(\mathbf{x})\leq 0 \quad \forall \, \mathbf{x}
- Indefinida si Q(\mathbf{x}) toma valores tanto positivos como negativos.
Además:
Una matriz simétrica \mathbf{S} es definida (semidefinida) positiva (negativa) \Leftrightarrow La forma cuadrática Q(\mathbf{x})=\mathbf{x}^{T}\mathbf{S}\mathbf{x} es definida (semidefinida) positiva (negativa).
Valores y vectores propios
Dada una matriz cuadrada \mathbf{A} de orden n se dice que \lambda es un valor propio o raíz característica de \mathbf{A} si existe un vector \mathbf{v} \in \mathbb{R}^{n} \backslash \{0\} tal que
\mathbf{A}\mathbf{v}=\lambda\mathbf{v}
El vector \mathbf{v} se denomina vector propio asociado a \lambda. Los valores propios de una matriz cuadrada \mathbf{A} coinciden con las raíces del polinomio característico |\mathbf{A}-\lambda \mathbf{I}|=0.
Propiedades (de las matrices simétricas)
- Los vectores propios de matrices simétricas siempres son ortogonales.
- Las matrices simétricas se pueden diagonalizar mediante una transformación ortogonal.
- El rango de una matriz simétrica es igual al número de raices características distintas de cero.
Teorema (formas cuadráticas y valores propios)
Sea \mathbf{S} una matriz simétrica de orden n. Una forma cuadrática \mathbf{x}^{T}\mathbf{S}\mathbf{x} es:
- Definida positiva \Leftrightarrow Todos los valores propios de \mathbf{S} son positivos.
- Definida negativa \Leftrightarrow Todos los valores propios de \mathbf{S} son negativos.
- Indefinida \Leftrightarrow \mathbf{S} tiene valores propios tanto positivos como negativos.
Dada una matrix \mathbf{A} \in \mathbb{R}^{m \times n}, los productos \mathbf{A}^{T}\mathbf{A} y \mathbf{A}\mathbf{A}^{T} conducen a matrices simétricas.
Sea \mathbf{A} una matriz m \times n, los valores singulares de \mathbf{A} son las raíces cuadradas positivas de los valores propios de \mathbf{A}^{T}\mathbf{A}.
Propiedades (de la matriz simétrica \mathbf{A}^{T}\mathbf{A})
- \mathbf{A}^{T}\mathbf{A} es una matriz simétrica y puede diagonalizarse ortogonalmente.
- Todos los valores propios de \mathbf{A}^{T}\mathbf{A} son no negativos: Sean \lambda_{1}, \ldots, \lambda_{n} los valores propios de \mathbf{A}^{T}\mathbf{A} y \{\mathbf{v}_{1}, \ldots, \mathbf{v}_{n}\} una base ortonormal para \mathbb{R}^{n} que consiste en los vectores propios (normalizados) de \mathbf{A}^{T}\mathbf{A}. Entonces, para 1 \leq i \leq n: |\mathbf{A}\mathbf{v}_{i}|^{2}=(\mathbf{A}\mathbf{v}_{i})^{T}(\mathbf{A}\mathbf{v}_{i}) =\mathbf{v}_{i}^{T}\mathbf{A}^{T}\mathbf{A}\mathbf{v}_{i}\underbrace{=}_{\substack{\mathbf{v}_{i} \text{ es un vector} \\ \text{propio de } \mathbf{A}^{T}\mathbf{A}}}\mathbf{v}_{i}^{T}\lambda_{i}\mathbf{v}_{i}\underbrace{=}_{\mathbf{v}_{i} \text{ unitario}}\lambda_{i} Así que, todos los valores propios son no negativos.
- Los valores singulares de \mathbf{A} son las longitudes de los vectores \mathbf{A}\mathbf{v}_{i}: Suponiendo que los valores propios están ordenados:
\lambda_{1}\geq \ldots \geq \lambda_{n} \geq 0, los valores singulares de \mathbf{A} son las raíces cuadradas de los valores propios de \mathbf{A}^{T}\mathbf{A} denotados por \sigma_{1}, \ldots, \sigma_{n}: \sigma_{i}=\sqrt{\lambda_{i}} \quad 1 \geq i \geq n
Esperanza de una forma cuadrática
Sea \mathbf{A} \in \mathbb{R}^{m \times m} una matriz simétrica y \mathbf{x} \in \mathbb{R}^{m}. Para la forma cuadrática \mathbf{x}^{T}\mathbf{A}\mathbf{x}
se tiene que
\mathbf{x}^{T}\mathbf{A}\mathbf{x}=\text{traza}\left\{ \mathbf{x}^{T}\mathbf{A}\mathbf{x}\right\}=\text{traza}\left\{\mathbf{A}\mathbf{x}\mathbf{x}^{T}\right\}
La esperanza de la forma cuadrática es:
E [ \mathbf{x}^{T}\mathbf{A}\mathbf{x} ] = \text{traza}\left\{\mathbf{A} V [ \mathbf{x} ]\right\}+ E [ \mathbf{x} ]^{T} \mathbf{A}E [ \mathbf{x} ]
Si \mathbf{x} es tal que E [\mathbf{x}]=\mathbf{0}, entonces
E [ \mathbf{x}^{T}\mathbf{A}\mathbf{x} ] = \text{traza}\left\{\mathbf{A} V [ \mathbf{x} ]\right\}
Matrices idempotentes.
Una matriz cuadrada \mathbf{A}\in \mathbb{R}^{n \times n} se dice idempotente si \mathbf{A}\cdot \mathbf{A} =\mathbf{A}.
Propiedades (de las matrices idempotentes)
- Si \mathbf{A} es idempotente y no singular, entonces \mathbf{A}=\mathbf{I}. Por tanto, una matriz idempotente que no es la identidad será singular, esto es, rango(\mathbf{A}=k<n).
- Las raíces características de una matriz idempotente son cero o uno.
- Una matriz simétrica e idempotente es siempre semidefinida positiva.
- Si \mathbf{A} una matriz simétrica e idempotente de \text{rango}(\mathbf{A})=k, entonces \text{traza}(\mathbf{A})=k.
- Si \mathbf{A} y \mathbf{B} son idempotentes, entonces \mathbf{A}\mathbf{B} es idempotente si \mathbf{A}\mathbf{B}=\mathbf{B}\mathbf{A}.
- Si \mathbf{A} es idempotente y \mathbf{P} ortogonal, entonces \mathbf{P}^{T}\mathbf{A}\mathbf{P} es idempotente.
- Si \mathbf{A} es idempotente, entonces \mathbf{I}-\mathbf{A} es idempotente.
Se dice matriz de proyección a una matriz \mathbf{P} idempotente y simétrica.