Repaso de Álgebra Matricial

Repaso de Álgebra Matricial

Conceptos Básicos

  • Una matriz \mathbf{A} es simétrica si \mathbf{A}^{T}=\mathbf{A}.

  • Una matriz \mathbf{A} es invertible si existe una matriz \mathbf{A}^{-1} tal que \mathbf{A}^{-1}\mathbf{A}=\mathbf{I} y \mathbf{A}\mathbf{A}^{-1}=\mathbf{I}.

    Si \mathbf{A}^{-1} existe es única. También se dice:

    • Matriz regular: una matriz cuadrada que tiene inversa.

    • Matriz singular: una matriz que no tiene inversa (su determinante es cero).

  • Se denomina matriz ortogonal a toda matriz \mathbf{Q} real cuadrada no-singular cuya inversa coincide con su traspuesta:, esto es \mathbf{Q}^{-1}=\mathbf{Q}^{T}.

  • La traza de una matriz es la suma de los elementos de su diagonal.

Propiedades (matrices traspuesta e inversa)

  • ( \mathbf{A}^{T} )^{T}=\mathbf{A}
  • ( \mathbf{A}^{-1} )^{-1}=\mathbf{A}
  • ( \mathbf{A}\mathbf{B} )^{T}=\mathbf{B}^{T}\mathbf{A}^{T}
  • ( \mathbf{A}^{T} )^{-1}=( \mathbf{A}^{-1} )^{T}
  • \mathbf{A}^{T}\mathbf{A} y \mathbf{A}\mathbf{A}^{T} son simétricas.
  • Si \mathbf{A} y \mathbf{B} son no singulares, entonces ( \mathbf{A}\mathbf{B} )^{-1}=\mathbf{B}^{-1}\mathbf{A}^{-1}.

Propiedades (determinante de una matriz)

  • El determinante de una matriz diagonal es igual al producto de sus elementos diagonales.
  • Si \mathbf{A} y \mathbf{B} son matrices de dimensión n \times n entonces \text{det}(\mathbf{A}\mathbf{B})=\text{det}(\mathbf{B}\mathbf{A})=\text{det}\mathbf{A}\cdot \text{det}\mathbf{B}.
  • Si \mathbf{A} es singular entonces \text{det}(\mathbf{A})=0.
  • Si \mathbf{C} es una matriz ortogonal entonces \text{det}(\mathbf{C})=\pm 1.
  • Si \mathbf{C} es una matriz ortogonal entonces \text{det}(\mathbf{C}^{T}\mathbf{A}\mathbf{C})=\pm \text{det}(\mathbf{A}).
  • El determinante de una matriz definida positiva es positivo.

Propiedades (traza de una matriz)

  • \text{traza}(\mathbf{A}^{T})=\text{traza}(\mathbf{A}).
  • \text{traza}(k\mathbf{A})=k\text{traza}(\mathbf{A}).
  • \text{traza}(\mathbf{A}+\mathbf{B})=\text{traza}(\mathbf{A})+\text{traza}(\mathbf{B}).
  • \text{traza}(\mathbf{A}\mathbf{B})=\text{traza}(\mathbf{B}\mathbf{A}).
  • \text{traza}(\mathbf{A}\mathbf{B}\mathbf{C})=\text{traza}(\mathbf{C}\mathbf{A}\mathbf{B})=\text{traza}(\mathbf{B}\mathbf{A}\mathbf{C}).
  • \text{traza}(\mathbf{I}_{n})=n.
  • Si \mathbf{C} es una matriz ortogonal entonces \text{traza}(\mathbf{C}^{T}\mathbf{A}\mathbf{C})=\text{traza}(\mathbf{A}).

Espacio columna de una matriz

Sea \mathbb{R}^{m\times n} el conjunto de las matrices con m filas y n columnas y \mathbf{A} \in \mathbf{R}^{m\times n}

\mathbf{A}= \begin{pmatrix} \mathbf{a}_{1} & \ldots & \mathbf{a}_{n} \end{pmatrix} = \begin{pmatrix} a_{11} & \ldots & a_{1n} \\ \vdots & & \vdots \\ a_{m1} & \ldots & a_{mn} \end{pmatrix}

donde \mathbf{a}_i \in \mathbb{R}^{m}, \quad i = 1 \ldots n, son vectores columna (columnas de la matriz \mathbf{A})

\mathbf{a}_{1}=\begin{pmatrix}a_{11}\\ \vdots \\ a_{m1}\end{pmatrix}, \ldots, \mathbf{a}_{n}=\begin{pmatrix}a_{1n}\\ \vdots \\ a_{mn}\end{pmatrix}

El espacio columna de la matriz \mathbf{A} es el conjunto de vectores \mathbf{y} \in \mathbb{R}^{m} que pueden escribirse como combinaciones lineales de las columnas de \mathbf{A}:

\mathbf{y}=\mathbf{a}_{1}x_{1}+\ldots +\mathbf{a}_{n}x_{n}\text{,} \quad \text{con } \; x_{1},\ldots,x_{n} \in \mathbb{R}

Se denomina espacio fila de la matriz \mathbf{A} a \text{Col}(\mathbf{A}^{T}).

Propiedades (espacio columna)

  • El espacio columna de \mathbf{A} es el espacio generado por las columnas de \mathbf{A}:\begin{align*} \text{Col}(\mathbf{A})& = \left\{ \text{combinaciones lineales de las columnas de } \mathbf{A} \right\} = \\ &=\text{Gen}\left\{ \mathbf{a}_{1},\ldots,\mathbf{a}_{n}\right\} =\left\{ \mathbf{y} \in\mathbb{R}^{m} \text{: } \mathbf{y}=\mathbf{A}\mathbf{x} \text{, para algún } \mathbf{x} \in \mathbb{R}^{n} \right\} \\ &=\left\{ \mathbf{y} \in\mathbb{R}^{m} \text{: } \mathbf{y}=\mathbf{A}\mathbf{x} \text{ es compatible (o consistente)} \right\} \end{align*}
  • El espacio columna está definido explícitamente, ya que los vectores en Col(\mathbf{A}) se pueden construir (por medio de combinaciones lineales) a partir de columnas de \mathbf{A}. Es decir, está caracterizado por las ecuaciones paramétricas: \left\{ \begin{matrix} y_{1}=a_{11}x_{1}+\ldots +a_{1n}x_{n} \\ \vdots \\ y_{m}=a_{m1}x_{1}+\ldots +a_{mn}x_{n} \end{matrix} \right\}.
  • El espacio columna de la matriz \mathbf{A} es un subespacio de \mathbb{R}^{m} y el espacio fila de la matriz \mathbf{A} es un subespacio de \mathbb{R}^{n}.
  • \text{Col}(\mathbf{A})=\mathbb{R}^{m} \Leftrightarrow \text{La ecuación } \mathbf{A}\mathbf{x}=\mathbf{y} \text{ tiene solución para cada } \mathbf{y} \in \mathbb{R}^{m}.

Teorema (Caracterización de matrices invertibles en términos de su espacio columna)

Si \mathbf{A} es una matriz cuadrada de orden n, entonces

\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{Col}( \mathbf{A} )=\mathbb{R}^{n}.

Espacio nulo de una matriz

El espacio nulo de la matriz \mathbf{A} es el conjunto de todas las soluciones posibles para la ecuación homogénea \mathbf{A}\mathbf{x}=\mathbf{0}. Esto es,

\text{Nul}(\mathbf{A})=\left\{ \mathbf{x} \in \mathbb{R}^{n} \text{: } \mathbf{A}\mathbf{x}=\mathbf{0} \right\}

El espacio nulo de la matriz \mathbf{A}^{T} se denomina espacio nulo izquierdo de la matriz \mathbf{A}.

Propiedades (espacio nulo)

  • El espacio nulo de \mathbf{A}, Nul(\mathbf{A}), es un subespacio de \mathbb{R}^{n} y su espacio nulo izquierdo es un subespacio de \mathbb{R}^{m}.
  • El espacio nulo está definido implícitamente, ya que está caracterizado por las ecuaciones implícitas \left\{ \begin{matrix} a_{11}x_{1}+\ldots +a_{1n}x_{n}=0 \\ \vdots \\ a_{m1}x_{1}+\ldots +a_{mn}x_{n}=0 \end{matrix} \right\}.
  • Nul(\mathbf{A})={\mathbf{0} } \Leftrightarrow \mathbf{A}\mathbf{x}=\mathbf{0} no tiene solución no trivial.
  • La dimensión de Nul(\mathbf{A}) es el número de variables libres en \mathbf{A}\mathbf{x}=\mathbf{0}.

Teorema (Caracterización de matrices invertibles en términos de su espacio nulo)

Si \mathbf{A} es una matriz cuadrada de orden n, entonces:

\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{Nul}(\mathbf{A})=0.

Dimensión y rango de una matriz

Una base para un subespacio S \in \mathbb{R}^{m} es un conjunto de vectores linealmente independientes en S que genera S.

La dimensión de un subespacio S (diferente de cero) es el número de vectores en cualquier base de S.

Recordar que:

  • dim\left\{ 0 \right\}=0
  • dim\left\{ \mathbb{R}^{m} \right\}=m

El rango de una matriz \mathbf{A} es la dimensión de su espacio columna (máximo número de columnas linealmente independientes). Es decir,

\text{rango}(\mathbf{A})=\text{dim}(\text{Col}(\mathbf{A}))=r

Propiedad (rango de una matriz)

  • rango(\mathbf{A})= rango(\mathbf{A}^{T})=r.Esto es, el espacio columna y el espacio fila tienen la misma dimensión: \text{dim} \underbrace{ ( \text{Col}(\mathbf{A}) )}_{\substack{\text{subespacio de } \mathbb{R}^{m} \\ \text{ generado por las } \\ n \text{ columnas de } \mathbf{A}}} = \text{dim} \underbrace{ ( \text{Col}(\mathbf{A}^{T}) )}_{\substack{ \text{subespacio de } \mathbb{R}^{n} \\ \text{ generado por las } m \text{ columnas de } \mathbf{A}^{T} \\ \text{i.e., las } m \text{ filas de } \mathbf{A} }}

Teorema (Caracterización de matrices invertibles en términos de su rango)

Si \mathbf{A} es una matriz cuadrada de orden n, entonces:

\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{rango}(\mathbf{A}) = n

Teorema (del rango)

Sea \mathbf{A} una matriz, con \dim(\mathbf{A})=m \times n. Se verifica:

\underbrace{\dim ( \text{Col}(\mathbf{A}) }_{r} + \underbrace{\dim ( \text{Nul}(\mathbf{A}) }_{n-r}=n

Esto es, rango(\mathbf{A}) + \dim \left( \text{Nul}(\mathbf{A}) \right)=n, lo que significa que el rango de una matriz es el orden del mayor menor no nulo.
Equivalentemente:

\underbrace{\dim ( \text{Fil}(\mathbf{A}) )}_{r} + \underbrace{\dim ( \text{Nul}(\mathbf{A}^{T}) )}_{m-r}=m

Propiedades (del rango)

  • rango(\mathbf{A}\mathbf{B})\leq rango(\mathbf{A}) rango(\mathbf{B})
  • rango(\mathbf{A}+\mathbf{B})\leq rango(\mathbf{A})+ rango(\mathbf{B})
  • Si dim(\mathbf{A})=n \times n, entonces: rango(\mathbf{A})<n \Leftrightarrow det(\mathbf{A})=0 (los vectores fila (columnas) no son independientes).
  • Si rango(\mathbf{A})=m\leq n, entonces el número de vectores fila (columnas) linealmente independientes es m.
  • Si \mathbf{A} es una matriz no singular, entonces rango(\mathbf{A}\mathbf{B})= rango(\mathbf{B}\mathbf{A})= rango(\mathbf{B}). Esto es, el rango de una matriz no varía si la multiplicamos por matrices invertibles.
  • Si \mathbf{A} y \mathbf{B} son matrices n \times n de rango r y s, respectivamente, entonces rango(\mathbf{A}\mathbf{B}) \leq r+s-n.
  • rango(\mathbf{A}\mathbf{A}^{T})= rango(\mathbf{A}^{T}\mathbf{A})= rango(\mathbf{A}).

Producto escalar, norma, distancia y ortogonalidad

  • Se denomina producto escalar de dos vectores} de dos vectores \mathbf{x}, \mathbf{y}\in \mathbb{R}^{n} al número real

\mathbf{x}\cdot \mathbf{y}=\mathbf{x}^{T}\mathbf{y}=\mathbf{y}^{T}\mathbf{x}=x_{1}y_{1}+\ldots+x_{n}y_{n} \in \mathbb{R}

  • Se denomina norma de un vector} de un vector \mathbf{x}\in \mathbb{R}^{n} al número real no negativo

|\mathbf{x}|=\sqrt{|x_{1}|^{2}+\ldots+|x_{n}|^{2}}=\sqrt{\mathbf{x}^{T}\cdot \mathbf{x}} \geq 0

  • Se denomina distancia entre dos vectores \mathbf{x}, \mathbf{y}\in \mathbb{R}^{n} al número real no negativo

d(\mathbf{x},\mathbf{y})=|\mathbf{x}-\mathbf{y}|

  • Se dice que dos vectores \mathbf{x}, \mathbf{y}\in \mathbb{R}^{n} son ortogonales (\mathbf{x}\perp \mathbf{y}) si

\mathbf{x}\cdot \mathbf{y}=0

  • Se dice que un conjunto de vectores {\mathbf{v}_{1},\ldots,\mathbf{v}_{m}} de \mathbb{R}^{n} es un conjunto ortogonal si cada uno de los vectores \mathbf{v}_{k} es ortogonal a todos los demás.
  • Se dice que un conjunto de vectores {\mathbf{v}_{1},\ldots,\mathbf{v}_{m}} de \mathbb{R}^{n} es un conjunto ortonormal si es un conjunto ortogonal y cada uno de los vectores \mathbf{v}_{k} tiene norma igual a uno.

\mathbf{v}_{i}\cdot \mathbf{v}_{j}=0 \text{, } i\neq j \text{; } \quad |\mathbf{v}_{1}|=\ldots=|\mathbf{v}_{m}|=1

Propiedades (producto escalar y norma)

Sea \mathbf{x},\mathbf{y}\in \mathbb{R}^{n}, \alpha \in \mathbb{R}

  • |\mathbf{x}|=0 \Leftrightarrow \mathbf{x}=0
  • |\alpha \mathbf{x}|=|\alpha||\mathbf{x}|
  • Desigualdad triangular: |\mathbf{x}+\mathbf{y}|\leq |\mathbf{x}|+|\mathbf{y}|, \quad |\mathbf{x}-\mathbf{y}|\leq |\mathbf{x}|+|\mathbf{y}|
  • Desigualdad de Cauchy-Schwartz: |\mathbf{x}\cdot \mathbf{y}| \leq |\mathbf{x}| |\mathbf{y}|
  • Teorema de Pitágoras: \mathbf{x}\perp \mathbf{y} \Leftrightarrow |\mathbf{x}+\mathbf{y}|^{2}=|\mathbf{x}|^{2}+|\mathbf{y}|^{2}

Complemento ortogonal de un subespacio y matrices ortogonales

Dado un subespacio vectorial S de \mathbb{R}^{n}, se denomina complemento ortogonal de S al conjunto

S^{\perp}=\{ \mathbf{v} \in \mathbb{R}^{n}: \, \mathbf{v} \perp \mathbf{u}, \forall \,\mathbf{u}\in S \}

Esto es, S^{\perp} está formado por todos los vectores que son ortogonales a todos los vectores de S.

Propiedades (complemento ortogonal)

  • { 0 } ^{\perp} = \mathbb{R}^{n}
  • { \mathbb{R}^{n} } ^{\perp} = { 0 }
  • S^{\perp} es un subespacio de \mathbb{R}^{n}.
  • (S^{\perp})^{\perp}=S
  • S\cap (S^{\perp})={ 0 } y S\cup (S^{\perp})=\mathbb{R}^{n}. Por tanto, todo vector se puede expresar de forma única como suma de un vector de S y un vector de S^{\perp}.
  • Si S=\text{Gen}\{\mathbf{v}_{1}, \ldots,\mathbf{v}_{p} \}, entonces: \mathbf{v} \in S^{\perp}\Leftrightarrow \mathbf{v} \perp \mathbf{v}_{1}, \ldots ,\mathbf{v} \perp \mathbf{v}_{p}

Teorema (Los cuatro subespacios asociados a una matriz)

Sea \mathbf{A} una matriz real de orden m \times n. Se verifica:

[\text{Col}(\mathbf{A})]^{\perp}=\text{Nul}(\mathbf{A}^{T}) \qquad [\text{Nul}(\mathbf{A})]^{\perp}=\text{Col}(\mathbf{A}^{T})

Otras relaciones de interés son:

\text{Nul}(\mathbf{A}^{T}\mathbf{A})=\text{Nul}(\mathbf{A}) \qquad \text{Col}(\mathbf{A}^{T}\mathbf{A})=\text{Col}(\mathbf{A}^{T})

Con respecto a las dimensiones de los complementos ortogonales tenemos:

\dim\left( [\text{Col}(\mathbf{A})]^{\perp} \right) =m-\dim \left( \text{Col}(\mathbf{A}) \right)

Puesto que, cualquier subespacio vectorial se puede expresar como el espacio columna de una matriz tenemos que para cualquier subespacio vectorial S de \mathbb{R}^{m}, se verifica

\dim (S^{\perp})=m-\dim (S)

Propiedades (matrices ortogonales)

Se denomina matriz ortogonal a toda matriz \mathbf{Q} real cuadrada no-singular cuya inversa coincide con su traspuesta: \mathbf{Q}^{-1}=\mathbf{Q}^{T}. Esto es, \mathbf{Q}\mathbf{Q}^{T}=\mathbf{I}.

Se verifica:

  1. Si \mathbf{Q} es ortogonal, entonces \Rightarrow \det (\mathbf{Q})=\pm 1.
  2. Si \mathbf{Q} es ortogonal, entonces \Leftrightarrow \mathbf{Q}^{T} es ortogonal.
  3. Si \mathbf{Q}_{1} y \mathbf{Q}_{2} son ortogonales, entonces \mathbf{Q}_{1}\mathbf{Q}_{2} es ortogonal.

Si \mathbf{Q} una matriz real cuadrada con \mathbf{Q} \in \mathbb{R}^{n \times n}. Son equivalentes:

  1. \mathbf{Q} es una matriz ortogonal.
  2. Las n columnas de \mathbf{Q} son ortonormales (y, por tanto, forman una base ortonormal de \mathbb{R}^{n}).
  3. Las n filas de \mathbf{Q} son ortonormales (y, por tanto, forman una base ortonormal de \mathbb{R}^{n}).

Teorema (de la descomposición ortogonal)

Sea S un subespacio vectorial de \mathbb{R}^{n}. Dado cualquier vector \mathbf{y} \in \mathbb{R}^{n} existe un único vector \widehat{\mathbf{y}} \in S (llamado proyección ortogonal de \mathbf{y} sobre S) tal que

\mathbf{y}-\widehat{\mathbf{y}} \in S^{\perp}

De hecho, si \{\mathbf{u}_{1}, \mathbf{u}_{2}, \ldots, \mathbf{u}_{r}\} es una base ortogonal de S, entonces la proyección ortogonal de \mathbf{y} sobre S es

\widehat{\mathbf{y}} \doteq \text{Proy}_{S}(\mathbf{y})=\frac{\mathbf{y}\cdot \mathbf{u}_{1}}{|\mathbf{u}_{1}|^{2}}\mathbf{u}_{1}+\ldots+\frac{\mathbf{y}\cdot \mathbf{u}_{r}}{|\mathbf{u}_{r}|^{2}}\mathbf{u}_{r}

Teorema (de la mejor aproximación)

Sea S un subespacio vectorial de \mathbb{R}^{n} y consideremos un vector \mathbf{y} \in \mathbb{R}^{n} e \widehat{\mathbf{y}} la proyección ortogonal de \mathbf{y} sobre S. Entonces, se verifica que \widehat{\mathbf{y}}=\text{Proy}_{S}(\mathbf{y}) es la mejor aproximación de \mathbf{y} desde S. Esto es,

|\mathbf{y}-\widehat{\mathbf{y}}| \leq |\mathbf{y}-\mathbf{w}| \text{, } \quad \forall \, \mathbf{w} \in S

Formas Cuadráticas

Una forma cuadrática en \mathbb{R}^{n} es una función Q

Q:\mathbb{R}^{n}\rightarrow \mathbb{R}

de la forma:

Q(\mathbf{x})=\mathbf{x}^{T}\mathbf{S}\mathbf{x}, \quad \mathbf{x} \in \mathbb{R}^{n}

donde \mathbf{S} es una matriz simétrica con \mathbf{S} \in \mathbb{R}^{n \times n} que se denomina matriz de la forma cuadrática. El rango de una forma cuadrática en \mathbb{R}^{n} se define como el rango de la matriz simétrica asociada.

Clasificación de las formas cuadráticas

Una forma cuadrática Q es:

  • Definida positiva si Q(\mathbf{x})>0 \quad \forall \, \mathbf{x}\neq \mathbf{0}
  • Definida negativa si Q(\mathbf{x})<0 \quad \forall \, \mathbf{x}\neq \mathbf{0}
  • Semidefinida positiva si Q(\mathbf{x})\geq 0 \quad \forall \, \mathbf{x}
  • Semidefinida negativa si Q(\mathbf{x})\leq 0 \quad \forall \, \mathbf{x}
  • Indefinida si Q(\mathbf{x}) toma valores tanto positivos como negativos.

Además:

Una matriz simétrica \mathbf{S} es definida (semidefinida) positiva (negativa) \Leftrightarrow La forma cuadrática Q(\mathbf{x})=\mathbf{x}^{T}\mathbf{S}\mathbf{x} es definida (semidefinida) positiva (negativa).

Valores y vectores propios

Dada una matriz cuadrada \mathbf{A} de orden n se dice que \lambda es un valor propio o raíz característica de \mathbf{A} si existe un vector \mathbf{v} \in \mathbb{R}^{n} \backslash \{0\} tal que

\mathbf{A}\mathbf{v}=\lambda\mathbf{v}

El vector \mathbf{v} se denomina vector propio asociado a \lambda. Los valores propios de una matriz cuadrada \mathbf{A} coinciden con las raíces del polinomio característico |\mathbf{A}-\lambda \mathbf{I}|=0.

Propiedades (de las matrices simétricas)

  • Los vectores propios de matrices simétricas siempres son ortogonales.
  • Las matrices simétricas se pueden diagonalizar mediante una transformación ortogonal.
  • El rango de una matriz simétrica es igual al número de raices características distintas de cero.

Teorema (formas cuadráticas y valores propios)

Sea \mathbf{S} una matriz simétrica de orden n. Una forma cuadrática \mathbf{x}^{T}\mathbf{S}\mathbf{x} es:

  • Definida positiva \Leftrightarrow Todos los valores propios de \mathbf{S} son positivos.
  • Definida negativa \Leftrightarrow Todos los valores propios de \mathbf{S} son negativos.
  • Indefinida \Leftrightarrow \mathbf{S} tiene valores propios tanto positivos como negativos.

Dada una matrix \mathbf{A} \in \mathbb{R}^{m \times n}, los productos \mathbf{A}^{T}\mathbf{A} y \mathbf{A}\mathbf{A}^{T} conducen a matrices simétricas.

Sea \mathbf{A} una matriz m \times n, los valores singulares de \mathbf{A} son las raíces cuadradas positivas de los valores propios de \mathbf{A}^{T}\mathbf{A}.

Propiedades (de la matriz simétrica \mathbf{A}^{T}\mathbf{A})

  • \mathbf{A}^{T}\mathbf{A} es una matriz simétrica y puede diagonalizarse ortogonalmente.
  • Todos los valores propios de \mathbf{A}^{T}\mathbf{A} son no negativos: Sean \lambda_{1}, \ldots, \lambda_{n} los valores propios de \mathbf{A}^{T}\mathbf{A} y \{\mathbf{v}_{1}, \ldots, \mathbf{v}_{n}\} una base ortonormal para \mathbb{R}^{n} que consiste en los vectores propios (normalizados) de \mathbf{A}^{T}\mathbf{A}. Entonces, para 1 \leq i \leq n: |\mathbf{A}\mathbf{v}_{i}|^{2}=(\mathbf{A}\mathbf{v}_{i})^{T}(\mathbf{A}\mathbf{v}_{i}) =\mathbf{v}_{i}^{T}\mathbf{A}^{T}\mathbf{A}\mathbf{v}_{i}\underbrace{=}_{\substack{\mathbf{v}_{i} \text{ es un vector} \\ \text{propio de } \mathbf{A}^{T}\mathbf{A}}}\mathbf{v}_{i}^{T}\lambda_{i}\mathbf{v}_{i}\underbrace{=}_{\mathbf{v}_{i} \text{ unitario}}\lambda_{i} Así que, todos los valores propios son no negativos.
  • Los valores singulares de \mathbf{A} son las longitudes de los vectores \mathbf{A}\mathbf{v}_{i}: Suponiendo que los valores propios están ordenados:
    \lambda_{1}\geq \ldots \geq \lambda_{n} \geq 0, los valores singulares de \mathbf{A} son las raíces cuadradas de los valores propios de \mathbf{A}^{T}\mathbf{A} denotados por \sigma_{1}, \ldots, \sigma_{n}: \sigma_{i}=\sqrt{\lambda_{i}} \quad 1 \geq i \geq n

Esperanza de una forma cuadrática

Sea \mathbf{A} \in \mathbb{R}^{m \times m} una matriz simétrica y \mathbf{x} \in \mathbb{R}^{m}. Para la forma cuadrática \mathbf{x}^{T}\mathbf{A}\mathbf{x}
se tiene que

\mathbf{x}^{T}\mathbf{A}\mathbf{x}=\text{traza}\left\{ \mathbf{x}^{T}\mathbf{A}\mathbf{x}\right\}=\text{traza}\left\{\mathbf{A}\mathbf{x}\mathbf{x}^{T}\right\}

La esperanza de la forma cuadrática es:

E [ \mathbf{x}^{T}\mathbf{A}\mathbf{x} ] = \text{traza}\left\{\mathbf{A} V [ \mathbf{x} ]\right\}+ E [ \mathbf{x} ]^{T} \mathbf{A}E [ \mathbf{x} ]

Si \mathbf{x} es tal que E [\mathbf{x}]=\mathbf{0}, entonces

E [ \mathbf{x}^{T}\mathbf{A}\mathbf{x} ] = \text{traza}\left\{\mathbf{A} V [ \mathbf{x} ]\right\}

Matrices idempotentes.

Una matriz cuadrada \mathbf{A}\in \mathbb{R}^{n \times n} se dice idempotente si \mathbf{A}\cdot \mathbf{A} =\mathbf{A}.

Propiedades (de las matrices idempotentes)

  • Si \mathbf{A} es idempotente y no singular, entonces \mathbf{A}=\mathbf{I}. Por tanto, una matriz idempotente que no es la identidad será singular, esto es, rango(\mathbf{A}=k<n).
  • Las raíces características de una matriz idempotente son cero o uno.
  • Una matriz simétrica e idempotente es siempre semidefinida positiva.
  • Si \mathbf{A} una matriz simétrica e idempotente de \text{rango}(\mathbf{A})=k, entonces \text{traza}(\mathbf{A})=k.
  • Si \mathbf{A} y \mathbf{B} son idempotentes, entonces \mathbf{A}\mathbf{B} es idempotente si \mathbf{A}\mathbf{B}=\mathbf{B}\mathbf{A}.
  • Si \mathbf{A} es idempotente y \mathbf{P} ortogonal, entonces \mathbf{P}^{T}\mathbf{A}\mathbf{P} es idempotente.
  • Si \mathbf{A} es idempotente, entonces \mathbf{I}-\mathbf{A} es idempotente.

Se dice matriz de proyección a una matriz \mathbf{P} idempotente y simétrica.