Repaso de Álgebra Matricial

Repaso de Álgebra Matricial

Conceptos Básicos

  • Una matriz \(\mathbf{A}\) es simétrica si \(\mathbf{A}^{T}=\mathbf{A}\).

  • Una matriz \(\mathbf{A}\) es invertible si existe una matriz \(\mathbf{A}^{-1}\) tal que \(\mathbf{A}^{-1}\mathbf{A}=\mathbf{I}\) y \(\mathbf{A}\mathbf{A}^{-1}=\mathbf{I}\).

    Si \(\mathbf{A}^{-1}\) existe es única. También se dice:

    • Matriz regular: una matriz cuadrada que tiene inversa.

    • Matriz singular: una matriz que no tiene inversa (su determinante es cero).

  • Se denomina matriz ortogonal a toda matriz \(\mathbf{Q}\) real cuadrada no-singular cuya inversa coincide con su traspuesta:, esto es \(\mathbf{Q}^{-1}=\mathbf{Q}^{T}\).

  • La traza de una matriz es la suma de los elementos de su diagonal.

Propiedades (matrices traspuesta e inversa)

  • \(( \mathbf{A}^{T} )^{T}=\mathbf{A}\)
  • \(( \mathbf{A}^{-1} )^{-1}=\mathbf{A}\)
  • \(( \mathbf{A}\mathbf{B} )^{T}=\mathbf{B}^{T}\mathbf{A}^{T}\)
  • \(( \mathbf{A}^{T} )^{-1}=( \mathbf{A}^{-1} )^{T}\)
  • \(\mathbf{A}^{T}\mathbf{A}\) y \(\mathbf{A}\mathbf{A}^{T}\) son simétricas.
  • Si \(\mathbf{A}\) y \(\mathbf{B}\) son no singulares, entonces \(( \mathbf{A}\mathbf{B} )^{-1}=\mathbf{B}^{-1}\mathbf{A}^{-1}\).

Propiedades (determinante de una matriz)

  • El determinante de una matriz diagonal es igual al producto de sus elementos diagonales.
  • Si \(\mathbf{A}\) y \(\mathbf{B}\) son matrices de dimensión \(n \times n\) entonces \(\text{det}(\mathbf{A}\mathbf{B})=\text{det}(\mathbf{B}\mathbf{A})=\text{det}\mathbf{A}\cdot \text{det}\mathbf{B}\).
  • Si \(\mathbf{A}\) es singular entonces \(\text{det}(\mathbf{A})=0\).
  • Si \(\mathbf{C}\) es una matriz ortogonal entonces \(\text{det}(\mathbf{C})=\pm 1\).
  • Si \(\mathbf{C}\) es una matriz ortogonal entonces \(\text{det}(\mathbf{C}^{T}\mathbf{A}\mathbf{C})=\pm \text{det}(\mathbf{A})\).
  • El determinante de una matriz definida positiva es positivo.

Propiedades (traza de una matriz)

  • \(\text{traza}(\mathbf{A}^{T})=\text{traza}(\mathbf{A})\).
  • \(\text{traza}(k\mathbf{A})=k\text{traza}(\mathbf{A})\).
  • \(\text{traza}(\mathbf{A}+\mathbf{B})=\text{traza}(\mathbf{A})+\text{traza}(\mathbf{B})\).
  • \(\text{traza}(\mathbf{A}\mathbf{B})=\text{traza}(\mathbf{B}\mathbf{A})\).
  • \(\text{traza}(\mathbf{A}\mathbf{B}\mathbf{C})=\text{traza}(\mathbf{C}\mathbf{A}\mathbf{B})=\text{traza}(\mathbf{B}\mathbf{A}\mathbf{C})\).
  • \(\text{traza}(\mathbf{I}_{n})=n\).
  • Si \(\mathbf{C}\) es una matriz ortogonal entonces \(\text{traza}(\mathbf{C}^{T}\mathbf{A}\mathbf{C})=\text{traza}(\mathbf{A})\).

Espacio columna de una matriz

Sea \(\mathbb{R}^{m\times n}\) el conjunto de las matrices con \(m\) filas y \(n\) columnas y \(\mathbf{A} \in \mathbf{R}^{m\times n}\)

$$
\mathbf{A}=
\begin{pmatrix}
\mathbf{a}_{1} & \ldots & \mathbf{a}_{n}
\end{pmatrix}
= \begin{pmatrix}
a_{11} & \ldots & a_{1n} \\
\vdots & & \vdots \\
a_{m1} & \ldots & a_{mn}
\end{pmatrix}
$$

donde \(\mathbf{a}_i \in \mathbb{R}^{m}, \quad i = 1 \ldots n,\) son vectores columna (columnas de la matriz \(\mathbf{A}\))

$$
\mathbf{a}_{1}=\begin{pmatrix}a_{11}\\ \vdots \\ a_{m1}\end{pmatrix}, \ldots, \mathbf{a}_{n}=\begin{pmatrix}a_{1n}\\ \vdots \\ a_{mn}\end{pmatrix}
$$

El espacio columna de la matriz \(\mathbf{A}\) es el conjunto de vectores \(\mathbf{y} \in \mathbb{R}^{m}\) que pueden escribirse como combinaciones lineales de las columnas de \(\mathbf{A}\):

$$
\mathbf{y}=\mathbf{a}_{1}x_{1}+\ldots +\mathbf{a}_{n}x_{n}\text{,} \quad \text{con } \; x_{1},\ldots,x_{n} \in \mathbb{R}
$$

Se denomina espacio fila de la matriz \(\mathbf{A}\) a \(\text{Col}(\mathbf{A}^{T})\).

Propiedades (espacio columna)

  • El espacio columna de \(\mathbf{A}\) es el espacio generado por las columnas de \(\mathbf{A}\):\begin{align*}
    \text{Col}(\mathbf{A})& = \left\{ \text{combinaciones lineales de las columnas de } \mathbf{A} \right\} = \\
    &=\text{Gen}\left\{ \mathbf{a}_{1},\ldots,\mathbf{a}_{n}\right\} =\left\{ \mathbf{y} \in\mathbb{R}^{m} \text{: } \mathbf{y}=\mathbf{A}\mathbf{x} \text{, para algún } \mathbf{x} \in \mathbb{R}^{n} \right\} \\
    &=\left\{ \mathbf{y} \in\mathbb{R}^{m} \text{: } \mathbf{y}=\mathbf{A}\mathbf{x} \text{ es compatible (o consistente)} \right\}
    \end{align*}
  • El espacio columna está definido explícitamente, ya que los vectores en Col\((\mathbf{A})\) se pueden construir (por medio de combinaciones lineales) a partir de columnas de \(\mathbf{A}\). Es decir, está caracterizado por las ecuaciones paramétricas:$$
    \left\{
    \begin{matrix}
    y_{1}=a_{11}x_{1}+\ldots +a_{1n}x_{n} \\
    \vdots \\
    y_{m}=a_{m1}x_{1}+\ldots +a_{mn}x_{n}
    \end{matrix}
    \right\}.
    $$
  • El espacio columna de la matriz \(\mathbf{A}\) es un subespacio de \(\mathbb{R}^{m}\) y el espacio fila de la matriz \(\mathbf{A}\) es un subespacio de \(\mathbb{R}^{n}\).
  • \(\text{Col}(\mathbf{A})=\mathbb{R}^{m} \Leftrightarrow \text{La ecuación } \mathbf{A}\mathbf{x}=\mathbf{y} \text{ tiene solución para cada } \mathbf{y} \in \mathbb{R}^{m}.\)

Teorema (Caracterización de matrices invertibles en términos de su espacio columna)

Si \(\mathbf{A}\) es una matriz cuadrada de orden \(n\), entonces

$$
\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{Col}( \mathbf{A} )=\mathbb{R}^{n}.
$$

Espacio nulo de una matriz

El espacio nulo de la matriz \(\mathbf{A}\) es el conjunto de todas las soluciones posibles para la ecuación homogénea \(\mathbf{A}\mathbf{x}=\mathbf{0}\). Esto es,

$$
\text{Nul}(\mathbf{A})=\left\{ \mathbf{x} \in \mathbb{R}^{n} \text{: } \mathbf{A}\mathbf{x}=\mathbf{0} \right\}
$$

El espacio nulo de la matriz \(\mathbf{A}^{T}\) se denomina espacio nulo izquierdo de la matriz \(\mathbf{A}\).

Propiedades (espacio nulo)

  • El espacio nulo de \(\mathbf{A}\), Nul\((\mathbf{A})\), es un subespacio de \(\mathbb{R}^{n}\) y su espacio nulo izquierdo es un subespacio de \(\mathbb{R}^{m}\).
  • El espacio nulo está definido implícitamente, ya que está caracterizado por las ecuaciones implícitas$$
    \left\{
    \begin{matrix}
    a_{11}x_{1}+\ldots +a_{1n}x_{n}=0 \\
    \vdots \\
    a_{m1}x_{1}+\ldots +a_{mn}x_{n}=0
    \end{matrix}
    \right\}.
    $$
  • Nul\((\mathbf{A})={\mathbf{0} }\) \(\Leftrightarrow \mathbf{A}\mathbf{x}=\mathbf{0}\) no tiene solución no trivial.
  • La dimensión de Nul\((\mathbf{A})\) es el número de variables libres en \(\mathbf{A}\mathbf{x}=\mathbf{0}\).

Teorema (Caracterización de matrices invertibles en términos de su espacio nulo)

Si \(\mathbf{A}\) es una matriz cuadrada de orden \(n\), entonces:

$$
\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{Nul}(\mathbf{A})=0.
$$

Dimensión y rango de una matriz

Una base para un subespacio \(S \in \mathbb{R}^{m}\) es un conjunto de vectores linealmente independientes en \(S\) que genera \(S\).

La dimensión de un subespacio \(S\) (diferente de cero) es el número de vectores en cualquier base de \(S\).

Recordar que:

  • dim\(\left\{ 0 \right\}=0\)
  • dim\(\left\{ \mathbb{R}^{m} \right\}=m\)

El rango de una matriz \(\mathbf{A}\) es la dimensión de su espacio columna (máximo número de columnas linealmente independientes). Es decir,

$$
\text{rango}(\mathbf{A})=\text{dim}(\text{Col}(\mathbf{A}))=r
$$

Propiedad (rango de una matriz)

  • rango\((\mathbf{A})= \) rango\((\mathbf{A}^{T})=r\).Esto es, el espacio columna y el espacio fila tienen la misma dimensión:$$
    \text{dim} \underbrace{ ( \text{Col}(\mathbf{A}) )}_{\substack{\text{subespacio de } \mathbb{R}^{m} \\ \text{ generado por las } \\ n \text{ columnas de } \mathbf{A}}} = \text{dim} \underbrace{ ( \text{Col}(\mathbf{A}^{T}) )}_{\substack{ \text{subespacio de } \mathbb{R}^{n} \\ \text{ generado por las } m \text{ columnas de } \mathbf{A}^{T} \\ \text{i.e., las } m \text{ filas de } \mathbf{A} }}
    $$

Teorema (Caracterización de matrices invertibles en términos de su rango)

Si \(\mathbf{A}\) es una matriz cuadrada de orden \(n\), entonces:

$$\text{La matriz } \mathbf{A} \text{ tiene inversa } \Leftrightarrow \text{rango}(\mathbf{A}) = n$$

Teorema (del rango)

Sea \(\mathbf{A}\) una matriz, con \(\dim(\mathbf{A})=m \times n\). Se verifica:

$$
\underbrace{\dim ( \text{Col}(\mathbf{A}) }_{r} + \underbrace{\dim ( \text{Nul}(\mathbf{A}) }_{n-r}=n
$$

Esto es, rango\((\mathbf{A}) + \dim \left( \text{Nul}(\mathbf{A}) \right)=n\), lo que significa que el rango de una matriz es el orden del mayor menor no nulo.
Equivalentemente:

$$
\underbrace{\dim ( \text{Fil}(\mathbf{A}) )}_{r} + \underbrace{\dim ( \text{Nul}(\mathbf{A}^{T}) )}_{m-r}=m
$$

Propiedades (del rango)

  • rango\((\mathbf{A}\mathbf{B})\leq\) rango\((\mathbf{A})\) rango\((\mathbf{B})\)
  • rango\((\mathbf{A}+\mathbf{B})\leq\) rango\((\mathbf{A})+\) rango\((\mathbf{B})\)
  • Si dim\((\mathbf{A})=n \times n\), entonces: rango\((\mathbf{A})<n \Leftrightarrow \) det\((\mathbf{A})=0\) (los vectores fila (columnas) no son independientes).
  • Si rango\((\mathbf{A})=m\leq n\), entonces el número de vectores fila (columnas) linealmente independientes es \(m\).
  • Si \(\mathbf{A}\) es una matriz no singular, entonces rango\((\mathbf{A}\mathbf{B})=\) rango\((\mathbf{B}\mathbf{A})=\) rango\((\mathbf{B})\). Esto es, el rango de una matriz no varía si la multiplicamos por matrices invertibles.
  • Si \(\mathbf{A}\) y \(\mathbf{B}\) son matrices \(n \times n\) de rango \(r\) y \(s\), respectivamente, entonces rango\((\mathbf{A}\mathbf{B}) \leq r+s-n\).
  • rango\((\mathbf{A}\mathbf{A}^{T})=\) rango\((\mathbf{A}^{T}\mathbf{A})=\) rango\((\mathbf{A})\).

Producto escalar, norma, distancia y ortogonalidad

  • Se denomina producto escalar de dos vectores} de dos vectores \(\mathbf{x}\), \(\mathbf{y}\in \mathbb{R}^{n}\) al número real

$$
\mathbf{x}\cdot \mathbf{y}=\mathbf{x}^{T}\mathbf{y}=\mathbf{y}^{T}\mathbf{x}=x_{1}y_{1}+\ldots+x_{n}y_{n} \in \mathbb{R}
$$

  • Se denomina norma de un vector} de un vector \(\mathbf{x}\in \mathbb{R}^{n}\) al número real no negativo

$$
|\mathbf{x}|=\sqrt{|x_{1}|^{2}+\ldots+|x_{n}|^{2}}=\sqrt{\mathbf{x}^{T}\cdot \mathbf{x}} \geq 0
$$

  • Se denomina distancia entre dos vectores \(\mathbf{x}\), \(\mathbf{y}\in \mathbb{R}^{n}\) al número real no negativo

$$
d(\mathbf{x},\mathbf{y})=|\mathbf{x}-\mathbf{y}|
$$

  • Se dice que dos vectores \(\mathbf{x}\), \(\mathbf{y}\in \mathbb{R}^{n}\) son ortogonales (\(\mathbf{x}\perp \mathbf{y}\)) si

$$
\mathbf{x}\cdot \mathbf{y}=0
$$

  • Se dice que un conjunto de vectores \({\mathbf{v}_{1},\ldots,\mathbf{v}_{m}}\) de \(\mathbb{R}^{n}\) es un conjunto ortogonal si cada uno de los vectores \(\mathbf{v}_{k}\) es ortogonal a todos los demás.
  • Se dice que un conjunto de vectores \({\mathbf{v}_{1},\ldots,\mathbf{v}_{m}}\) de \(\mathbb{R}^{n}\) es un conjunto ortonormal si es un conjunto ortogonal y cada uno de los vectores \(\mathbf{v}_{k}\) tiene norma igual a uno.

$$
\mathbf{v}_{i}\cdot \mathbf{v}_{j}=0 \text{, } i\neq j \text{; } \quad |\mathbf{v}_{1}|=\ldots=|\mathbf{v}_{m}|=1
$$

Propiedades (producto escalar y norma)

Sea \(\mathbf{x},\mathbf{y}\in \mathbb{R}^{n}\), \(\alpha \in \mathbb{R}\)

  • \(|\mathbf{x}|=0 \Leftrightarrow \mathbf{x}=0\)
  • \(|\alpha \mathbf{x}|=|\alpha||\mathbf{x}| \)
  • Desigualdad triangular: \(|\mathbf{x}+\mathbf{y}|\leq |\mathbf{x}|+|\mathbf{y}|\), \(\quad |\mathbf{x}-\mathbf{y}|\leq |\mathbf{x}|+|\mathbf{y}|\)
  • Desigualdad de Cauchy-Schwartz: \(|\mathbf{x}\cdot \mathbf{y}| \leq |\mathbf{x}| |\mathbf{y}|\)
  • Teorema de Pitágoras: \(\mathbf{x}\perp \mathbf{y} \Leftrightarrow |\mathbf{x}+\mathbf{y}|^{2}=|\mathbf{x}|^{2}+|\mathbf{y}|^{2}\)

Complemento ortogonal de un subespacio y matrices ortogonales

Dado un subespacio vectorial \(S\) de \(\mathbb{R}^{n}\), se denomina complemento ortogonal de \(S\) al conjunto

$$
S^{\perp}=\{ \mathbf{v} \in \mathbb{R}^{n}: \, \mathbf{v} \perp \mathbf{u}, \forall \,\mathbf{u}\in S \}
$$

Esto es, \(S^{\perp}\) está formado por todos los vectores que son ortogonales a todos los vectores de \(S\).

Propiedades (complemento ortogonal)

  • \({ 0 } ^{\perp} = \mathbb{R}^{n}\)
  • \({ \mathbb{R}^{n} } ^{\perp} = { 0 }\)
  • \(S^{\perp}\) es un subespacio de \(\mathbb{R}^{n}\).
  • \((S^{\perp})^{\perp}=S\)
  • \(S\cap (S^{\perp})={ 0 }\) y \(S\cup (S^{\perp})=\mathbb{R}^{n}\). Por tanto, todo vector se puede expresar de forma única como suma de un vector de \(S\) y un vector de \(S^{\perp}\).
  • Si \(S=\text{Gen}\{\mathbf{v}_{1}, \ldots,\mathbf{v}_{p} \}\), entonces:$$
    \mathbf{v} \in S^{\perp}\Leftrightarrow \mathbf{v} \perp \mathbf{v}_{1}, \ldots ,\mathbf{v} \perp \mathbf{v}_{p}
    $$

Teorema (Los cuatro subespacios asociados a una matriz)

Sea \(\mathbf{A}\) una matriz real de orden \(m \times n\). Se verifica:

$$
[\text{Col}(\mathbf{A})]^{\perp}=\text{Nul}(\mathbf{A}^{T}) \qquad [\text{Nul}(\mathbf{A})]^{\perp}=\text{Col}(\mathbf{A}^{T})
$$

Otras relaciones de interés son:

$$
\text{Nul}(\mathbf{A}^{T}\mathbf{A})=\text{Nul}(\mathbf{A}) \qquad \text{Col}(\mathbf{A}^{T}\mathbf{A})=\text{Col}(\mathbf{A}^{T})
$$

Con respecto a las dimensiones de los complementos ortogonales tenemos:

$$
\dim\left( [\text{Col}(\mathbf{A})]^{\perp} \right) =m-\dim \left( \text{Col}(\mathbf{A}) \right)
$$

Puesto que, cualquier subespacio vectorial se puede expresar como el espacio columna de una matriz tenemos que para cualquier subespacio vectorial \(S\) de \(\mathbb{R}^{m}\), se verifica

$$
\dim (S^{\perp})=m-\dim (S)
$$

Propiedades (matrices ortogonales)

Se denomina matriz ortogonal a toda matriz \(\mathbf{Q}\) real cuadrada no-singular cuya inversa coincide con su traspuesta: \(\mathbf{Q}^{-1}=\mathbf{Q}^{T}\). Esto es, \(\mathbf{Q}\mathbf{Q}^{T}=\mathbf{I}\).

Se verifica:

  1. Si \(\mathbf{Q}\) es ortogonal, entonces \(\Rightarrow \det (\mathbf{Q})=\pm 1\).
  2. Si \(\mathbf{Q}\) es ortogonal, entonces \(\Leftrightarrow \mathbf{Q}^{T}\) es ortogonal.
  3. Si \(\mathbf{Q}_{1}\) y \(\mathbf{Q}_{2}\) son ortogonales, entonces \(\mathbf{Q}_{1}\mathbf{Q}_{2}\) es ortogonal.

Si \(\mathbf{Q}\) una matriz real cuadrada con \(\mathbf{Q} \in \mathbb{R}^{n \times n}\). Son equivalentes:

  1. \(\mathbf{Q}\) es una matriz ortogonal.
  2. Las \(n\) columnas de \(\mathbf{Q}\) son ortonormales (y, por tanto, forman una base ortonormal de \(\mathbb{R}^{n}\)).
  3. Las \(n\) filas de \(\mathbf{Q}\) son ortonormales (y, por tanto, forman una base ortonormal de \(\mathbb{R}^{n}\)).

Teorema (de la descomposición ortogonal)

Sea \(S\) un subespacio vectorial de \(\mathbb{R}^{n}\). Dado cualquier vector \(\mathbf{y} \in \mathbb{R}^{n}\) existe un único vector \(\widehat{\mathbf{y}} \in S\) (llamado proyección ortogonal de \(\mathbf{y}\) sobre \(S\)) tal que

$$
\mathbf{y}-\widehat{\mathbf{y}} \in S^{\perp}
$$

De hecho, si \(\{\mathbf{u}_{1}, \mathbf{u}_{2}, \ldots, \mathbf{u}_{r}\}\) es una base ortogonal de \(S\), entonces la proyección ortogonal de \(\mathbf{y}\) sobre \(S\) es

$$
\widehat{\mathbf{y}} \doteq \text{Proy}_{S}(\mathbf{y})=\frac{\mathbf{y}\cdot \mathbf{u}_{1}}{|\mathbf{u}_{1}|^{2}}\mathbf{u}_{1}+\ldots+\frac{\mathbf{y}\cdot \mathbf{u}_{r}}{|\mathbf{u}_{r}|^{2}}\mathbf{u}_{r}
$$

Teorema (de la mejor aproximación)

Sea \(S\) un subespacio vectorial de \(\mathbb{R}^{n}\) y consideremos un vector \(\mathbf{y} \in \mathbb{R}^{n}\) e \(\widehat{\mathbf{y}}\) la proyección ortogonal de \(\mathbf{y}\) sobre \(S\). Entonces, se verifica que \(\widehat{\mathbf{y}}=\text{Proy}_{S}(\mathbf{y})\) es la mejor aproximación de \(\mathbf{y}\) desde \(S\). Esto es,

$$
|\mathbf{y}-\widehat{\mathbf{y}}| \leq |\mathbf{y}-\mathbf{w}| \text{, } \quad \forall \, \mathbf{w} \in S
$$

Formas Cuadráticas

Una forma cuadrática en \(\mathbb{R}^{n}\) es una función \(Q\)

$$
Q:\mathbb{R}^{n}\rightarrow \mathbb{R}
$$

de la forma:

$$
Q(\mathbf{x})=\mathbf{x}^{T}\mathbf{S}\mathbf{x}, \quad \mathbf{x} \in \mathbb{R}^{n}
$$

donde \(\mathbf{S}\) es una matriz simétrica con \(\mathbf{S} \in \mathbb{R}^{n \times n}\) que se denomina matriz de la forma cuadrática. El rango de una forma cuadrática en \(\mathbb{R}^{n}\) se define como el rango de la matriz simétrica asociada.

Clasificación de las formas cuadráticas

Una forma cuadrática \(Q\) es:

  • Definida positiva si \(Q(\mathbf{x})>0 \quad \forall \, \mathbf{x}\neq \mathbf{0}\)
  • Definida negativa si \(Q(\mathbf{x})<0 \quad \forall \, \mathbf{x}\neq \mathbf{0}\)
  • Semidefinida positiva si \(Q(\mathbf{x})\geq 0 \quad \forall \, \mathbf{x}\)
  • Semidefinida negativa si \(Q(\mathbf{x})\leq 0 \quad \forall \, \mathbf{x}\)
  • Indefinida si \(Q(\mathbf{x})\) toma valores tanto positivos como negativos.

Además:

Una matriz simétrica \(\mathbf{S}\) es definida (semidefinida) positiva (negativa) \(\Leftrightarrow\) La forma cuadrática \(Q(\mathbf{x})=\mathbf{x}^{T}\mathbf{S}\mathbf{x}\) es definida (semidefinida) positiva (negativa).

Valores y vectores propios

Dada una matriz cuadrada \(\mathbf{A}\) de orden \(n\) se dice que \(\lambda\) es un valor propio o raíz característica de \(\mathbf{A}\) si existe un vector \( \mathbf{v} \in \mathbb{R}^{n} \backslash \{0\} \) tal que

$$
\mathbf{A}\mathbf{v}=\lambda\mathbf{v}
$$

El vector \(\mathbf{v}\) se denomina vector propio asociado a \(\lambda\). Los valores propios de una matriz cuadrada \(\mathbf{A}\) coinciden con las raíces del polinomio característico \(|\mathbf{A}-\lambda \mathbf{I}|=0\).

Propiedades (de las matrices simétricas)

  • Los vectores propios de matrices simétricas siempres son ortogonales.
  • Las matrices simétricas se pueden diagonalizar mediante una transformación ortogonal.
  • El rango de una matriz simétrica es igual al número de raices características distintas de cero.

Teorema (formas cuadráticas y valores propios)

Sea \(\mathbf{S}\) una matriz simétrica de orden \(n\). Una forma cuadrática \(\mathbf{x}^{T}\mathbf{S}\mathbf{x}\) es:

  • Definida positiva \(\Leftrightarrow\) Todos los valores propios de \(\mathbf{S}\) son positivos.
  • Definida negativa \(\Leftrightarrow\) Todos los valores propios de \(\mathbf{S}\) son negativos.
  • Indefinida \(\Leftrightarrow\) \(\mathbf{S}\) tiene valores propios tanto positivos como negativos.

Dada una matrix \(\mathbf{A} \in \mathbb{R}^{m \times n}\), los productos \(\mathbf{A}^{T}\mathbf{A}\) y \(\mathbf{A}\mathbf{A}^{T}\) conducen a matrices simétricas.

Sea \(\mathbf{A}\) una matriz \(m \times n\), los valores singulares de \(\mathbf{A}\) son las raíces cuadradas positivas de los valores propios de \(\mathbf{A}^{T}\mathbf{A}\).

Propiedades (de la matriz simétrica \(\mathbf{A}^{T}\mathbf{A}\))

  • \(\mathbf{A}^{T}\mathbf{A}\) es una matriz simétrica y puede diagonalizarse ortogonalmente.
  • Todos los valores propios de \(\mathbf{A}^{T}\mathbf{A}\) son no negativos: Sean \(\lambda_{1}, \ldots, \lambda_{n}\) los valores propios de \(\mathbf{A}^{T}\mathbf{A}\) y \(\{\mathbf{v}_{1}, \ldots, \mathbf{v}_{n}\}\) una base ortonormal para \(\mathbb{R}^{n}\) que consiste en los vectores propios (normalizados) de \(\mathbf{A}^{T}\mathbf{A}\). Entonces, para \(1 \leq i \leq n\):$$
    |\mathbf{A}\mathbf{v}_{i}|^{2}=(\mathbf{A}\mathbf{v}_{i})^{T}(\mathbf{A}\mathbf{v}_{i})
    =\mathbf{v}_{i}^{T}\mathbf{A}^{T}\mathbf{A}\mathbf{v}_{i}\underbrace{=}_{\substack{\mathbf{v}_{i} \text{ es un vector} \\ \text{propio de } \mathbf{A}^{T}\mathbf{A}}}\mathbf{v}_{i}^{T}\lambda_{i}\mathbf{v}_{i}\underbrace{=}_{\mathbf{v}_{i} \text{ unitario}}\lambda_{i}
    $$Así que, todos los valores propios son no negativos.
  • Los valores singulares de \(\mathbf{A}\) son las longitudes de los vectores \(\mathbf{A}\mathbf{v}_{i}\): Suponiendo que los valores propios están ordenados:
    \(\lambda_{1}\geq \ldots \geq \lambda_{n} \geq 0\), los valores singulares de \(\mathbf{A}\) son las raíces cuadradas de los valores propios de \(\mathbf{A}^{T}\mathbf{A}\) denotados por \(\sigma_{1}, \ldots, \sigma_{n}\):$$
    \sigma_{i}=\sqrt{\lambda_{i}} \quad 1 \geq i \geq n
    $$

Esperanza de una forma cuadrática

Sea \(\mathbf{A} \in \mathbb{R}^{m \times m}\) una matriz simétrica y \(\mathbf{x} \in \mathbb{R}^{m}\). Para la forma cuadrática \(\mathbf{x}^{T}\mathbf{A}\mathbf{x}\)
se tiene que

$$
\mathbf{x}^{T}\mathbf{A}\mathbf{x}=\text{traza}\left\{ \mathbf{x}^{T}\mathbf{A}\mathbf{x}\right\}=\text{traza}\left\{\mathbf{A}\mathbf{x}\mathbf{x}^{T}\right\}
$$

La esperanza de la forma cuadrática es:

$$
E [ \mathbf{x}^{T}\mathbf{A}\mathbf{x} ] = \text{traza}\left\{\mathbf{A} V [ \mathbf{x} ]\right\}+ E [ \mathbf{x} ]^{T} \mathbf{A}E [ \mathbf{x} ]
$$

Si \(\mathbf{x}\) es tal que \(E [\mathbf{x}]=\mathbf{0}\), entonces

$$
E [ \mathbf{x}^{T}\mathbf{A}\mathbf{x} ] = \text{traza}\left\{\mathbf{A} V [ \mathbf{x} ]\right\}
$$

Matrices idempotentes.

Una matriz cuadrada \(\mathbf{A}\in \mathbb{R}^{n \times n}\) se dice idempotente si \(\mathbf{A}\cdot \mathbf{A} =\mathbf{A}\).

Propiedades (de las matrices idempotentes)

  • Si \(\mathbf{A}\) es idempotente y no singular, entonces \(\mathbf{A}=\mathbf{I}\). Por tanto, una matriz idempotente que no es la identidad será singular, esto es, rango\((\mathbf{A}=k<n)\).
  • Las raíces características de una matriz idempotente son cero o uno.
  • Una matriz simétrica e idempotente es siempre semidefinida positiva.
  • Si \(\mathbf{A}\) una matriz simétrica e idempotente de \(\text{rango}(\mathbf{A})=k\), entonces \(\text{traza}(\mathbf{A})=k\).
  • Si \(\mathbf{A}\) y \(\mathbf{B}\) son idempotentes, entonces \(\mathbf{A}\mathbf{B}\) es idempotente si \(\mathbf{A}\mathbf{B}=\mathbf{B}\mathbf{A}\).
  • Si \(\mathbf{A}\) es idempotente y \(\mathbf{P}\) ortogonal, entonces \(\mathbf{P}^{T}\mathbf{A}\mathbf{P}\) es idempotente.
  • Si \(\mathbf{A}\) es idempotente, entonces \(\mathbf{I}-\mathbf{A}\) es idempotente.

Se dice matriz de proyección a una matriz \(\mathbf{P}\) idempotente y simétrica.