Apéndice C: Álgebra lineal y geometría analítica

Este Apéndice se inspiró en material generado por el IMERL (Facultad de Ingeniería). El mismo se encuentra disponible para su libre consulta (ver IMERL (n.d.a) y IMERL (n.d.b)).

MATRICES

Se define una matriz \(A\) de \(m\) filas y \(n\) columnas (\(m \times n\)) como una función \(A: {1,...,m} \times {1,...,n} \rightarrow \mathbb{R}\) con entradas \(a_{ij}\) donde la \(i\) indica a qué fila pertenece y la \(j\) la columna. Se reprensenta de la siguiente forma:

\[A = \begin{pmatrix} a_{11} & a_{12} & ... & a_{1n} \\ a_{21} & a_{22} & ... & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & ... & a_{mn} \end{pmatrix}\]

Ejemplo:

\[A = \begin{pmatrix} 1 & 1 & 2 & 1\\ 4 & 3 & -1 & 1 \\ -1 & 1 & 3 & 3 \end{pmatrix}\] Matriz de \(3 \times 4\), tres filas y cuatro columnas.

Relación con los sistemas de ecuaciones

Sea el sistema de ecuaciones \[\begin{cases} a_{11}x_1 + a_{12}x_2 + ... + a_{1n}x_n = b_1 \\ a_{21}x_1 + a_{22}x_2 + ... + a_{2n}x_n = b_2 \\ \vdots\\ a_{m1}x_1 + a_{m2}x_2 + ... + a_{mn}x_n = b_m \end{cases}\]

se le llama matriz del sistema de ecuaciones a la matriz \(A\) de dimensión \((m,n)\) que contiene los coeficientes del mismo:

\[\begin{pmatrix} a_{11} & a_{12} & ... & a_{1n}\\ a_{21} & a_{22} & ... & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & ... & a_{mn} \end{pmatrix}\]

y matriz ampliada del sistema a la matriz de dimensión \((m,n+1)\) que contiene los coeficientes y el término independiente: \[\begin{pmatrix} a_{11} & a_{12} & ... & a_{1n}\\ a_{21} & a_{22} & ... & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & ... & a_{mn} \end{pmatrix} | \begin{pmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{pmatrix}\]

Ejemplo: El sistema de ecuaciones \[\begin{cases} x + y + 2z = 9 \\ 3x + 6y - 5z = 0 \\ 2x + 4y - 3z = 1 \end{cases}\]

La matriz del sistema de ecuaciones en este caso es: \[A = \begin{pmatrix} 1 & 1 & 2 \\ 3 & 6 & -5 \\ 2 & 4 & -3 \end{pmatrix}\]

y la matriz ampliada es: \[A = \begin{pmatrix} 1 & 1 & 2 \\ 3 & 6 & -5 \\ 2 & 4 & -3 \end{pmatrix} | \begin{pmatrix} 9 \\ 0 \\ 1 \end{pmatrix}\]

A partir de la matriz ampliada se puede aplicar un método sencillo para resolver el sistema de ecuaciones. Aplicando transformaciones elementales (interamcio, suma y resta entre filas de la matriz), se puede llevar la matriz a su formato escalerizado y así despejar las incógnitas del sistema. Una matriz se encuentra escalerizada si cumple con las siguientes condiciones: 1. Todas las filas, salvo (quizás) la primera, comienzan con una sucesión de ceros. 2. Cada fila tiene al principio por lo menos un cero más que la fila inmediata superior.

Se deja para el lector revisar a fondo la bibliografía sobre el método de escalerización, cómo realizarlo y cómo usarlo para resolver el sistema de ecuaciones.

Ejemplo: Se muestra a continuación un ejemplo de matriz escalerizada: \[E = \begin{pmatrix} 3 & 6 & -5 & 1 & 1 & 2 \\ 0 & -2 & -1 & -3 & 3 & 2 \\ 0 & 0 & 1 & 2 & 4 & -3 \\ 0 & 0 & 0 & -2 & -4 & 3 \\ 0 & 0 & 0 & 0 & 1 & 5 \\ 0 & 0 & 0 & 0 & 0 & -2 \end{pmatrix} | \begin{pmatrix} -1 \\ 1 \\ 3 \\ 1 \\-2 \\ 1 \end{pmatrix}\]

Álgebra de matrices

A continuación se definiran algunas operaciones con matrices.

Suma de matrices:

Sean A y B dos matrices de \(m \times n\) con coeficientes \((a_{ij})\) y \((b_{ij})\), \(i = 0,...,m\), \(j = 0,...,n\). Se define la suma de matrices \((+)\) de manera que \(A+B = C\) con \(C\) de coeficientes \((c_{ij})\) y \(c_{ij} = a_{ij} + b_{ij}\). Es importante notar que para sumar dos matrices, deben ser de la misma dimensión.

Ejemplo: La suma de las matrices \(A = \begin{pmatrix} 1 & 2 & 3 \\ 1 & 0 & 0 \\ 0 & 0 & \frac{1}{2} \end{pmatrix}\) y \(B = \begin{pmatrix} 0 & 2 & 1 \\ 0 & 5 & 5 \\ 0 & 4 & \frac{1}{2} \end{pmatrix}\) da como resultado la matriz \[C = \begin{pmatrix} 1 & 4 & 4 \\ 1 & 5 & 5 \\ 0 & 4 & 1 \end{pmatrix}\]

Cada coeficiente de la matriz resultante es la suma de los coeficientes en la misma posición de las matrices sumando.

Resta de matrices:

Sean A y B dos matrices de \(m \times n\) con coeficientes \((a_{ij})\) y \((b_{ij})\), \(i = 0,...,m\), \(j = 0,...,n\). Se define la resta de matrices \((-)\) de manera que \(A-B = C\) con \(C\) de coeficientes \((c_{ij})\) y \(c_{ij} = a_{ij} - b_{ij}\) Es importante notar que para restar dos matrices deben ser de la misma dimensión.

Ejemplo: La resta de \(A = \begin{pmatrix} 1 & 2 & 3 \\ 1 & 0 & 0 \\ 0 & 0 & \frac{1}{2} \end{pmatrix}\) y \(B = \begin{pmatrix} 0 & 2 & 1 \\ 0 & 5 & 5 \\ 0 & 4 & \frac{1}{2} \end{pmatrix}\) da como resultado la matriz \[C = \begin{pmatrix} 1 & 0 & 2 \\ 1 & -5 & -5 \\ 0 & -4 & 0 \end{pmatrix}\]

Cada coeficiente de la matriz resultante es la resta de los coeficientes en la misma posición de las matrices sumando.

Producto de matriz y escalar:

Sea \(\lambda \in \mathbb{R}\) y \(A\) una matriz de dimensión \(m \times n\) y coeficientes \((a_{ij})\). Se define el producto de \(\lambda\) y \(A\) tal que \(\lambda A = B\), donde cada coeficiente \(b_{ij} = \lambda a_{ij}\).

Ejemplo: Sean \(A = \begin{pmatrix} 1 & 2 & 3 \\ 1 & 0 & 0 \\ 0 & 0 & \frac{1}{2} \end{pmatrix}\) y \(\lambda = 3\), la matriz \(B\) que resulta del producto \(\lambda A\) es: \[B = \begin{pmatrix} 3 & 6 & 9 \\ 3 & 0 & 0 \\ 0 & 0 & \frac{3}{2} \end{pmatrix}\]

Producto de matrices:

Sea \(A\) una matriz de \(m \times p\) y \(B\) de dimensión \(p \times n\), se define el producto entre ellas como \(A \cdot B = C\) de dimensión \(m \times n\), con los coeficientes \(c_{ij} = \sum_{h=1}^p a_{ih}b_{hj}\). A diferencia de la suma y la resta, las matrices a multiplicar no necesariamente deben tener iguales dimensiones. Lo que deben cumplir es que sean matrices conformables, la cantidad de columnas de la primera debe ser igual a la cantidad de filas de la segunda.

El producto entre matrices no es conmutativo. Para matrices conformables de distintas dimensiones, si se da vuelta el orden de las matrices a multiplicar, la operación queda mal definida. En caso de poder realizarse el producto con factores conmutados, el resultado es distinto.

Ejemplo: Se muestra el producto entre matrices con un ejemplo, que ayudará a entender mejor las operaciones a realizar.

\(A = \begin{pmatrix} 1 & 2 & 1 \\ 3 & -1 & 2 \\ 1 & -1 & 1 \\ -2 & -3 & -1 \end{pmatrix}\) y \(B = \begin{pmatrix} 1 & 1 \\ 2 & 1 \\ -1 & 1 \end{pmatrix}\)

Para hallar el coeficiente de la fila y columna uno, se toma la primera fila de \(A\) y la primera columna de \(B\). Se multiplican posición a posición y se suman los resultados. La primera fila de \(A\) es \(\begin{pmatrix} 1 & 2 & 1 \end{pmatrix}\) mientras que la columna de \(B\) es \(\begin{pmatrix} 1 & 2 & -1 \end{pmatrix}\). El producto entre ellos posición a posición es \(\begin{pmatrix} 1 & 4 & -1 \end{pmatrix}\). La suma de estos tres valores es \(4\), por lo que \(c_{11} = 4\). Para \(c_{21}\) se toma la segunda fila de \(A\) y la primera columna de \(B\) y se procede de la misma forma.

Repitiendo el procedimiento para todos los \(c_{ij}\), se obtiene una matrix de dimensión \(4 \times 2\), \[C = \begin{pmatrix} 4 & 6 \\ -1 & 4 \\ -2 & 1 \\ -7 & -6\end{pmatrix}\]

Trasposición:

Sea la matriz \(A\) de dimensiones \(m \times n\) con coeficientes \((a_{ij})\), se define la matriz traspuesta \(A^t\) como \(A^t = ((a_{ij}^t)) = ((a_{ji}))\).

Ejemplo: Sea \[A = \begin{pmatrix} 1 & 2 & 1 \\ 3 & -1 & 2 \\ 1 & -1 & 1 \\ -2 & -3 & -1 \end{pmatrix}\] su matriz traspuesta queda: \[A^t = \begin{pmatrix} 1 & 3 & 1 & -2 \\ 2 & -1 & -1 & -3 \\ 1 & 2 & 1 & -1\end{pmatrix}\]

Propiedades de la matriz traspuesta: 1. \((A+B)^t = A^t + B^t\) 2. \((\lambda^t A)^t = \lambda A^t\) 3. \((A\cdot B)^t = B^t \cdot A^t\) 4. \((A^t)^t = A\)

Inversión:

Para definir la inversión de matrices es importante previamente definir la Matriz Identidad. Se le llama identidad de tamaño \(n\) a la matriz de dimensiones \(n \times n\) tal que: \[\mathbb{I}_n = \begin{pmatrix} 1 & 0 & ... & 0 \\ 0 & 1 & ... & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & ... & 1 \end{pmatrix}\]

Tiene unos únicamente en la diagonal, mientras que el resto de los coeficientes son cero. Esta matriz cumple la propiedad de neutro del producto matricial, por lo que \(A\cdot \mathbb{I}_n = \mathbb{I}_n \cdot A = A\).

Se define, ahora sí, una matriz invertible. Se dice que una matriz \(A\) de \(n \times n\) es invertible si y solo si existe una matriz \(B\) de \(n \times n\) tal que \(A\cdot B = \mathbb{I}_n = B \cdot A\).

Las matrices invertibles son sí o sí matrices cuadradas. La matriz \(B\) que multiplicada por \(A\) devuelve la identidad es una matriz única y se le denomina matriz inversa de \(A\), cumpliendo que \(B = A^{-1}\).

Propiedad de la matriz inversa: Sean \(A\) y \(B\) dos matrices cuadradas de dimensión \(n\): \[(A\cdot B)^{-1} = B^{-1} \cdot A^{-1}\]

Determinante de una matriz

El determinante de una matriz cuadrada es un número, real o complejo, que se calcula a partir de cada matriz. Se trabajará con la definición inductiva del determinante, donde para una matriz de tamaño \(n \times n\) se define a partir del determinante de una matriz de \((n-1) \times (n-1)\).

El determinante de \(A\), \(|A|\), de una matriz de \(1 \times 1\) es el propio número. Para una matriz de \(2 \times 2\), \(A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}\) el determinante es el número \(|A| = ad - bc\). Para una matriz de \(n \times n\), el determinante se define como: \[\Rightarrow |A| = (-1)^{1+1} a_{11}|A_{11}|+ ... + (-1)^{i+1}a_{i1}|A_{i1}|+...+(-1)^{n+1}a_{n1}|A_{n1}|\]

Ejemplos:

  1. Calcular el determinante de la siguiente matriz: \(A = \begin{pmatrix} 1 & 1 & 2 \\ 0 & 1 & 1 \\ -1 & 4 & -1 \end{pmatrix}\).

\[\Rightarrow |A| = (-1)^2 (1) \left| \begin{pmatrix} 1 & 1 \\ 4 & -1 \end{pmatrix} \right| + (-1)^3(0) \left| \begin{pmatrix} 1 & 2 \\ 4 & -1 \end{pmatrix} \right| + (-1)^4 (-1) \left| \begin{pmatrix} 1 & 2 \\ 1 & 1 \end{pmatrix} \right|\] \[= -5 + 0 + (-1)(-1) = -4\]

  1. Calcular el determinante de \(B = \begin{pmatrix} 1 & 1 & 2 & 1 \\ 1 & 0 & 2 & 1 \\ 0 & 0 & 4 & 3 \\ 3 & 3 & 3 & 0\end{pmatrix}\)

\[\Rightarrow |B| = (-1)^2(1) \left| \begin{pmatrix} 0 & 2 & 1 \\ 0 & 4 & 3 \\ 3 & 3 & 0 \end{pmatrix} \right| + (-1)^3(1) \left| \begin{pmatrix} 1 & 2 & 1 \\ 0 & 4 & 3 \\ 3 & 3 & 0 \end{pmatrix} \right| + (-1)^4 (0) \left| \begin{pmatrix} 1 & 2 & 1 \\ 0 & 2 & 1 \\ 3 & 3 & 0 \end{pmatrix} \right| + (-1)^5(3)\left| \begin{pmatrix} 1 & 2 & 1 \\ 0 & 2 & 1 \\ 0 & 4 & 3 \end{pmatrix} \right| = 6 + 3 - 6 = 3\]

Los determinantes de las matrices \(3 \times 3\) se calcularon como en el ejemplo \((1)\).

Si bien se definió el determinante utilizando los elementos de la primera columna y sus matrices adjuntas, por propiedades del determinante puede utilizarse cualquier fila o columna que el lector crea conveniente.

El determinante tiene gran importancia en la inversión de matrices. En primera instancia, una matriz cuadrada que tenga determinante cero no es invertible. Además, si se tiene una matriz de \(2 \times 2\) \(A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}\), la matriz inversa se puede calcular como: \[A^{-1} = \frac{1}{|A|} \begin{pmatrix} d & -b \\ -c & a\end{pmatrix}\]

NORMA, PRODUCTO ESCALAR Y PRODUCTO VECTORIAL

Vectores

Un vector \(\vec{x}\) es un elemento geométrico que consiste de una flecha que parte desde el origen y va hasta un punto de dimensión \(n\) determinado por las coordenadas \(x_i\). Los vectores son elementos con módulo (determinado por el largo), dirección y sentido (hacia donde va la flecha), siendo estos dos representables por el ángulo del vector.

El ángulo también se puede utilizar para medir cuánto difieren dos vectores entre sí. Si el ángulo entre ellos es cero, son colineales y apuntan en el mismo sentido. Si es de \(180°\), son colineales pero tienen sentidos opuestos. Si es de \(90°\) o \(270°\) se dice que son ortogonales.

AGREGAR IMAGEN VECTORES

Distancia y norma

Se define la distancia entre dos puntos como la longitud del segmento entre ellos, una función \(d: E \times E \rightarrow \mathbb{R}^+\), que satisface: 1. \(d(A,B) = d(B,A) \: \forall A \in E\) 2. \(d(A,B) = 0 \Leftrightarrow A = B\) 3. \(d(A,C) \leq d(A,B) + d(B,C) \: \forall A,B,C \in E\)

A partir de la distancia, se define la norma de un vector \(v = \vec{AB}\) como la distancia \(d(A,B)\) y se denota como \(||v||\). La norma cumple que: 1. \(||v|| \geq 0; ||v|| = 0 \Leftrightarrow v = \vec{0}\) 2. \(||av|| = |a| ||v|| \: \forall a \in \mathbb{R}, \: \forall v \in V\) 3. \(||u+v|| \leq ||u|| + ||v|| \: \forall u,v \in V\)

En particular, siendo \(A = (x_a, y_a)\) y \(B = (x_b, y_b)\), se define la norma dos como \(||v||_2 = \sqrt{(x_a - x_b)^2 + (y_a - y_b)^2}\).

Producto escalar

Dados los vectores \(u\) y \(v\) de \(V\), se llama producto escalar o producto interno de \(u\) por \(v\) al número escalar \(||u||\,||v|| cos \theta\), donde \(\theta\) es el ángulo BAC de tres puntos tales que \(\vec{AB} = u\) y \(\vec{AC} = v\).

Propiedades: 1. \(u \cdot v = v \cdot u\) 2. \((a \cdot u) \cdot v = a \cdot (u \cdot v) = u \cdot (a \cdot v)\) 3. \((u_1 + u_2) \cdot v = u_1\cdot v + u_2 \cdot v\) 4. \(v \dot v \geq 0 y v \cdot v = 0 \Leftrightarrow v = 0\)

Ortogonalidad y producto escalar:

Dos vectores \(u, v\) son ortogonales si \(u \cdot v = 0\).

Producto vectorial

Se define el producto vectorial como una función \(V \times V \rightarrow V\) que a cada par de vectores \(v, u\) le asocia un vector, que se denota \(v \wedge u\), que cumple: 1. \(||v \wedge u||=||v|| \cdot ||u|| sen \theta\) donde \(\theta\) es el ángulo entre \(v\) y \(u\). 2. \((v\wedge u)\cdot v = 0\) y \((v\wedge u) \cdot u = 0\)

Además, \(v \wedge u = 0\) si y solo si \(v\) y \(u\) son colineales (en particular, si alguno de ellos es el vector \(\vec{0}\)).

TRANSFORMACIONES LINEALES

Sean \(V\) y \(W\) dos espacios vectoriales sobre el mismo cuerpo \(K\). Se define como una transformación lineal a una función \(T: V\rightarrow W\) que cumple: 1. \(T(u+v) = T(u) + T(v)\) \(\forall u, v \in V\). 2. \(T(a\cdot v) = aT(v)\) \(\forall a \in K\), \(\forall v \in V\).

Ejemplo: Sea \(C^1 = \{f: \mathbb{R} \rightarrow \mathbb{R} / f\) es derivable\(\}\) y \(F = \{f: \mathbb{R}\rightarrow \mathbb{R}\}\)

La transformación \(T: C^1 \rightarrow F\) tal que \(T(f) = f'\) es una transformación lineal ya que cumple: 1. \(T(f_1 + f_2) = (f_1+f_2)' = f_1' + f_2' = T(f_1) + T(f_1)\) 2. \(T(\alpha f) = (\alpha f)' = \alpha f' = \alpha T(f)\)

Núcleo e Imagen de una Transformación Lineal

Sean \(V\) y \(W\) espacios vectoriales sobre un mismo cuerpo \(K\) y \(T: V\rightarrow W\) una transformación lineal. Se define el núcleo de la transformación lineal \(T\) al conjunto de \(V\) cuya imagen por \(T\) es el vector nulo \(\Rightarrow N(T) = \{ v \in V: \: T(v) = \vec{0}\}\) La imagen de \(T\) es el conjunto \(Im(T) = \{w \in W: \: \exists v \in V\) con \(w = T(v)\}\)

Geometría de matrices

Se definen un vector \(\vec{x}\) y otro vector \(\vec{y}\) tal que \(y = Ax\). El vector \(\vec{y}\) tendrá coordenadas distintas a las del vector \(\vec{x}\) a menos que \(A\) sea una matriz cuadrada. Por lo tanto, se dice que \(A\) describe una transformación (en particular rotación y escalado) del sistema de coordenadas de \(x\) a un nuevo sistema de coordenadas \(y\).

Para definir las componentes de rotación y escalado de una matriz, conviene comenzar definiendo una matriz ortonormal. Una matriz \(U\) es ortonormal si: \[\mathbf{u}_i^T \mathbf{u}_j = \begin{cases} 1 \; if \;i = j \\ 0 \; if \;i \neq j\end{cases}\]

También se denominan unitarias y cumplen que \(\mathbf{U}^T\mathbf{U}=\mathbf{I}\).

Si se multiplica un vector por estas matrices, no hay escalado si no únicamente rotación dado que las matrices ortonormales preservan los productos internos. Las matrices de rotación son de la forma \[\begin{pmatrix} cos\phi & -sen\phi \\ sen\phi & cos\phi \end{pmatrix}\]

donde \(\phi\) determina el ángulo de rotación.

La transformación de escalado quedará descripta por los valores y vectores propios a tratar en la siguiente sección.

VALORES Y VECTORES PROPIOS

De una transformación lineal:

Sea \(V\) un espacio vectorial sobre el conjunto de escalares \(\mathbb{K}\) y \(T: V \rightarrow V\) una transformación lineal. Se llama vector propio de \(T\), asociado al valor propio \(\lambda \in \mathbb{K}\) a todo vector \(\vec{v} \neq 0\) tal que \(T(v) = \lambda v\).

Los valores propios describen como será el escalado de los vectores en su nuevo espacio vectorial que queda determinado por los vectores propios.

De una matriz:

Sea \(A\) una matriz cuadrada con entradas en \(\mathbb{K}\). Se llama vector propio de \(A\) asociado al valor propio \(\lambda \in \mathbb{K}\) a todo vector no nulo de \(\mathbb{K}^n\) tal que: \[A \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix} = \lambda \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}\]

Proposición: Sean \(V\) un espacio vectorial sobre el cuerpo \(\mathbb{K}\), \(T : V \rightarrow V\) una transformación lineal y \(A\) una matriz asociada a la transformación lineal \(T\). Entonces \(\lambda\) es valor propio de \(T\) si y solo si \(\lambda \in \mathbb{K}\) y \(\text{det} (A - \lambda I) = 0\).

Se le llama polinomio característico de una matriz cuadrada al polinomio representado por \(x_A{\lambda}\) que resulta de calcular \(\text{det} (A-\lambda I)\). La ecuación característica es \(x_A{\lambda} = 0\) y a todas las soluciones de ella se les llama raíces características. Estas soluciones, como se vio previamente, son los valores propios.

Ejemplo: Hallar los valores propios de la matriz \(A\) asociada a la transformación lineal \(T\): \[A = \begin{pmatrix} 2 & -1 & 0 \\ 3 & 2 & 0 \\ 0 & 0 & 1 \end{pmatrix}\]

Se calcula el determinante de \(A - \lambda I\): \[\text{det}(A-\lambda I) = \left| \begin{pmatrix} 2-\lambda & -1 & 0 \\ 3 & 2-\lambda & 0 \\ 0 & 0 & 1-\lambda \end{pmatrix} \right| = (1-\lambda)(\lambda^2-4\lambda + 7) = 0\]

Hallando las raíces de la ecuación previa se obtiene:

\[\Rightarrow \begin{pmatrix} \lambda_1 = 1 \\ \lambda_ 2 = 2 + i\sqrt{3}\\ \lambda_3 = 2 - i\sqrt{3} \end{pmatrix}\]

Para hallar los vectores propios, se sustituye cada uno de los valores propios en la matriz \(A - \lambda I\) para resolver el sistema \[(A - \lambda I) \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ \vdots \\ 0 \end{pmatrix}\]. Será vector propio el vector \(v = \begin{pmatrix}x_1, x_2,...,x_n\end{pmatrix}\) con \(x_1, x_2,...,x_n\) soluciones del sistema.

Diagonalización de una matriz

Se le denomina matriz diagonal a aquellas matrices que todos sus términos por fuera de la diagonal principal son nulos. Se busca llevar una matriz a su forma diagonal, para lo que se calcularán sus valores propios. Si \(A\) tiene \(n\) valores propios reales, se puede definir una matriz \(D\) diagnoal, tal que \(A = P^{-1}DP\) donde \(P\) es una matriz invertible compuesta por los vectores propios en columnas. Además, en ese caso, \(D = \begin{pmatrix} \lambda_1 & 0 & ... & 0 \\ 0 & \lambda_2 & ... & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & ... & \lambda_n \end{pmatrix}\).

La matriz \(D\) es única a menos del orden de \(\lambda_1, \lambda_2, ... , \lambda_n\). A la matriz \(P\) la llamamos base de la transformación a diferencia de \(D\) no es única.

DERIVADA DE LA FORMA CUADRÁTICA

Queremos estudiar la derivada de la forma cuadrática: \(f(x) = \mathbf{x}^T \mathbf{A} \mathbf{x}\) donde \(\mathbf{x}\) es un vector en \(\mathbf{R^m}\) y \(A\) una matriz de dimensión \(m \times m\). Reescribiendo de forma tal que se nombra a la transformada \(\mathbf{A}\mathbf{x}\) como una función \(y(x)\) se llega a que \(f(x,y(x)) = \mathbf{x}^T y(x)\).

Se puede derivar \(f(x)\) usando la fórmula de derivada total, obteniendo que \(f'(x,y(x)) = \frac{\partial f}{\partial x} + \frac{\partial f}{\partial y}y'(x)\).

Para llegar a la expresión final, se realizará el análisis de cada sumando de manera independiente.

En primera instancia, se calcula la derivada \(\frac{\partial f}{\partial x} = \frac{\partial x^T y(x)}{\partial x}\). Tomando \(y(x)\) fijo, la derivada de la expresión es la derivada de un producto interno, por lo que resulta en \(\frac{\partial x^Ty(x)}{\partial x} = y(x)^T = \mathbf{x}^T \mathbf{A}^T\).

El segundo sumando tiene por un lado la derivada de la función \(f\) según \(y\), que siguiendo el procedimiento del previamente explicado es \(\mathbf{x}^T\). Por otro lado, \(y'(x)\) es la derivada del producto de una matriz y un vector, que resulta en la matriz. Por lo tanto, el segundo sumando nos queda \(\frac{\partial f}{\partial y}.y'(x) = \mathbf{x}^T \mathbf{A}\).

Sustituyendo y operando, se obtiene \(f'(x,y(x)) = 2\mathbf{x}^T \mathbf{A}^T\).

Bibliografía

IMERL, Facultad de Ingeniería. n.d.a. “Geometría y Álgebra Lineal i.” https://eva.fing.edu.uy/pluginfile.php/304733/mod_resource/content/2/manual.pdf.
———. n.d.b. “Geometría y Álgebra Lineal II.” https://eva.fing.edu.uy/pluginfile.php/103625/mod_resource/content/1/libro%20rojo.pdf.