Apoyo al curso de Álgebra
Lineal II - 2020
Segundo Semestre de 2020
HORARIO: las
reuniones
serán los jueves entre 15:00 y 16:30.
LUGAR: 
Salón doble 202-204 de la Facultad de Ciencias.
Registro aproximado de los temas
de cada reunión.
-
Semana 1
(Jueves 27 de
agosto). Sumas directas de
subespacios vectoriales.
Operaciones con subespacios
vectoriales. Intersección de subespacios, subespacio
generado por un subconjunto. Suma de subespacios
vectoriales. Ejemplos.
La intersección y la suma son operaciones asociativas,
conmutativas, para las cuales hay un neutro y
también un elemento absorbente.
Enunciado del teorema que relaciona las dimensiones de la
suma y la intersección de dos subespacios con la suma
de las dimensiones de dichos subespacios:
\[\operatorname{dim}\,(W_1+W_2)+\operatorname{dim}\,(W_1\cap
W_2)=\operatorname{dim}\,W_1+\operatorname{dim}\,W_2.\]
Sumas
directas y familias independientes de
subespacios. Definiciones equivalentes de suma
directa: si \(W_1,\ldots,W_k\) son subespacios vectoriales de
dimensión finita de \(V\) y \(W:=W_1+\cdots +W_k\),
entonces las afirmaciones siguientes son equivalentes:
- La suma es directa: \(W_1+\cdots
+W_k=W_1\oplus\cdots \oplus W_k\)
- Si \(0=w_1+\cdots +w_k\), con \(w_i\in W_i\) \(\forall
i=1,\ldots,k\), entonces \(w_i=0\) \(\forall
i=1,\ldots,k\) (la familia \(\{W_1,\ldots,W_k\}\) es independiente)
- Para todo \(l=1,\ldots,k\) se tiene
\( W_l \cap
(W_1+\cdots+W_{l-1}+W_{l+1}+\cdots+W_k)=0\).
- Para todo \(l\) tal que \(k\geq l>1\) se tiene
\( W_l \cap (W_1+\cdots+W_{l-1})=0\).
- \(\operatorname{dim}\,W=\operatorname{dim}\,W_1+\cdots
+\operatorname{dim}\,W_k\).
- Si \(\beta_i\) es base de \(W_i\) para cada
\(i=1,\ldots,k\), entonces
\(\beta:=\beta_1\cup\cdots\cup\beta_k\) es base de \(W\)
Ejemplos: el espacio de los polinomios de grado
menor o igual que \(n\) es la suma directa de su subespacio
de polinomios pares y su subespacio de polinomios
impares. Del mismo modo, el espacio de las matrices
cuadradas de tamaño \(n\) es la suma directa de su
subespacio de matrices simétricas y su subespacio de
matrices antisimétricas. Más en general, si
\(T:V\to V\) es una transformación lineal tal que
\(T^2=Id\), entonces \(V=\ker(T-Id)\oplus\ker(T+Id)\), ya
que cada \(v\in V\) se escribe de forma única como
\[v=\frac{1}{2}(v+Tv)+\frac{1}{2}(v-Tv)\] en tal
descomposición.
-
Semana 2
(Jueves 3 de
setiembre). Inversión de matrices, y matrices asociadas a
transformaciones lineales.
Distintas formas de ver el producto de matrices. Si \(C=AB\),
entonces las columnas de \(C\) son combinaciones lineales de las
columnas de \(A\) de acuerdo a las entradas de \(B\), y las filas
de \(C\) son combinaciones lineales de las filas as de \(B\) de
acuerdo a las entradas de \(A\). Operaciones elementales en las
filas de una matriz: (I) multiplicación de una fila por un
escalar no nulo; (II); (III) suma de un múltiplo de una
fila a otra fila. Cálculo de la inversa a través de
operaciones elementales. Matrices elementales: son las que se
obtienen aplicando las operaciones elementales a la matriz
identidad. Son invertibles. Una matriz es invertible si y
sólo si es producto de matrices elementales.
Cada \(A\in M_{m\times n}(\mathbb{K})\) define una
transformación lineal \(L_A:\mathbb{K}^n\to \mathbb{K}^m\),
dada por \(L_A(x):=Ax\). Cualquier transformación lineal
entre espacios de dimensión finita se puede identificar con
transformaciones de este tipo, siguiendo los pasos
siguientes. Supongamos que \(\alpha:=\{v_1,\ldots,v_n\}\) es una
base del espacio vectorial \(V\). Dado \(v\in V\), existen
únicos \(x_1,\ldots,x_n\in\mathbb{F}\) tales que
\(v=x_1v_1+\cdots+x_nv_n\), lo que permite definir
\(C_\alpha:V\to\mathbb{K}^n\) como
\(C_\alpha(v)=(x_1,\ldots,x_n)\). Resulta que \(C_\alpha\) es un
isomorfismo entre los espacios vectoriales \(V\) y
\(\mathbb{F}^n\). Además es claro que la imagen de la base
\(\alpha\) a través de \(C_\alpha\) es la base
canónica \(c_n\) de \(\mathbb{F}^n\). Supongamos ahora que
\(\beta:=\{w_1,\ldots,w_m\}\) es una base del espacio vectorial
\(W\), y que \(T:V\to W\) es lineal. La matriz asociada a \(T\) en
las bases \(\alpha\) y \(\beta\) es la matriz
\({}_\beta[T]_\alpha\in M_{m\times n}(\mathbb{F})\) cuya
\(j\)-ésima columna es \(C_\beta(T(v))\),
\(\forall j=1,\ldots,n.\) Llamando \(A={}_\beta[T]_\alpha\), se
tiene entonces que \(T=C_\beta^{-1} \circ L_A\circ C_\alpha\). Se
tiene también que si \(S:W\to Z\) es otra
transformación lineal y \(\gamma\) es una base de \(Z\),
entonces \({}_\gamma[S\circ
T]_\alpha={}_\gamma[S]_\beta{}_\beta[T]_\alpha\). En particular se
deduce que, si \(V=Z\) y \(\alpha=\gamma\), y si \(T\) es
invertible, entonces
\({}_\beta[T]_\alpha^{-1}={}_\alpha[T^{-1}]_\beta\)
-
Semana 3
(Jueves 10 de
setiembre). Números complejos. Rango de una
matriz y formas de calcularlo.
Los números complejos surgen de la necesidad de
satisfacer la correspondencia debida entre soluciones a
problemas geométricos y sus correspondientes
algebraicos. Se necesita un "número" \(i\) tal que
\(i^2=-1\). Estructura de cuerpo de
\(\mathbb{C}\). Módulo y
argumento. Conjugación. Representaciones
cartesiana y polar de un número complejo.
Interpretación geométrica de la suma y del producto de
números complejos. Estructuras de espacio vectorial
de \(\mathbb{C}\). Distancia y convergencia de números
complejos. La función exponencial y la fórmula
de Euler. Se puede ver \(\mathbb{C}\) dentro de
\(M_2(\mathbb{R})\) a través del mapa
\(a+bi\mapsto\begin{pmatrix} a&b\\ -b&a\end{pmatrix}\); a
través de dicho mapa la suma y el producto de
números complejos se transforman en la suma y el
producto de las matrices correspondientes, y la
conjugación en la transposición.
Rango de una transformación lineal. El rango por filas
de una matriz coincide con el rango por columnas. El rango de una
transformación lineal coincide con el rango de
cualquiera de sus matrices asociadas. El rango de una
composición de transformaciones es menor o igual a
al rango de cualquiera de las transformaciones
involucradas. Del mismo modo, \(\mathsf{rango}(AB)\leq
\mathsf{rango}(A)\) y \(\mathsf{rango}(AB)\leq
\mathsf{rango}(B)\). El rango es invariante por
composición con isomorfismos; al nivel de matrices,
si \(B\) es invertible, entonces
\(\mathsf{rango}(AB)=\mathsf{rango}(A)=\mathsf{rango}(BA)\). El
Si \(A\in M_{m\times n}\) y \(r=\mathsf{rango}(A)\),
entonces existen matrices
invertibles \(P\in M_m\) y \(Q\in M_n\) tales que
\(PAQ=\begin{pmatrix}Id_r&0_{r\times (n-r)}\\
0_{(m-r)\times r}&0_{(m-r)\times
(n-r)}\end{pmatrix}\). Cálculo del rango usando
determinantes de submatrices: el rango de \(A\) es el
mayor tamaño de las submatrices cuadradas de \(A\)
cuyo determinante es no nulo. Ejemplos y ejercicios varios. -
Semana 4
(Jueves 17 de
setiembre). SUSPENDIDA POR EL PARO GENERAL
-
Semana 5
(Jueves 24 de
setiembre). Dualidad.
Funcionales lineales y ejemplos: traza de matrices,
integral de una funciones continuas, producto escalar con un
vector fijo, etc. Espacio dual. Base dual \(\beta^*\) de una
base dada \(\beta\). El vector \(j\)-ésimo de
\(\beta^*\) es la función "coordenada
\(j\)-ésima" en la base \(\beta\). Expresiones de un
vector y de una funcional en términos de una base y su
dual. Espacio bidual. La evaluaci\'on como isomorfismo
natural. Bases biduales. Toda base de un dual es una base
dual. Mapas duales y matrices transpuestas.
-
Semana 6
(Jueves 1º de octubre).
Sumas directas y proyecciones.
Se dice que una transformación lineal \(P:V\to V\) es
una proyección si \(P^2=P\). En ese caso, si \(v\in
V\), entonces
\(v-P(v)\in\ker P\) y \(P(v)\in \textrm{im}\,P,\) y como
\(v=(v-P(v))+P(v)\), se deduce que \(V=\ker
P+\textrm{im}\,P\). Además \(\ker
P\cap\textrm{im}\,P=0\), porque si \(v\) está en
dicha intersección, entonces \(v=P(v)=0\). Es decir
que \(V=\ker(P)\oplus\textrm{im}\,P\). De esta forma cada
proyección \(P\) induce
una descomposición de \(V\) en suma directa; se
dice que \(P\) es la proyección sobre
\(\textrm{im}P\) a lo largo de \(\ker
P\). Recíprocamente, cada descomposición
\(V=W\oplus Z\) corresponde a la proyección sobre
\(Z\) a lo largo de \(W\), es decir, existe
una proyección \(P:V\to V\) (que es única
por añadidura) tal que \(W=\ker P\) y
\(Z=\textrm{im}\,P\). En efecto, basta definir \(P\) del
modo siguiente: teniendo en cuenta que cada \(v\in V\) se
escribe de manera única como \(v=w+z\) con \(w\in
W\) y \(z\in Z\), se define \(P(v)=z\). De hecho, dada la
descomposición \(V=W\oplus Z\), también se
podría definir la proyección \(Q\) sobre \(W\) a
lo largo de \(Z\) dada -siguiendo con la misma
notación- por \(Q(v)=w\). Como
\(Id(v)=v=w+z=Q(v)+P(v)=(P+Q)(v),\ \forall v\in V\), se tiene
que \(Id=P+Q\), es decir \(Q=Id-P\). En particular se
tiene \(PQ=QP=0.\)
Veamos una
interpretación geométrica de la
proyección sobre \(Z\) a lo largo de \(W\) en el
caso en que \(W\) y \(Z\) son subespacios unidimensionales
de \(\mathbb{R}^2\) tales que \(\mathbb{R}^2=W\oplus
Z\) (tenga un lápiz a mano para realizar los
dibujos necesarios). Como sabemos, \(\mathbb{R}^2\) se
identifica con un plano, y bajo esta identificación
\(W\) y \(Z\) corresponden respectivamente a dos rectas
(distintas) \(r_{{\small W}}\) y
\(r_{{\small Z}}\) que pasan por el origen. Si \(v=(a,b)\)
es un vector cualquiera de \(\mathbb{R}^2\),
trácese por el punto \((a,b)\) la recta \(r\)
paralela a la recta \(r_{{\small W}}\), y sea \((c,d)\) el
punto de intersección de \(r\) con \(r_{{\small
Z}}\) (¿por qué existe y es único?).
Entonces \(P(v)=z:=(c,d)\).
¿Hay alguna generalización de la
correspondencia anterior para descomposiciones en suma
directa que involucren más de dos sumandos? En
efecto la hay. Supongamos que \(V=V_1\oplus\cdots\oplus
V_k\). Dado \(v\in V\), existen únicos \(v_1\in
V_1,\ldots,v_k\in V_k\) tales que
\(v=v_1+\cdots+v_k\). Definamos entonces las
transformaciones lineales \(P_j:V\to V\)
tal que \(P(v)=v_j\). Se deduce de la discusión
anterior que el conjunto \(\{P_1,\ldots,P_k\}\) tiene las
siguientes propiedades:
- Cada \(P_j\) es una proyección, es decir:
\(P_j^2=P_j\), \(\forall j=1,\ldots,k\).
- Las proyecciones \(P_j\) son "ortogonales dos a dos",
es decir: \(P_iP_j=0=P_jP_i\) si \(i\neq j\).
- \(P_1+\cdots+P_k=Id\).
Una familia \(\{P_1,\ldots,P_k\}\) de transformaciones lineales
en \(V\) que satisfaga las tres propiedades anteriores se
llama resolución de la identidad en
\(V\).
Así como cada descomposición \(V=V_1\oplus\cdots\oplus
V_k\) da lugar a una resolución de la identidad,
cada resolución de la identidad da lugar a una tal
descomposición (y las correspondencias así
establecidas son inversas entre sí). En efecto,
supongamos que \(\{P_1,\ldots,P_k\}\) es una
resolución de la identidad en \(V\), y para cada
\(j=1,\ldots,k\) sea \(V_j=P_j(V)\). Como es
\(P_1+\cdots+P_k=Id\), se deduce inmediatamente que
\(V=V_1+\cdots+V_k\); Por otro lado, los espacios \(V_j\)
son independientes entre sí, puesto que si
\(0=v_1+\cdots+v_k\), con \(v_j\in V_j\) \(\forall
j=1,\ldots,k\), y teniendo en cuenta que \(P_j(v_j)=v_j\)
\(\forall j\), entonces de las dos primeras propiedades de las
resoluciones de la identidad se deduce que
\begin{gather*}0=P_j(v)=P_j\big(\sum_{i=1}^kv_i\big)
= P_j\big(\sum_{i=1}^kP(v_i)\big)
= \sum_{i=1}^kP_jP(v_i)
= \sum_{i=1}^k\delta_{ij}v_i
=v_j,
\end{gather*}
\(\forall j=1,\ldots,k.\)
-
Semana 7
(Jueves 8 de octubre).
Conjugación; adjunción de operadores
-
Semana 8
(Jueves 15 de octubre).
Ortogonalidad
-
Semana 9
(Jueves 22 de octubre).
Formas bilineales simétricas y diagonalización.
-
Semana 10
(Jueves 29 de octubre).
Más sobre diagonalización. Armando
cuadrados, o método de Lagrange.
-
Semana 11
(Jueves 5 de noviembre).
Diagonalización vía matrices
ortogonales. Aplicación a la
clasificación de superficies cuádricas y
de puntos críticos.
-
Semana 12
(Jueves 12 de noviembre).
Espacios cociente I.
Relaciones de equivalencia compatibles con la estructura
vectorial. Definición y primeros ejemplos de espacios
cociente. La proyección canónica es lineal y
sobreyectiva. Dimensión del espacio cociente.
-
Semana 13
(Jueves 19 de noviembre).
Espacios cociente II.
Propiedad universal del espacio cociente. Nuevos ejemplos de
espacios cociente e identificaciones con espacios conocidos:
ejemplos geométricos, en espacios de matrices,
en espacios de polinomios. De manera general: si
\(V=W\oplus W'\), entonces \(V/W\cong W'\).
-
Semana 14
(Jueves 26 de noviembre).
Espacios cociente III.
Considérese un subespacio \(W\) del espacio vectorial
\(V\), y llamemos \(\pi:V\to V/W\) a la
proyección canónica. Sean
\(\alpha:=\{v_1,\ldots,v_k\}\) una base de \(W\), y
\(\beta:=\{v_{k+1},\ldots,v_n\}\) tal que
\(\pi(\beta)=\{\pi(v_{k+1}),\ldots,\pi(v_n)\}\) es base de
\(V/W\). Sean \(W_\beta\) el subespacio de \(V\) generado por
\(\beta\), y \(\mu_\beta:V/W\to V\) la
transformación lineal tal que
\(\mu_\beta(\pi(v_j))=v_j\), \(\forall
j=k+1,\ldots,n\). Entonces: \(\mu_\beta\) es inyectiva con
imagen \(W_\beta\), y \(V=W\oplus W_\beta\). En particular
\(\gamma:=\alpha\cup\beta\) es base de \(V\). Además
\(\pi\circ\mu_\beta=Id_{V/W}\), y
\(\mu_\beta\circ \pi\) es la proyección sobre
\(W_\beta\) a lo largo de \(W\). Supongamos que
\(T\in\mathcal{L}(V)\) es tal que \(T(W)\subseteq W\), y sea
\(\overline{T}\in\mathcal{L}(V/W)\) el mapa inducido por \(T\), es
decir, la única transformación lineal
\(\overline{T}:V/W\to V/W\) que satisface \(\pi\circ
T=\overline{T}\circ\pi\). Entonces \([T]_\gamma=\begin{bmatrix}
[T|_W]_\alpha&[*]_{k\times(n-k)}\\ [0]_{(n-k)\times
k}&[\overline{T}]_{\pi(\beta)}\end{bmatrix}\). Aplicación:
si \(V\) es un espacio vectorial de dimensión finita
\(n\) sobre un cuerpo algebraicamente cerrado,
entonces para toda \(T\in\mathcal{L}(V)\) existe una base
\(\gamma\) de \(V\) en la cual \([T]_\gamma\) es triangular
superior, es decir, todas las entradas de \([T]_\gamma\) debajo
de la diagonal principal son nulas (formalmente, si
\([T]_\gamma=[a_{ij}]\), entonces \(a_{ij}=0\) si \(i>j\)).
-
Semana 15
(Jueves 3 de diciembre).
Espacios cociente IV y popurrí.
Cocientes de espacios con producto interno.
Última modificación: Lunes 30 de noviembre
de 2020
Página mantenida por
Fernando Abadie