El teorema de descomposición polar real - [Detalles]
En esta entrada veremos una de las consecuencias de el teorema espectral: el teorema de descomposición polar. Veremos que toda matriz $A$ tendrá una expresión de la forma $A = US$ donde $U$ es una matriz ortogonal y $S$ es una matriz simétrica positiva.
Diferencia y diferencia simétrica de conjuntos - [Detalles]
Vemos las definiciones diferencia y diferencia simétrica de conjuntos, además damos algunos ejemplos
Nota 5. Leyes de De Morgan y la diferencia simétrica. - [Detalles]
En esta nota vemos las Leyes de De Morgan las cuales nos hablan de como se comporta el complemento de un conjunto con las operaciones de unión e intersección. También vemos dos nuevas operaciones: la diferencía de conjuntos y la diferencía simétrica de conjuntos.
Diferencia simétrica - [Detalles]
En esta sección hablaremos de una nueva operación entre conjuntos: la diferencia simétrica. Abordaremos este tema demostrando algunos resultados con ayuda del álgebra de conjuntos, algunos otros los probaremos con el método de demostración habitual.
Leyes de De Morgan y diferencia simétrica de conjuntos - [Detalles]
En esta entrada hablamos de la diferencia y diferencia simétrica entre conjuntos, las leyes de De Morgan y un resumen de las propiedades de conjuntos.
La matriz de coeficientes de un sistema de ecuaciones - [Detalles]
Explicamos y definimos una matriz de tamaño NxM (arreglos rectangulares de números). Damos la representación matricial de un sistema lineal, la cual es una matriz conformada por los coeficientes del sistema (matriz de coeficientes). Definimos la matriz aumentada y explicamos como usarla para resolver sistemas lineales.
La exponencial de una matriz y la matriz fundamental de soluciones - [Detalles]
Relacionamos la exponencial de una matriz A de coeficientes constantes con la matriz fundamental de soluciones al sistema lineal homogéneo que tiene a A como matriz asociada.
Teorema de Sylvester - [Detalles]
En esta entrada introduciremos la noción de la signatura de una matriz. A grandes rasgos, esta noción nos dice «qué tan positiva» es una matriz simétrica. Para definir esta noción, lo haremos primero para las matrices diagonales. Luego lo definiremos para todas las matrices simétricas a través del teorema que demostramos la entrada anterior.
Exponencial de una matriz y matriz fundamental de soluciones - [Detalles]
Se define el concepto de exponencial de una matriz y se ve su utilidad en los sistema lineales además de probar que es una matriz fundamental de soluciones a estos sistemas lineales
Determinante de una matriz de $4 imes 4$ y moraleja final - [Detalles]
Vemos como calcular el determinante de la matriz de 4x4 mediante el método por cofactores (damos tips para reducir el número de operaciones). También explicamos lo que significa que el determinante de una matriz sea cero.
Sistemas lineales homogéneos con coeficientes constantes. Matriz no diagonalizable - [Detalles]
Consideramos el caso cuando la matriz asociada al sistema tiene valores propios repetidos y NO es diagonalizable. Definimos a los vectores propios generalizados de una matriz, desarrollamos un algoritmo mediante el cual encontramos n soluciones linealmente independientes al sistema, y por tanto la solución general.
Contando caminos con la matriz de adyacencia - [Detalles]
Definimos la matriz de adyacencia de una gráfica G, y probamos que la k'esima potencia de esta matriz cuenta el número de caminos de longitud k que existen de un vértice a otro en G.
Tipos de relaciones entre conjuntos - [Detalles]
Hablamos de relaciones de conjuntos muy especiales, la relación identidad, la inversa de una relación, relación reflexiva, relación simétrica, relación transitiva y relación de equivalencia y damos un ejemplo de cada una.
Diapositivas sobre operaciones de conjuntos - [Detalles]
Definimos las operaciones de conjuntos básicas tales como la unión, la intersección, la diferencia, la diferencia simétrica, el complemento y en base a ejemplos incentivamos algunas propiedades de estas operaciones, no se demuestran de manera formal pues se busca que el lector se apropié primero de las definiciones.
Propiedades del producto cartesiano (parte II) - [Detalles]
En esta sección vamos a ver otras de las propiedades del producto cartesiano. Estas propiedades hacen referencia al comportamiento del producto cartesiano con respecto a las operaciones que definimos antes: unión, intersección, diferencia y diferencia simétrica.
La solución de un sistema con matriz en forma escalonada reducida - [Detalles]
Describimos la solución para un sistema con matriz en forma escalonada reducida. Discutimos los diferentes casos donde se tiene o no solución a los sistemas en forma escalonada.
Matriz transpuesta y propiedades de las operaciones matriciales - [Detalles]
Definimos la traspuesta de una matriz y discutimos sus propiedades. También discutimos varias propiedades algebraicas de las operaciones de matrices: Asociatividad, conmutatividad, distributividad y otras propiedades asociadas a las operaciones de matrices con escalares.
Definimos el determinante de una matriz y describimos la forma para calcular el determinante de una matriz de 2x2.
La exponencial de una matriz - [Detalles]
Definimos la exponencial de una matriz con coeficientes constantes.
Propiedades de la exponencial de una matriz - [Detalles]
Analizamos las principales propiedades que cumple la exponencial de una matriz cuadrada con coeficientes constantes, además de relacionarla con los problemas de condición inicial para sistemas lineales de primer orden.
Método de valores y vectores propios para diagonalizar una matriz con valores propios distintos - [Detalles]
Desarrollamos el método de valores y vectores propios considerando una matriz A diagonalizable, cuyo polinomio característico asociado tiene n raíces distintas.
Diagonalización de una matriz con valores propios distintos (Ejemplo) - [Detalles]
Ponemos en práctica el método de valores y vectores propios diagonalizando una matriz cuyos valores propios son todos distintos.
Diagonalización de una matriz con valores propios repetidos (Ejemplo) - [Detalles]
Mediante un ejemplo analizamos el caso de una matriz A diagonalizable cuyos valores propios no son todos distintos.
Sistemas lineales homogéneos con coeficientes constantes. Matriz no diagonalizable (Ejemplos) - [Detalles]
Resolvemos un par de ejemplos de sistemas cuya matriz asociada tiene valores propios repetidos y NO es diagonalizable.
Diapositivas sobre sistemas de ecuaciones lineales, sus soluciones y su matriz de coeficientes - [Detalles]
Comenzamos el tema con la definición de lo que es un sistema de ecuaciones lineal,; hablamos un poco sobre las soluciones de estos sistemas, su geometría e interpretación analítica y cualitativa. Damos un repaso al tema de matrices, recordeando las operaciones elementales, las operaciones renglón y asociamos en una matriz los coeficientes del sistema de ecuaciones lineal.
Diapositivas sobre matrices y operaciones - [Detalles]
Mostramos estos arreglos llamados matrices, su notación, las diferentes operaciones que se pueden efectuar con ella como: suma, resta, multiplicación de matrices, producto por un escalar y las hipótesis que se deben cumplir para efectuar estas operaciones. Mostramos unas matrices especiales como los vectores, la matriz identidad y la matriz transpuesta junto con las propiedades de esta última.
Diapositivas sobre determinantes - [Detalles]
Definimos el determinante de una matriz con esta definición mostramos como se calcula para dimensiones de 3 (regla de Sarrus y cofactores) y para dimensiones mayores a 3, para dimensiones menores es muy fácil realizar el cálculo. Enunciamos las propiedades que cumple el determinante y entre estas proposiciones la condición del determinante para mostrar si una matriz es invertible. Finalmente demostramos una proposición sobre unas matrices especiales que son las triangulares y como estas matrices sin importar su dimensión ni si son triangularrs superiores o inferiores su determinante da una fórmula sencilla que es el producto de las entradas de la diagonal.
Diapositivas sobre operaciones matriciales - [Detalles]
Continuamos construyendo la definición de una matriz pero ahora definimos sus operaciones básicas somo la suma y multiplicación de dos matrices también su multiplicación por escalar, también hablamos que una matriz de nx1 o también llamado vector columna es un vector con n entradas que se ocupa para hablar de un elemento de Rn.
Multiplicación escalar por matriz - [Detalles]
Definimos y explicamos la multiplicación de un escalar por una matriz. Damos algunos ejemplos y los errores comunes que se pueden cometer.
Definimos el determinante de una matriz y describimos la forma para calcular el determinante de una matriz de 2x2.
Triangularizar y descomposición de Schur - [Detalles]
En esta entrada estudiaremos el concepto de triangularizar matrices. Esto simplemente quiere decir encontrar una base respecto a la cual podamos escribir a nuestra matriz como una matriz triangular superior. Como veremos, el concepto de triangularización está íntimamente ligado con los ceros de polinomios.
En la entrada anterior estudiamos la triangularización de matrices, que consistía en llevar matrices a una forma triangular superior. En esta fortaleceremos esta idea, y buscaremos maneras de llevar una matriz a una matriz diagonal: a este proceso se le conoce como diagonalizar.
Matrices de formas bilineales - [Detalles]
En esta entrada formalizaremos la relación entre formas bilineales y matrices. Veremos cómo se define la matriz asociada a una forma bilineal y cómo podemos traducir operaciones con la forma bilineal en operaciones con su matriz asociada.
Dualidad y representación de Riesz en espacios euclideanos - [Detalles]
En esta entrada veremos como se relacionan los conceptos de espacio dual y producto interior. Lo primero que haremos es ver cómo conectar la matriz que representa a una forma bilineal con una matriz que envía vectores a formas lineales. Después, veremos una versión particular de un resultado profundo: el teorema de representación de Riesz. Veremos que, en espacios euclideanos, toda forma lineal se puede pensar «como hacer producto interior con algún vector».
Matrices como transformaciones lineales - [Detalles]
Definimos qué es una transformación lineal. Vemos que a cualquier matriz se le puede asociar una transformación lineal, y viceversa.
Producto de matrices y composición de sus transformaciones - [Detalles]
Definimos al producto de matrices como la matriz asociada a su composición como transformaciones. Probamso la regla del producto y propiedades básicas.
Matrices invertibles - [Detalles]
Damos la definición de matrices invertibles. Probamos propiedades básicas y esbozamos un método inicial para encontrar la inversa de una matriz.
Problemas de transpuesta de matriz y matrices de bloque - [Detalles]
None
Forma escalonada reducida - [Detalles]
Definimos que una matriz esté en forma escalonada reducida. Vemos cómo resolver su sistema lineal asociado. Hablamos de operaciones y matrices elementales.
Teorema de reducción gaussiana - [Detalles]
Demostarmos el teorema de reducción gaussiana, mostrando algoritmicamente que toda matriz puede ser llevada a una equivalente en forma escalonada reducida.
Reducción gaussiana para determinar inversas de matrices - [Detalles]
Damos equivalencias útiles de matrices invertibles. Usamos reducción gaussiana para ver si una matriz es invertible y determinar inversas de matrices.
Bases duales, recetas y una matriz invertible - [Detalles]
Probamos que las formas coordenadas de una base son base del espacio dual. Vemos problemas prácticos de bases duales y una relación con matrices invertibles
Ortogonalidad y transformación transpuesta - [Detalles]
Definimos la noción de transformación transpuesta. Vemos propiedades básicas, su kernel, su imagen y que su matriz es la transpuesta de la original.
Se define la forma escalonada de una matriz NxM (también se define la forma escalonada reducida), y se dan varios ejemplos de matrices escalonadas, así como ejemplo de matrices que no están en su forma escalonada.
Proceso de reducción de Gauss-Jordan - [Detalles]
Se describe el proceso de reducción de Gauss-Jordan, el cual consiste en usar operaciones elementales para dar la forma escalonada reducida de la matriz aumentada de un sistema lineal y dar la solución al sistema usando su forma escalonada reducida.
Operaciones con matrices - [Detalles]
Explicamos la suma de matrices y la multiplicación de una matriz por un escalar. También damos la definición de un vector y el producto punto. Explicamos de manera sencilla la multiplicación de matrices.
Determinantes de matrices $3 imes 3$: dos métodos diferentes - [Detalles]
Describimos dos métodos para calcular el determinante de la matriz de 3x3. El método por cofactores y otro método por la regla de Sarrus (el cual es un método para matrices de 3x3).
La exponencial de una matriz diagonalizable. Conceptos elementales - [Detalles]
Definimos los conceptos necesarios para desarrollar el método de vectores y valores propios, y los relacionamos con el problema de calcular la exponencial de A.
Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes - [Detalles]
Encontramos la solución general a un sistema lineal homogéneo con coeficientes constantes en términos de los valores y vectores propios de la matriz asociada A, si esta es diagonalizable.
Sistemas lineales homogéneos con coeficientes constantes. Valores propios distintos (Ejemplos) - [Detalles]
Resolvemos un par de ejemplos de sistemas lineales homogéneos con coeficientes constantes cuando los valores propios de la matriz asociada son reales y distintos.
Sistemas lineales homogéneos con coeficientes constantes. Valores propios complejos - [Detalles]
Analizamos el caso cuando la matriz asociada al sistema tiene valores propios complejos. Encontramos dos soluciones reales dada una solución compleja formada con un valor y un vector propios complejos.
Sistemas lineales homogéneos con coeficientes constantes. Valores propios complejos (Ejemplos) - [Detalles]
Resolvemos un par de ejemplos de sistemas lineales homogéneos con coeficientes constantes cuando los valores propios de la matriz asociada son complejos.
Sistemas lineales homogéneos con coeficientes constantes. Valores propios repetidos y diagonalizable - [Detalles]
Consideramos el caso cuando la matriz asociada al sistema homogéneo con coeficientes constantes es diagonalizable y tiene valores propios repetidos. Además resolvemos un par de ejemplos.
Plano fase para sistemas lineales con valores propios repetidos - [Detalles]
Analizamos el plano fase para sistemas lineales con valores propios repetidos, dependiendo si la matriz asociada al sistema es diagonalizable o no.
El plano traza - determinante - [Detalles]
Clasificamos los planos fase y puntos de equilibrio de sistemas de ecuaciones homogéneas con coeficientes constantes, según la traza y el determinante de la matriz asociada al sistema.
Sistemas lineales homogéneos con coeficientes constantes – Valores propios distintos - [Detalles]
Se estudia el primer caso del método de valores y vectores propios correspondiente al caso en el que los valores propios de la matriz del sistema lineal son todos reales y distintos
Sistemas lineales homogéneos con coeficientes constantes – Valores propios complejos - [Detalles]
Se continua con el segundo caso del método de valores y vectores propios correspondiente al caso en el que los valores propios de la matriz del sistema son complejos
Sistemas lineales homogéneos con coeficientes constantes – Valores propios repetidos - [Detalles]
Se finaliza el método de valores y vectores propios con el caso en el que los valores propios de la matriz del sistema son algunos repetidos y se presenta el teorema de Cayley-Hamilton
Mini-cuestionario: Matrices como transformaciones lineales - [Detalles]
Mini-cuestionario para verificar el entendimiento de cómo una matriz está asociada a una transformación lineal y viceversa.
Mini-cuestionario: Matrices de bloque - [Detalles]
Mini-cuestionario para verificar el entendimiento de la noción de matriz de bloque y sus propiedades
Mini-cuestionario: Forma escalonada reducida - [Detalles]
Mini-cuestionario para verificar el entendimiento de la noción de que una matriz esté en forma escalonada reducida, y cómo se relaciona con la solución del sistema asociado.
Mini-cuestionario: Matrices invertibles mediante sistemas de ecuaciones - [Detalles]
Mini-cuestionario para verificar el entendimiento de cómo usar el procedimiento de reducción gaussiana para encontrar la inversa de una matriz
Diapositivas sobre la forma escalonada y el proceso Gauss-Jordan - [Detalles]
Hablamos sobre lo que es una matriz escalonada y se muestra el procedimiento de reducción de Gauss-Jordan y sobre cómo este proceso repercute para encontrar la solución a un sistema de ecuaciones lineal y sobre de el mostramos el análisis cualitativo del sistema de ecuaciones si tiene solución o si es incosistente, de esa forma también damos la definición de un sistema homogéneo.
Diapositivas sobre soluciones a sistemas de ecuaciones - [Detalles]
En estas diapositivas mostramos más ejemplos sobre cómo proceder para encontrar el conjunto de solución, desde pasar a una matriz a su forma escalonada reducida, si este conjunto es vacío o no.
Diapositivas sobre matrices - [Detalles]
Definimos lo que es una matriz y definimos el espacio de matrices de "n" renglones por "m" columnas y algunas matrices cuadradas especiales de este espacio.
Cuestionario sobre matrices - [Detalles]
Ponemos en práctica los primeros conocimientos de lo que es una matriz y sobre este nuevo espacio a estudiar, al resolver el cuestionario lanza la calificación para que el alumno pueda ver que áreas necesita repasar.
Cuestionario sobre determinantes - [Detalles]
Ponemos en práctica la resolución de problemas que involucren el cálculo de determinantes de una matriz y especialmente en el método de Sarrus, al resolver el cuestionario lanza la calificación para que el alumno pueda ver que áreas necesita repasar.
Determinantes de matrices 3x3 Dos métodos Diferentes - [Detalles]
Describimos dos métodos para calcular el determinante de la matriz de 3x3. El método por cofactores y otro método por la regla de Sarrus (el cual es un método para matrices de 3x3).
Mini-cuestionario: Bases duales, recetas y una matriz invertible - [Detalles]
Mini-cuestionario para verificar el entendimiento de qué es una base dual y cómo realizar varias operaciones relacionadas con bases duales.
Mini-cuestionario: Ortogonalidad y transformación transpuesta - [Detalles]
Mini-cuestionario para verificar el entendimiento de cómo se define la transformación transpuesta en términos del espacio dual y qué matriz la representa.
Demostración del teorema de Cayley-Hamilton - [Detalles]
En esta entrada demostraremos el teorema de Cayley-Hamilton. Daremos dos demostraciones de sabores muy diferentes. La primera demostración explota las propiedades de la matriz adjunta, mientras que la segunda echa mano de las familias especiales de las cuales calculamos el polinomio característico.
Aplicaciones del teorema de Cayley-Hamilton - [Detalles]
En esta entrada veremos ejemplos y aplicaciones del teorema de Cayley-Hamilton, como encontrar la inversa de una matriz o su polinomio mínimo.
Matrices positivas y congruencia de matrices - [Detalles]
En esta entrada veremos como se relacionan las ideas de matrices asociadas a formas bilineales con el producto interior y espacio euclideano, así como sus análogos complejos. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).
El teorema espectral real - [Detalles]
En esta entrada enunciaremos y demostraremos el teorema espectral en el caso real. Una de las cosas que nos dice es que las matrices simétricas reales son diagonalizables. También nos garantiza que la manera en la que se diagonalizan es a través de una matriz ortogonal. Además, gracias al teorema espectral podremos, posteriormente, demostrar el famoso teorema de descomposición polar que nos dice cómo son todas las matrices.
Introducción a forma canónica de Jordan - [Detalles]
En esta última unidad usaremos las herramientas desarrolladas hasta ahora para enunciar y demostrar uno de los teoremas más hermosos y útiles en álgebra lineal: el teorema de la forma canónica de Jordan. A grandes rasgos, lo que nos dice este teorema es que cualquier matriz prácticamente se puede diagonalizar.
Aplicaciones de la forma canónica de Jordan - [Detalles]
En las entradas anteriores demostramos que cualquier matriz (o transformación lineal) tiene una y sólo una forma canónica de Jordan. Además, explicamos cómo se puede obtener siguiendo un procedimiento específico. Para terminar nuestro curso, platicaremos de algunas de las consecuencias del teorema de Jordan.
Diferenciabilidad en campos vectoriales - [Detalles]
Definimos diferenciabilidad en campos vectoriales. La relacionamos con derivadas parciales, direccionales y la matriz jacobiana.
Puntos críticos de campos escalares - [Detalles]
Desarrollamos cómo entender los valores extremos (máximos y mínimos) de campos escalares en términos del gradiente y la matriz hessiana.