sábado, 5 de diciembre de 2015

5.4 Aplicacion de las transformaciones lineales:Reflexion , dilatacion, contraccion , y rotacion.

TRANSFORMACIONES LINEALES Y MATRICES 
Comenzamos definiendo una tranformación lineal. Ejemplos típicos son la derivada y la integral, al igual que lasproyecciones. Definimos el kernel rango de una transformación lineal T : V  ® W y los denotamos por N(T) y R(T) respectivamente. Es un ejercicio verificar que N(T) £ V y R(T) £ W. Definimos nulidad(T) = dim(N(T)) y rango(T) = dim(R(T)).
TEOREMA 2.1 Si T : V  ® W es una transformación lineal, entonces V es dimensionalmente finito si y sólo si N(T) yR(T) son dimensionalmente finitos, y en este caso,
dim(V) = nulidad(T) + rango(T).
Demostración
Dados dos espacios vectoriales V y W sobre un campo F, definimos
L(VW) = {T : V ® W | T es una transformación lineal}.
Si T, U Î L(VW) y a Î F, definimos aT + U : V ® W como (aT + U)(x) = aT(x) + U(x) para toda x Î F. Es un ejercicio verificar que aT + U es una transformación lineal y que L(VW), junto con estas operaciones de suma y de multiplicación por escalares, es un espacio vectorial sobre F.
Definimos el que una función fuera inyectiva, sobre biyectiva. Es un ejercicio demostrar que para una transformación lineal T : V ® W, las siguientes condiciones son equivalentes:
  • T es inyectiva
  • N(T) = {0} (es decir, nulidad(T) = 0)
  • Para todo S ê VS es linealmente independiente si y sólo si T(Sê W es linealmente independiente
También se deja como ejercicio el verificar que si V y W son dos espacios vectoriales con la misma dimensión (finita) y T : V ® W es una transformación lineal, entonces T es inyectiva o sobre si y sólo si es biyectiva.
Una transformación lineal es una función que preserva la estructura algebraica de espacio vectorial, por lo que no toda función entre espacios vectoriales es una transformación lineal. De hecho, es sencillo encontrar funciones inyectivas, sobre, y biyectivas que no son transformaciones lineales. Esto motiva las definiciones de monomorfismo,epimorfismo isomorfismo.
LEMA 2.2 Sean V y W dos espacios vectoriales sobre un campo FSupongamos que V es dimensionalmente finito y que b = {x1, ..., xnes una base de VEntonces para todo {y1, ..., yní Wexiste una unica transformación lineal T : V® W tal que T(xi) = yi para toda i = 1, ..., n.
TEOREMA 2.3 En la categoría de los espacios vectoriales dimensionalmente finitos, la dimensión es un invariante completo de isomorfismo. Es decir, para cualesquiera dos espacios vectoriales dimensionalmente finitos V y W sobre un campo Fexiste un isomorfismo entre V y W si y sólo si dim(V) = dim(W).
Sea V un espacio vectorial dimensionalmente finito sobre un campo F y sea b = (x1, ..., xm) una base ordenada de V. Para cada x Î V, existen escalares únicos a1, ..., am Î F tales que x = a1x1 + ... + amxm. Definimos al vector coordenado de x relativo a b como
x ]b =(
a1
:
am
),
Es fácil ver que el mapeo x |® [ x ]b constituye un isomorfismo ç : V ® Mn x 1(F).
Sean V y W dos espacio vectoriales dimensionalmente finitos sobre un campo Fb = {x1, ..., xm} una base ordenada de V y g = {y1, ..., xn} una base ordenada de W. Para cada T Î L(VW), definimos la matriz asociada a T con respecto a las bases ordenadas b y g como
[T]
g
b
=([T(x1)]g ... [T(xm)]g).
Por otro lado, dada una matriz A Î Mn x m(F), la función LA : Fm ® Fn definida por LA(x) = Ax, es una transformación lineal (ejercicio).
TEOREMA 2.4 Sean V y W dos espacio vectoriales dimensionalmente finitos sobre un campo Fb = {x1, ..., xmuna base ordenada de V y g = {y1, ..., ynuna base ordenada de WEntonces el mapeo T |® [T]bg constituye un isomorfismo F : L(VW® Mn x m(F). Más aún, para toda A Î Mn x m(F), se tiene que F-1(AΠL(VWes tal que [F-1(A)]bg = A.
Sean V y W dos espacios vectoriales sobre un campo F. Si T Î L(VW), entonces existe una matriz asociada a T por cada par de bases ordenadas b y g de V y W respectivamente. El siguiente teorema (cambio de coordenadas) establece la relación entre estas matrices.h
TEOREMA 2.5 Sean V y W dos espacio vectoriales dimensionalmente finitos sobre un campo F. Si bbson dos bases ordenadas de V y g gson dos bases ordenadas de W, entonces existe una matriz invertible Q tal que . Entonces el mapeo T |® [T]bg constituye un isomorfismo F : L(VW® Mn x m(F). Más aún, para toda A Î Mn x m(F), se tiene queF-1(AΠL(VWes tal que [F-1(A)]bg = A.

5.3 La matriz de una transformacion lineal

Si bien las transformaciones lineales pueden estudiarse sin hacer referencia alguna a las bases de los espacios dominio y codominio, un cálculo efectivo de las mismas exige el conocimiento de dichas bases.

Cualquier transformación lineal T: V 
® W puede representarse mediante una matriz: T(x) = A x. La matriz A dependerá de las bases elegidas para V y W. La matriz de una transformación lineal queda determinada cuando se conocen una base ordenada de V, una base ordenada de W y los transformados de la base de V, en la base de W.

Supongamos que el espacio V tiene una base {v1, ..., vn} y el espacio W tiene una base {w1, ..., wm}. Entonces cualquier transformación lineal de V en W se representa por una matriz A m x n.
Si T (v) = ai1 w1 + .... + aim wmentonces la columna i de A es (ai1 .... aim )T


Supongamos que en el plano x-y la transformación de matriz A lleva a cada vector a su reflejo tomando como espejo el eje x, y la transformación de matriz B lleva a cada vector a su simétrico respecto del origen. Encontrar las matrices A y B, usando como base de R2el conjunto {(1, 0), (0, 1)}.

a) ¿ Matriz A?

        Transformado de (1, 0) = (1, 0)
        Transformado de (0, 1) = (0, -1)  
     Entonces la matriz la matriz de la transformación es: 
b) ¿ Matriz B?

        Transformado de (1, 0) = (-1, 0)
        Transformado de (0, 1) = (0, -1)
     Entonces la matriz la matriz de la transformación es:

 
Encontrar A3x5 asociada a la transformación lineal P5 ® P3 / T (P(t)) = d2 P(t) /dt2, transformando P5 en P3 (polinomios de grado  4 en polinomios de grado  2).

Base en P5: {1, t, t2, t3, t4}. Base en P3: {1, t, t2}

     Transformado de (1, 0, 0, 0, 0) = ( 0, 0, 0)
     Transformado de (0, 1, 0, 0, 0) = ( 0, 0, 0)
     Transformado de (0, 0, 1, 0, 0) = ( 2, 0, 0)
     Transformado de (0, 0, 0, 1, 0) = ( 0, 6, 0)
     Transformado de (0, 0, 0, 0, 1) = ( 0, 0, 12) 
Entonces la matriz la matriz de la transformación es: 

5.2 Nucleo e imagen de una transformacion lineal






Transformaciones lineales: núcleo e imagen.

Teorema  1

Sea Tuna transformación lineal. Entonces para todos los vectores uvv1,
v2, . . . , ven y todos los escalares a1a2, . . . , an:
i. T(00
ii. T(vTTv
iii. T(a1v+ a2v+. . .+ anvn= a1Tv+ a2Tv+. . .+ anTvn
Nota. En la parte i) el de la izquierda es el vector cero en V; mientras que el de la
derecha es el vector cero en W.


Teorema 2

Sea un espacio vectorial de dimensión finita con base {v1v2, . . . , vn}. Sean w1,
w2, . . . , wvectores en W. Suponga que TTson dos transformaciones lineales de V
en tales que T1vT2vwpara 1, 2, . . . , n. Entonces para cualquier vector 
VT1T2v; es decir TT2.




5.1 Introduccion a las transformaciones lineale

Definición: Las transformaciones lineales son las funciones y tratan sobre K-espacios vectoriales que son compatibles con la estructura (es
decir, con la operación y la acción) de estos espacios.

Aquí se presentan las funciones entre espacios vectoriales que preservan las cualidades de los
espacios vectoriales. Es decir, de funciones que preservan la suma y la multiplicación por escalares.

Nosotros usaremos el concepto de la función para darle un tratamiento a los sistemas de ecuaciones lineales. La restricción que haremos sera sobre el tipo de funciones: solo estaremos interesados en funciones que preserven las operaciones en el espacio vectorial. Este tipo de funciones serán llamadas funciones lineales. Primeramente las definiremos, veremos algunas propiedades generales y después veremos como se aplican estos resultados a sistemas de ecuaciones.

Sean V y W dos espacios vectoriales posiblemente iguales.
 Una transformación lineal o mapeo lineal de V a W es una función
T : V → W tal que para todos los vectores u y v de V y cualquier escalar c:
         a) T (u + v) = T (u) + T (v)
         b) T (c u) = c T (u)


Demuestre que la transformación T : R2 →R2 definida por                        
es lineal. 
                   
                  

              
Una transformación lineal preserva combinaciones lineales. Veremos que, debido a esto, una transformación lineal queda unívoca-mente determinada por los valores que toma en los elementos de una base cualquiera de su dominio.

4.6 Base ortonormal , proceso de ortonormalizacion de Gram-Schmidt

Un conjunto de vectores en un espacio V con producto interior se llama ortogonal si todo par de vectores en S es ortogonal, además cada vector en este conjunto es unitario, entonces S se denomina ortonormal

Proceso de ortonormalización de Gram-Schmidt

1.       Sea B = {v1v2, . . ., vn} una base de un espacio V con producto interno 
2.      Sea = {w1w2, . . ., wn} donde wi está dado por:

w1= v1

 


Entonces B´ es una base ortogonal de V.
3.      Sea ui= wi ││w1││ entonces el conjunto B´´={ u1, u2, . . ., un} es una base ortonormal de V.

Ejemplo: Forma alternativa del proceso de ortonormalización de Gram-Schmidt
Determine una base ortonormal del espacio solución del siguiente sistema homogéneo de ecuaciones lineales 

w+ x +           z= 0
2w+x + 2y+ 6z=0

Solución: La matriz aumentada se reduce como se sigue.

4.5 Espacio vectorial

Producto Interno:

Un producto interno sobre un espacio vectorial V es una operación que asigna a cada par de vectores u y v en V un número real <u, v>.
Un producto interior sobre V es una función que asocia un número real ‹u, v› con cada par de vectores u y v cumple los siguientes axiomas:
Propiedades:

i. (v, v) ≥ 0
ii. (v, v) = 0 si y sólo si v = 0.
iii, (u, v +w) = (u, v)+ (u, w)
iv. (u + v, w) = (u, w)+(v, w)
v. (u, v) = (v, u)
vi. (αu, v) = α(u, v)
vii. (u, αv) = α(u, v)
Espacios con producto interior:
El producto interior euclidiano es solo uno más de los productos internos que se tiene que definir en Rn Para distinguir entre el producto interno normal y otros posibles productos internos se usa la siguiente notación.
u ●v = producto punto (producto interior euclidiano para Rn)
‹u, v› = producto interno general para espacio vectorial V.

Propiedades de los productos interiores:
1. ‹0, v› = ‹v, 0› = 0
2. ‹u + v, w› = ‹u, w› + ‹v, w›
3. ‹u, cv› = c‹u, v›.

Un espacio vectorial con producto interno se denomina espacio con producto interno.

4.3 Combinacionlineal. Independencia lineal

Una combinación lineal de dos o más vectores es el vector que se obtiene al sumar esos vectores multiplicados por escalares.
Cualquier vector se puede poner como combinación lineal de otros que tengan distinta dirección.

Esta combinación lineal es única.
Sean v
1,v2,…,vn vectores en un espacio vectorial V. Entonces cualquier vector de la forma:
α1v1+α2v2+…+αnvn
donde α1v1+α2v2+…+αnvson escalares se denomina combinación lineal de v1,v2,…,vn

Todo vector V = (a, b, c) en R3 se puede expresar como
i = (1,0,0); 
j = (0,1,0); k =(0,0,1)
V = (a, b, c) = a(i) + b(j) + c(k)
Entonces se dice que V es una combinación lineal de los 3 vectores i,j,k.


Criterios de Independencia Lineal
Sean u1, u2, …,uk k vectores en Rn y A la matriz que tiene como columnas a estos vectores, los vectores son linealmente independientes si el sistema Ax = 0 tiene únicamente solución trivial.
Los vectores son linealmente dependientes si el sistema Ax=0 tiene soluciones no triviales (solución múltiple).
Si k=n
Los vectores son linealmente independientes si A es invertible
Si k>nLos vectores son linealmente dependientes.
Dos vectores en un espacio vectorial son linealmente dependientes si uno de ellos es múltiplo escalar del otro.
Un conjunto de vectores linealmente independientes en n contiene a lo más n vectores.
Tres vectores en 3 son linealmente dependientes si y sólo si son coplanares, esto es, que están en un mismo plano. 

4.2 Definicion de subespacio vectorial y sus propiedades.

DEFINICION DE SUB ESPACIO VECTORIAL 
Sea H un subconjunto no vacío de un espacio vectorial V y suponga que H es en sí un espacio vectorial bajo las operaciones de suma y multiplicación por un escalar definidas en V. Entonces se dice que H es un sub espacio de V. 
Existen múltiples ejemplos de sub espacio, sin embargo, en primer lugar, se demostrará un resultado que hace relativamente sencillo determinar si un subconjunto de V es en realidad sub espacio de V
Teorema de sub espacio
Un subconjunto no vacio de H de un espacio vectorial V es un sub espacio de V si se cumplen las dos reglas de cerradura:
Reglas de cerradura para ver si un subconjunto no vació es un sub espacio
i)                  Si € H y € H, entonces x + y € H.
ii)               Si € H, entonces α€ para todo escalar α.
Es obvio que si H es un espacio vectorial, entonces las dos reglas de cerradura se deberán cumplir. De lo contrario, para demostrar que es un espacio vectorial, se deberá demostrar que los axiomas i) a x) de la definición cumplen bajo las operaciones de suma de vectores y multiplicación por un escalar definidas en V. Las dos operaciones de cerradura [axiomas i) y iv)] se cumplen por hipótesis, como los vectores en H son también vectores en V, las identidades asociativa, conmutativa, distributiva y multiplicativa [axiomas ii), v), vii), viii), ix) y x)] se cumplen.
Este teorema demuestra que para probar si es o no es un sub espacio de V, es suficiente verificar que:
x + y y αX están en cuando x y  están en y α es un escalar.

PROPIEDADES DE SUB ESPACIO VECTORIAL

1). El vector cero de Vestá en H.2

2). H es cerrado bajo la suma de vectores. Esto es, para cada u y v en   
      H, la suma u + v está en H. 

3). H es cerrado bajo la multiplicación por escalares. Esto es, para cada
     u en H y  cada escalar c, el vector cu está en H. 

4.1 Definicion de espacio vectorial

Espacio vectorial real.

Un espacio vectorial real es un conjunto de objetos, denominados vectores, junto con dos operaciones binarias llamadas suma multiplicación por un escalar y que satisfacen los diez axiomas enumerados a continuación.


NotaciónSi “x” y “y” están en V  y si a es un número real, entonces la suma se escribe como
 “y” y el producto escalar de a como ax.

Antes de presentar la lista de las propiedades que satisfacen los vectores en un espacio vectorial deben mencionarse dos asuntos de importancia. En primer lugar, mientras que puede ser útil pensar en R2 o R3  al manejar un espacio vectorial, con frecuencia ocurre que el espacio vectorial parece ser muy diferente a estos cómodos espacios (en breve tocaremos este tema). En segunda instancia, la definición 1 ofrece una definición de un espacio vectorial real. La palabra “real” significa que los escalares que se usan son números reales. Sería igualmente sencillo definir un espacio vectorial complejo utilizando números complejos en lugar de reales. Este libro está dedicado principalmente a espacios vectoriales reales, pero las generalizaciones a otros conjuntos de escalares presentan muy poca dificultad. [1]
Axiomas de un espacio vectorial. [1]

1-     Si X pertenece a V y Y pertenece a V, entonces X+Y pertenece a V.

2-      Para todo X, Y y Z en V, (x+y)+z = x(y+z).
3-     Existe un vector |0 pertenece V tal que para todo X pertenece a V, X+0=0+X=X.
4-     Si x pertenece a V, existe un vector –x en V tal que x+(-x)=0.
5-     Si X y Y están en V, entonces x+y=y+x.
6-     Si x pertenece a V y es un escalar, entonces ax pertenece a V.
7-     Si X y Y están en V y es un ecalar, entonces a(x+y)= ax + ay
8-     Si X pertenece a V y y b son escalares, entonces (a+b) x= ax+ by.
9-     Si X pertenece a V y a y b son escalares, entonces a(bx) = (ab)x.
10-   Para cada vector X pertenece a V, 1x = x.

3.5 Aplicaciones

Una técnica muy conveniente utilizada en algunas tareas matemáticas es aquella conocida como fracciones idea principal consiste en cambiar la forma que puede ser expresado un cociente entre polinomios a otra forma más conveniente para cierto tipo de cálculo.

Ejemplo 4.1 Determine los valores de las constantes a y b para que satisfagan:
Solución
La forma más general de una cuadrática es: f (x) = a x2 + b x + c donde los coeficientes a, b, y c son constantes num´ericas. El problema consiste en determinar estos coeficientes. 

Así pues los parámetros a, b, y c se vuelven ahora las incógnitas. Y para poderlas determinar requerimos de ecuaciones o igualdades que deben satisfacer. Para determinar estas ecuaciones debemos usar los puntos.

Para que la función pase por el punto P (1, 4) se debe cumplir que f (x = 1) = 4, 
es decir, se debe cumplir: a (1)2 + b (1) + c = 4
es decir, se debe cumplir: a + b + c =4 

Procediendo de igual manera con el punto Q(−1, 2): formulamos la ecuación: a − b + c =2 y para R(2, 3): 4a + 2b + c = 3.
Resumiendo para que la función f (x) = a x2 + b x + c pase por los puntos P , Q, y R deben cumplirse las ecuaciones: 
a + b + c = 4
a − b + c = 2
4a + 2b + c = 3
La solución a este sistema es: a = 2/3, b = 1, y c =11/3

La misma situación presentada en el problema de las fracciones parciales que originaba un sistema inconsistente, se puede presentar en la determinación de funciones. Y la conclusión es similar: si el sistema originado es inconsistente lo que se concluye es que no existe una funci´on con esa forma general que pase exactamente por los puntos dados.

3.4 Metodos de solucion de un sistema de ecuaciones lineales :Gauss ,Gauss-jordan , inversa de una matriz y regla de cramer.

El Método de Gauss – Jordan o también llamado eliminación de Gauss – Jordan, es un método por el cual pueden resolverse sistemas de ecuaciones lineales con n números de variables, encontrar matrices y matrices inversas, en este caso desarrollaremos la primera aplicación mencionada.
Para resolver sistemas de ecuaciones lineales aplicando este método, se debe en primer lugar anotar los coeficientes de las variables del sistema de ecuaciones lineales en su notación matricial:
Monografias.com
Entonces, anotando como matriz (también llamada matriz aumentada):
Monografias.com
Una vez hecho esto, a continuación se procede a convertir dicha matriz en una matriz identidad, es decir una matriz equivalente a la original, la cual es de la forma:
Monografias.com
  • Sea el sistema de ecuaciones:
Monografias.com
  • Procedemos al primer paso para encontrar su solución, anotarlo en su forma matricial:
Monografias.com
  • Una vez hecho esto podemos empezar a operar con las distintas filas y columnas de la matriz para transformarla en su matriz identidad, teniendo siempre en cuenta la forma de la misma:
Monografias.com
  • Lo primero que debemos hacer es transformar el 2 de la 1ª fila de la matriz original en el 1 de la 1ª fila de la matriz identidad; para hacer esto debemos multiplicar toda la 1ª fila por el inverso de 2, es decir ½.
Monografias.com
  • Luego debemos obtener los dos ceros de la primera columna de la matriz identidad, para lograr esto, buscamos el opuesto de los números que se ubicaron por debajo del 1 de la primera columna, en este caso el opuesto de 3 que será -3 y el opuesto de 5 que será -5.

3.3 Interpretacion geometrica de las soluciones


Un sistema de ecuaciones diferenciales son aquellas que tienen varias posibilidades para su solución. Estas son:

1. Solución única: Sólo es posible obtener una solución única para un sistema de ecuaciones lineales intersectado en un único punto determinado, por lo tanto, el sistema de ecuaciones donde tenemos todas las rectas entrecruzándose en un solo punto, se denomina como la solución única del sistema de ecuaciones. Ese sistema de ecuaciones lineales es llamado sistema de ecuaciones lineales consistente independiente. Gráficamente se representa.

2. Sin solución: Es posible que un sistema de ecuaciones lineales no tenga solución cuando ningunas de sus rectas se intersectan entre sí ni siquiera en el infinito, ya que sólo el punto de intersección es la solución para el sistema de ecuaciones lineales Esto sólo puede ocurrir en el caso de las rectas paralelas, por lo tanto, para un sistema con este tipo de ecuación tenemos varias ecuaciones que corresponden a la misma recta y que sólo difieren por la pendiente. Dicho sistema se denomina sistema de ecuaciones lineales inconsistente independiente. Gráficamente podemos representarlo como.

3. Infinitas soluciones: Sólo en la situación que las rectas de determinado sistema se encuentren unas con otras en un punto infinito, podemos obtener soluciones infinitas. Esto sólo puede suceder si todas las rectas son la misma recta, ya que es en este escenario que se superpondrán unas con otras dándonos puntos infinitos de intersección, es decir, infinitas soluciones. Este sistema es llamado sistema de ecuaciones lineales consistente dependiente.


3.2 Clasificacion de los sistemas de ecuaciones lineales y tipos de solucion.


Una ecuación lineal es una ecuación algebraica que contiene variables cuyo máximo grado posible es uno. 

Tales ecuaciones se utilizan normalmente para definir líneas rectas. Cuando tenemos numerosas ecuaciones lineales, donde sus posibles soluciones nos dan un punto de solución, las llamamos como conjunto, sistema de ecuaciones lineales. 

Generalmente, un sistema de ecuaciones lineales se convierte en forma de matriz por conveniencia para su solución. Sea un sistema de ecuaciones lineales dado como,
                                    x + y – z = 1 3x – 2y + z = 3 4x + y – 2z = 9

A continuación se indica la forma matricial del sistema de la ecuación como,


                                          


3.1 Definicion de sistemas de ecuaciones lineales.


Una ecuación lineal es aquella que contiene variables de un sólo grado. Tal ecuación se representa con una recta en un papel cuadriculado. Una ecuación lineal que contiene n variables de la forma x1-, x¬2¬, x¬3¬ … x¬n¬ puede escribirse como,
Aquí b es un término constante y a¬1¬, a¬2¬, a¬3¬ … a¬n¬ son los coeficientes de las variables n. Por ejemplo, si tenemos la ecuación,
2x¬1¬ – x¬2¬ + 7x¬3¬ = 5
esta es una ecuación lineal de tres variables. Mientras que una ecuación
3x¬1¬x¬2¬ – 2x¬3¬2 = 1
no es una ecuación lineal. Esto significa que no podemos multiplicar dos variables juntas en una ecuación lineal. Cada variable está separada por las operaciones básicas de suma y resta operación, y tienen un término de coeficiente diferente, sin embargo el valor de los coeficientes de ambas variables viene ser el mismo.

Un sistema lineal, también llamado sistema de ecuaciones lineales es aquel que contiene varias ecuaciones lineales de manera tal que todos juntos producen un sistema significativo que nos da un punto de solución definitiva. Sin embargo, en ciertas situaciones no es posible conseguir ninguna solución o se obtienen varios puntos como solución. Podemos representar un sistema de ecuaciones lineales como, En resumen, podemos definir un sistema de ecuaciones lineales como un conjunto de n ecuaciones en m variables, donde el valor de n y m pueden ser iguales. 

2.9 Aplicacion de matrices y determinantes.


Matrices cuadradas
Una matriz cuadrada es la que tiene el mismo número de filas que de columnas. Se dice que una matriz cuadrada n ð n es de orden n y se denomina matriz n-cuadrada.
Entonces, A y B son matrices cuadradas de orden 3 y 2 respectivamente.
Matriz identidad
Sea A = (ai j ) una matriz n-cuadrada. La diagonal (o diagonal principal) de A consiste en los elementos a11, a22, ..., ann. La traza de A, escrito trA, es la suma de los elementos diagonales.
La matriz n-cuadrada con unos en la diagonal principal y ceros en cualquier otra posición, denotada por I, se conoce como matriz identidad (o unidad). Para cualquier matriz A,
A· I = I ·A = A.
Matrices triangulares
Una matriz cuadrada A = (ai j ) es una matriz triangular superior o simplemente una matriz triangular, si todas las entradas bajo la diagonal principal son iguales a cero. Así pues, las matrices
son matrices triangulares superiores de órdenes 2, 3 y 4.
Matrices diagonales
Una matriz cuadrada es diagonal, si todas sus entradas no diagonales son cero o nulas. Se denota por D = diag (d11, d22, ..., dnn ). Por ejemplo,
son matrices diagonales que pueden representarse, respectivamente, por
diag(3,-1,7) diag(4,-3) y diag(2,6,0,-1).
Traspuesta de una matriz
La traspuesta de una matriz A consiste en intercambiar las filas por las columnas y se denota por AT.
Así, la traspuesta de
En otras palabras, si A = (ai j ) es una matriz m ð n, entonces AT = Matrices y determinanteses la matriz n ð m. La trasposición de una matriz cumple las siguientes propiedades:
1. (A + B)T = AT + BT.
2. (AT)T = A.
3. (kA)T = kAT (si k es un escalar).
4. (AB)T = BTAT.
Matrices simétricas
Se dice que una matriz real es simétrica, si AT = A; y que es antisimétrica,
si AT = -A.
Ejemplo:
Consideremos las siguientes matrices:
Podemos observar que los elementos simétricos de A son iguales, o que AT = A. Siendo así, A es simétrica.
Para B los elementos simétricos son opuestos entre sí, de este modo B es antisimétrica.
A simple vista, no es cuadrada; en consecuencia, no es ni simétrica ni antisimétrica.
Matrices ortogonales
Se dice que una matriz real A es ortogonal, si AAT = AA = I. Se observa que una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A-1 = AT.
Consideremos una matriz 3 ð 3 arbitraria:
Si A es ortogonal, entonces: