viernes, 6 de noviembre de 2009
miércoles, 28 de octubre de 2009
IV ESPACIOS VECTORIALES
(x1, y1) + (x2, y2) = (x1 + x2, y1 + y2),
y cualquier par (x, y) puede escalarse, multiplicarse por un número real s, para obtener otro vector (sx, sy).
Existe además un vector, el (0,0), llamado vector nulo que cumple que al sumarse con cualquier otro vector no lo altera. Todo vector, por ejemplo el (1, 0), tiene su opuesto, el (-1, 0), que sumados dan como resultante el vector nulo (0, 0).
La noción de espacio vectorial es una generalización de esta idea. Es más general de varias maneras: en primer lugar, en lugar de los números reales otros cuerpos, como los números complejos o los cuerpos finitos, se permiten. En segundo lugar, la dimensión del espacio, que es de dos en el ejemplo anterior, puede ser arbitraria, incluso infinita. Otro punto de vista conceptual importante es que los elementos de los espacios vectoriales no suelen estar expresados como combinaciones lineales de un conjunto de vectores, es decir, no hay preferencia de representar el vector (x, y ) como
(x, y) = x · (1, 0) + y · (0, 1)
o como
(x, y) = (−1/3·x + 2/3·y) · (−1, 1) + (1/3·x + 1/3·y) · (2, 1)
Definición
La definición de un espacio vectorial requiere de un cuerpo de escalares K (como el cuerpo de los números reales o el cuerpo de los números complejos). Un espacio vectorial es un conjunto V (no vacío) a cuyos elementos se llaman vectores, dotado de dos operaciones:
suma de vectores: cualquiera dos vectores v y w pueden sumarse para obtener un tercer vector v + w
producto por un escalar: cualquier vector v puede multiplicarse por un escalar, i.e. un elemento de K, a. El producto se denota como av.
que satisfacen las siguientes propiedades o axiomas (u, v, w son vectores arbitrarios de V, y a, b son escalares, respectivamente):
Propiedad asociativa de la suma
u + (v + w) = (u + v) + w
Propiedad distributiva del producto por un escalar respecto a la suma de vectores
a (v + w) = a v + a w
(a + b) v = a v + b v
1 v = v, donde 1 es la identidad multiplicativa en K
(x, y) + (0, 0) = (x, y),
(a + b) · (x, y) = a · (x, y) + b · (x, y).
4.2.- DEFINICION DE SUBESPACIO DE UN ESPACIO VECTORIAL Y SUS PROPIEDADES
Sean (V,+,K,*) un espacio vectorial y S un subconjunto de V.
S es subespacio vectorial de V si (S,+,K,*) es espacio vectorial en sí mismo, siendo + y * las mismas operaciones definidas en V.
El criterio para la verificación de que S es subespacio de V, es que ambas operaciones (+ entre elementos del conjunto S y * con escalares del cuerpo K) sean cerradas, es decir, den como resultado elementos que también pertenezcan a S.
Un espacio vectorial es un conjunto no vacío que cumple con estas tres condiciones:
1) El Punto Origen pertenece al conjunto. Ej: (0,0,0) 2) Sea K un número real y {v} un vector que pertenece al conjunto entonces K.v también pertenece al conjunto. 3) Sean {u} y {v} dos vectores que pertenecen al conjunto entonces u+v también pertenece al conjunto.
Si estos tres axiomas se cumplen entonces el conjunto es un subespacio.
4.3.- Propiedades de vectores, combinacion lineal, dependencia e independencia lineal.
Nótese que el simbolo a la derecha del signo de igual no es cero, sino que simboliza al vector nulo. El conjunto de vectores nulos forma la matriz nula.
Si tales números no existen, entonces los vectores son linealmente independientes.
Utilizando conceptos de espacios vectoriales podemos redefinir la independencia lineal así:
Un conjunto de vectores U de un espacio vectorial es linealmente independiente si ∀
Esta idea es importante porque los conjuntos de vectores que son linealmente indepedientes y generan a un espacio vectorial, forman una base para dicho espacio.
Entre las propiedades de los vectores linealmente dependientes e independientes encontramos:
Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los vectores es combinación lineal de los demás.
Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo también lo es.
Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es combinación de los demás, escogiendo solamente unos cuantos, no podrán ser combinación de los otros.
Si un conjunto de vectores es linealmente dependiente también lo es todo conjunto que lo contenga.
Ya que un conjunto de vectores es linealmente dependiente si y solo si tiene algún vector que es combinación lineal de los demás, si metemos este conjunto de vectores en otro más grande, seguimos teniendo el vector que es combinación lineal de otros, por tanto, el conjunto más grande sigue siendo linealmente dependiente.
Significación geométrica
Tres vectores son independientes si y solo si no están contenidos en el mismo plano vectorial, o sea si ninguno de ellos es una combinación lineal de los otros dos(en cuyo caso estaría en el plano generado por estos vectores).
El espacio generado por un sistema de vectores es el conjunto de todas las combinaciones lineales de estos vectores. Es un espacio vectorial. El espacio generado por un vector no nulo es la recta vectorial dirigido por este vector. El espacio generado por dos vectores independientes es el plano que los contiene. Resulta fácil comprobar que el espacio generado por un sistema de vectores es el menor (por la inclusión) espacio vectorial que los contiene a todos. Se le denomina vect A, donde A es el sistema de vectores. Si n vectores son independientes, el espacio generado es de dimensión n (dimensión en el sentido usual: 0 para un punto, 1 para una recta, 2 para un plano...).
4.4.- Base y dimensión de un espacio vectorial
a1vi1 + a2vi2 + ... + anvin,
donde los ak son escalares y vik (k = 1, ..., n) elementos de la base B. La minimalidad, por otro lado, se hace formal por el concepto de independencia lineal. Un conjunto de vectores se dice que es linealmente independiente si ninguno de sus elementos puede ser expresado como una combinación lineal de los restantes. Equivalentemente, una ecuación
a1vi1 + ai2v2 + ... + anvin = 0
sólo se consigue si todos los escalares a1, ..., an son iguales a cero. Por definición cada vector puede ser expresado como una suma finita de los elementos de la base. Debido a la independencia lineal este tipo de representación es única. Los espacios vectoriales a veces se introducen desde este punto de vista.
x1e1 + x2e2 + ... + xnen,
qnzn + qn−1zn−1 + ... + q0 = 0, con coeficientes racionales qn, ..., q0.
Si es algebraico, la dimensión es finita. Es más, es igual al grado del polinomio mínimo del que z es raíz. Por ejemplo,el conjunto de los números complejos es un espacio vectorial bidimensional sobre los números reales, generado por 1 y la unidad imaginaria i. Ésta última cumple i2 + 1 = 0, una ecuación de grado dos. Si z no es algebraico, la dimensión es infinita. Así, para z = π no existe dicha ecuación, pues π es trascendente.
viernes, 23 de octubre de 2009
lunes, 19 de octubre de 2009
BIOGRAFIA DE CRAMER
viernes, 2 de octubre de 2009
III MATRICES Y DETERMINANTES
Al elemento de una matriz que se encuentra en la fila i-ésima y la columna j-ésima se le llama elemento i,j o elemento (i,j)-iésimo de la matriz. Se vuelve a poner primero las filas y después las columnas.
Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se utilizan las correspondientes letras en minúsculas para denotar a los elementos de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para representar matrices, numerosos autores representan a las matrices con fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una matriz, mientras que A es un escalar.
Normalmente se escribe para definir una matriz A m × n con cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i ≤ m y 1 ≤ j ≤ n. Sin embargo, la convención del inicio de los índices i y j en 1 no es universal: algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0 ≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1.
Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna y m filas) se denomina vector columna.
La matriz
es una matriz 4x3. El elemento A[2,3] o a2,3 es 7.
La matriz
es una matriz 1×9, o un vector fila con 9 elementos.
3.2. Operaciones con matrices.
Suma o adición
Dadas las matrices m-por-n A y B, su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir, sumar cada uno de los elementos homólogos de las matrices a sumar. Por ejemplo:
Propiedades
- Asociativa
Dadas las matrices m×n A, B y C
- A + (B + C) = (A + B) + C
- Conmutativa
Dadas las matrices m×n A y B
- A + B = B + A
- Existencia de matriz cero o matriz nula
- A + 0 = 0 + A = A
- Existencia de matriz opuesta
con -A = [-aij]
- A + (-A) = 0
Producto
El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m×n y B es una matrizn×p, entonces su producto matricial AB es la matriz m×p (m filas, p columnas) dada por:
para cada par i y j.
Por ejemplo:
Propiedades
Si los elementos de la matriz pertenecen a un cuerpo, y puede definirse el producto, el producto de matrices tiene las siguientes propiedades:
- Propiedad asociativa: (AB)C = A(BC).
- Propiedad distributiva por la derecha: (A + B)C = AC + BC.
- Propiedad distributiva por la izquierda: C(A + B) = CA + CB.
- En general, el producto de matrices tiene divisores de cero: Si A.B = 0 , No necesariamente A ó B son matrices nulas
- El producto de matrices no verifica la propiedad de simplificación: Si A.B = A.C, No necesariamente B=C
El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a lasmatrices cuadradas.
Producto por un escalar
Dada una matriz A y un escalar c, su producto cA se calcula multiplicando el escalar por cada elemento de A (i.e. (cA)[i, j] = cA[i, j] ).
Ejemplo
Propiedades
Sean A y B matrices y c y d escalares.
- Clausura: Si A es matriz y c es escalar, entonces cA es matriz.
- Asociatividad: (cd)A = c(dA)
- Elemento Neutro: 1·A = A
- Distributividad:
- De escalar: c(A+B) = cA+cB
- De matriz: (c+d)A = cA+dA
3.3. CLASIFICACION DE MATRICES
Matriz fila
Una matriz fila está constituida por una sola fila.
Matriz columna
La matriz columna tiene una sola columna
Matriz rectangular
La matriz rectangular tiene distinto número de filas que de columnas, siendo sudimensión mxn.
Matriz cuadrada
La matriz cuadrada tiene el mismo número de filas que de columnas.
Los elementos de la forma aii constituyen la diagonal principal.
La diagonal secundaria la forman los elementos con i+j = n+1.
Matriz nula
En una matriz nula todos los elementos son ceros.
Matriz triangular superior
En una matriz triangular superior los elementos situados por debajo de la diagonal principal son ceros.
Matriz triangular inferior
En una matriz triangular inferior los elementos situados por encima de la diagonal principal son ceros.
Matriz diagonal
En una matriz diagonal todos los elementos situados por encima y por debajo de la diagonal principal son nulos.
Matriz escalar
Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal principal son iguales.
Matriz identidad o unidad
Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1.
Matriz traspuesta
Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas
Matriz regular
Una matriz regular es una matriz cuadrada que tiene inversa.
Matriz singular
Una matriz singular no tiene matriz inversa.
Matriz idempotente
Una matriz, A, es idempotente si:
A2 = A.
Matriz involutiva
Una matriz, A, es involutiva si:
A2 = I.
Matriz simétrica
Una matriz simétrica es una matriz cuadrada que verifica:
A = At.
Matriz antisimétrica o hemisimétrica
Una matriz antisimétrica o hemisimétrica es una matriz cuadrada que verifica:
A = -At.
Matriz ortogonal
Una matriz es ortogonal si verifica que:
A·At = I.