Artículos

3.6: El método de Frobenius II - Matemáticas


En esta sección discutimos un método para encontrar dos soluciones de Frobenius linealmente independientes de una ecuación lineal homogénea de segundo orden cerca de un punto singular regular en el caso donde la ecuación indicial tiene una raíz real repetida. Como en la sección anterior, consideramos ecuaciones que se pueden escribir como

begin {ecuación} label {eq: 3.6.1}
x ^ 2 ( alpha_0 + alpha_1x + alpha_2x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y = 0
end {ecuación}

donde ( alpha_0 ne0 ). Suponemos que la ecuación indicial (p_0 (r) = 0 ) tiene una raíz real repetida (r_1 ). En este caso, el teorema ((3.5.3) ) implica que eqref {eq: 3.6.1} tiene una solución de la forma

begin {eqnarray *}
y_1 = x ^ {r_1} sum_ {n = 0} ^ infty a_nx ^ n,
end {eqnarray *}

pero no proporciona una segunda solución (y_2 ) tal que ( {y_1, y_2 } ) sea un conjunto fundamental de soluciones. La siguiente extensión del teorema ((3.5.2) ) proporciona una forma de encontrar una segunda solución.

Teorema ( PageIndex {1} )

Dejar

begin {ecuación} label {eq: 3.6.2}
Ly = x ^ 2 ( alpha_0 + alpha_1x + alpha_2x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y,
end {ecuación}

donde ( alpha_0 ne0 ) y definir

begin {eqnarray *}
p_0 (r) & = & alpha_0r (r-1) + beta_0r + gamma_0,
p_1 (r) & = & alpha_1r (r-1) + beta_1r + gamma_1,
p_2 (r) & = & alpha_2r (r-1) + beta_2r + gamma_2.
end {eqnarray *}

Suponga que (r ) es un número real tal que (p_0 (n + r) ) es distinto de cero para todos los enteros positivos (n ), y defina

begin {eqnarray *}
begin {array} {ccl}
a_0 (r) & = & 1,
a_1 (r) & = & - displaystyle {p_1 (r) over p_0 (r + 1)},
a_n (r) & = & - displaystyle {p_1 (n + r-1) a_ {n-1} (r) + p_2 (n + r-2) a_ {n-2} (r) over p_0 ( n + r)}, quad n ge2.
end {matriz}
end {eqnarray *}

Entonces la serie Frobenius

begin {ecuación} label {eq: 3.6.3}
y (x, r) = x ^ r sum_ {n = 0} ^ infty a_n (r) x ^ n
end {ecuación}

satisface

begin {ecuación} label {eq: 3.6.4}
Ly (x, r) = p_0 (r) x ^ r.
end {ecuación}

Es más,

begin {ecuación} label {eq: 3.6.5}
{ y parcial sobre parcial r} (x, r) = y (x, r) ln x + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n,
end {ecuación}

y

begin {ecuación} label {eq: 3.6.6}
L izquierda ({ y parcial sobre parcial r} (x, r) derecha) = p'_0 (r) x ^ r + x ^ rp_0 (r) ln x.
end {ecuación}

Prueba

El teorema ((3.5.2) ) implica eqref {eq: 3.6.4}. Diferenciar formalmente con respecto a (r ) en eqref {eq: 3.6.3} produce

begin {eqnarray *}
{ y parcial sobre parcial r} (x, r) & = & displaystyle {{ parcial sobre parcial r} (x ^ r) sum_ {n = 0} ^ infty a_n (r) x ^ n + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n}
& = & Displaystyle {x ^ r ln x sum_ {n = 0} ^ infty a_n (r) x ^ n + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ norte}
& = & y (x, r) ln x + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n,
end {eqnarray *}

lo que demuestra eqref {eq: 3.6.5}.

Para demostrar que ( partial y (x, r) / partial r ) satisface eqref {eq: 3.6.6}, vemos (y ) en eqref {eq: 3.6.2} como una función (y = y (x, r) ) de dos variables, donde el primo indica diferenciación parcial con respecto a (x ); por lo tanto,

begin {eqnarray *}
y '= y' (x, r) = { y parcial sobre parcial x} (x, r) quad mbox {y} quad y '' = y '' (x, r) = { parcial ^ 2 y sobre parcial x ^ 2} (x, r).
end {eqnarray *}

Con esta notación podemos usar eqref {eq: 3.6.2} para reescribir eqref {eq: 3.6.4} como

begin {ecuación} label {eq: 3.6.7}
x ^ 2q_0 (x) { parcial ^ 2 y sobre parcial x ^ 2} (x, r) + xq_1 (x) { parcial y sobre parcial x} (x, r) + q_2 (x) y (x, r) = p_0 (r) x ^ r,
end {ecuación}

dónde

begin {eqnarray *}
q_0 (x) & = & alpha_0 + alpha_1x + alpha_2x ^ 2,
q_1 (x) & = & beta_0 + beta_1x + beta_2x ^ 2,
q_2 (x) & = & gamma_0 + gamma_1x + gamma_2x ^ 2.
end {eqnarray *}

Diferenciar ambos lados de eqref {eq: 3.6.7} con respecto a (r ) produce

begin {eqnarray *}
x ^ 2q_0 (x) { parcial ^ 3y sobre parcial r parcial x ^ 2} (x, r) + xq_1 (x) { parcial ^ 2y sobre parcial r parcial x} (x, r ) + q_2 (x) { y parcial sobre parcial r} (x, r) = p'_0 (r) x ^ r + p_0 (r) x ^ r ln x.
end {eqnarray *}

Al cambiar el orden de diferenciación en los dos primeros términos de la izquierda, podemos reescribir esto como

begin {eqnarray *}
x ^ 2q_0 (x) { Partical ^ 3 y over Partical x ^ 2 Partical R} (x, r) + xq_1 (x) { Particular ^ 2 y Over Partical x Partical R} (x , r) + q_2 (x) { y parcial sobre parcial r} (x, r) = p'_0 (r) x ^ r + p_0 (r) x ^ r ln x,
end {eqnarray *}

o

begin {eqnarray *}
x ^ 2q_0 (x) { parcial ^ 2 sobre parcial x ^ 2} izquierda ({ parcial y sobre parcial r} (x, r) derecha) + xq_1 (x) { parcial sobre parcial r} izquierda ({ y parcial sobre parcial x} (x, r) derecha) + q_2 (x) { y parcial sobre parcial r} (x, r) = p'_0 ( r) x ^ r + p_0 (r) x ^ r ln x,
end {eqnarray *}

que es equivalente a eqref {eq: 3.6.6}.

Teorema ( PageIndex {2} )

Sea (L ) como en el Teorema ((3.6.1) ) y suponga que la ecuación indicial (p_0 (r) = 0 ) tiene una raíz real repetida (r_1. ) Entonces

begin {eqnarray *}
y_1 (x) = y (x, r_1) = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n
end {eqnarray *}

y

begin {ecuación} label {eq: 3.6.8}
y_2 (x) = { y parcial sobre parcial r} (x, r_1) = y_1 (x) ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n '(r_1) x ^ n
end {ecuación}

formar un conjunto fundamental de soluciones de (Ly = 0. )

Prueba

Dado que (r_1 ) es una raíz repetida de (p_0 (r) = 0 ), el polinomio indicial se puede factorizar como

begin {eqnarray *}
p_0 (r) = alpha_0 (r-r_1) ^ 2,
end {eqnarray *}

entonces

begin {eqnarray *}
p_0 (n + r_1) = alpha_0n ^ 2,
end {eqnarray *}

que es distinto de cero si (n> 0 ). Por lo tanto, las suposiciones del teorema ((3.6.1) ) se cumplen con (r = r_1 ), y eqref {eq: 3.6.4} implica que (Ly_1 = p_0 (r_1) x ^ {r_1} = 0 ). Desde

begin {eqnarray *}
p_0 '(r) = 2 alpha (r-r_1)
end {eqnarray *}

se sigue que (p_0 '(r_1) = 0 ), entonces eqref {eq: 3.6.6} implica que

begin {eqnarray *}
Ly_2 = p_0 '(r_1) x ^ {r_1} + x ^ {r_1} p_0 (r_1) ln x = 0.
end {eqnarray *}

Esto prueba que (y_1 ) y (y_2 ) son ambas soluciones de (Ly = 0 ). Dejamos la prueba de que ( {y_1, y_2 } ) es un conjunto fundamental como ejercicio (Ejercicio ((3.6E.53) )).

Ejemplo ( PageIndex {1} )

Encuentre un conjunto fundamental de soluciones de

begin {ecuación} label {eq: 3.6.9}
x ^ 2 (1-2x + x ^ 2) y '' - x (3 + x) y '+ (4 + x) y = 0.
end {ecuación}

Calcule solo los términos que involucran a (x ^ {n + r_1} ), donde (0 le n le4 ) y (r_1 ) es la base de la ecuación indicial.

Respuesta

Para la ecuación dada, los polinomios definidos en el teorema ((3.6.1) ) son

begin {eqnarray *}
begin {array} {lllll}
p_0 (r) & = & r (r-1) -3r + 4 & = & (r-2) ^ 2,
p_1 (r) & = & - 2r (r-1) -r + 1 & = & - (r-1) (2r + 1),
p_2 (r) & = & r (r-1).
end {matriz}
end {eqnarray *}

Dado que (r_1 = 2 ) es una raíz repetida del polinomio indicial (p_0 ), el teorema ((3.6.2) ) implica que

begin {ecuación} label {eq: 3.6.10}
y_1 = x ^ 2 sum_ {n = 0} ^ infty a_n (2) x ^ n quad mbox {y} quad y_2 = y_1 ln x + x ^ 2 sum_ {n = 1} ^ infty a_n '(2) x ^ n
end {ecuación}

forman un conjunto fundamental de soluciones de Frobenius de eqref {eq: 3.6.9}. Para encontrar los coeficientes en estas series, usamos las fórmulas de recurrencia del Teorema ((3.6.1) ):

begin {ecuación} label {eq: 3.6.11}
begin {array} {ccl}
a_0 (r) & = & 1,
a_1 (r) & = & - displaystyle {p_1 (r) over p_0 (r + 1)} = - displaystyle {(r-1) (2r + 1) over (r-1) ^ 2} = displaystyle {2r + 1 over r-1},
a_n (r) & = & - displaystyle {p_1 (n + r-1) a_ {n-1} (r) + p_2 (n + r-2) a_ {n-2} (r) over p_0 ( n + r)}
& = & Displaystyle {(n + r-2) left [(2n + 2r-1) a_ {n-1} (r) - (n + r-3) a_ {n-2} (r) derecha] over (n + r-2) ^ 2}
& = & Displaystyle {{(2n + 2r-1) over (n + r-2)} a_ {n-1} (r) - {(n + r-3) over (n + r-2 )} a_ {n-2} (r)}, n ge2.
end {matriz}
end {ecuación}

Diferenciando rendimientos

begin {ecuación} label {eq: 3.6.12}
begin {array} {ccl}
a'_1 (r) & = & - displaystyle {3 over (r-1) ^ 2},
a'_n (r) & = & displaystyle {{2n + 2r-1 over n + r-2} a '_ {n-1} (r) - {n + r-3 over n + r- 2} a '_ {n-2} (r)}
&& Displaystyle {- {3 over (n + r-2) ^ 2} a_ {n-1} (r) - {1 over (n + r-2) ^ 2} a_ {n-2} ( r)}, quad n ge2.
end {matriz}
end {ecuación}

Al establecer (r = 2 ) en eqref {eq: 3.6.11} y eqref {eq: 3.6.12} se obtiene

begin {ecuación} label {eq: 3.6.13}
begin {array} {ccl}
a_0 (2) & = & 1,
a_1 (2) & = & 5,
a_n (2) & = & displaystyle {{(2n + 3) sobre n} a_ {n-1} (2) - {(n-1) sobre n} a_ {n-2} (2)} , quad n ge2
end {matriz}
end {ecuación}

y

begin {ecuación} label {eq: 3.6.14}
begin {array} {ccl}
a_1 '(2) & = & - 3,
a'_n (2) & = & displaystyle {{2n + 3 sobre n} a '_ {n-1} (2) - {n-1 sobre n} a' _ {n-2} (2 ) - {3 sobre n ^ 2} a_ {n-1} (2) - {1 sobre n ^ 2} a_ {n-2} (2)}, quad n ge2.
end {matriz}
end {ecuación}

Calcular recursivamente con eqref {eq: 3.6.13} y eqref {eq: 3.6.14} produce

begin {eqnarray *}
a_0 (2) = 1, , a_1 (2) = 5, , a_2 (2) = 17, , a_3 (2) = {143 over3}, , a_4 (2) = {355 over3} ,
end {eqnarray *}

y

begin {eqnarray *}
a_1 '(2) = - 3, , a_2' (2) = - {29 over2}, , a_3 '(2) = - {859 over18}, , a_4' (2) = - {4693 over36}.
end {eqnarray *}

Sustituyendo estos coeficientes en eqref {eq: 3.6.10} se obtiene

begin {eqnarray *}
y_1 = x ^ 2 left (1 + 5x + 17x ^ 2 + {143 over3} x ^ 3 + {355 over3} x ^ 4 + cdots right)
end {eqnarray *}

y

begin {eqnarray *}
y_2 = y_1 ln x -x ^ 3 left (3+ {29 over2} x + {859 over18} x ^ 2 + {4693 over36} x ^ 3 + cdots right).
end {eqnarray *}

Dado que la fórmula de recurrencia eqref {eq: 3.6.11} involucra tres términos, no es posible obtener una fórmula explícita simple para los coeficientes en las soluciones de Frobenius de eqref {eq: 3.6.9}. Sin embargo, como vimos en las secciones anteriores, la fórmula de recurrencia para ( {a_n (r) } ) involucra solo dos términos si ( alpha_1 = beta_1 = gamma_1 = 0 ) o ( alpha_2 = beta_2 = gamma_2 = 0 ) en eqref {eq: 3.6.1}. En este caso, a menudo es posible encontrar fórmulas explícitas para los coeficientes. Los siguientes dos ejemplos ilustran esto.

Ejemplo ( PageIndex {2} )

Encuentre un conjunto fundamental de soluciones de Frobenius de

begin {ecuación} label {eq: 3.6.15}
2x ^ 2 (2 + x) y '' + 5x ^ 2y '+ (1 + x) y = 0.
end {ecuación}

Da fórmulas explícitas para los coeficientes en las soluciones.

Respuesta

Para la ecuación dada, los polinomios definidos en el teorema ((3.6.1) ) son

begin {eqnarray *}
begin {array} {ccccc}
p_0 (r) & = & 4r (r-1) +1 & = & (2r-1) ^ 2,
p_1 (r) & = & 2r (r-1) + 5r + 1 & = & (r + 1) (2r + 1),
p_2 (r) & = & 0.
end {matriz}
end {eqnarray *}

Dado que (r_1 = 1/2 ) es un cero repetido del polinomio indicial (p_0 ), el teorema ((3.6.2) ) implica que

begin {ecuación} label {eq: 3.6.16}
y_1 = x ^ {1/2} sum_ {n = 0} ^ infty a_n (1/2) x ^ n
end {ecuación}

y

begin {ecuación} label {eq: 3.6.17}
y_2 = y_1 ln x + x ^ {1/2} sum_ {n = 1} ^ infty a_n '(1/2) x ^ n
end {ecuación}

forman un conjunto fundamental de soluciones de Frobenius de eqref {eq: 3.6.15}. Dado que (p_2 equiv0 ), las fórmulas de recurrencia en el Teorema ((3.6.1) ) se reducen a

begin {eqnarray *}
begin {array} {ccl}
a_0 (r) & = & 1,
a_n (r) & = & - displaystyle {p_1 (n + r-1) over p_0 (n + r)} a_ {n-1} (r),
& = & - Displaystyle {(n + r) (2n + 2r-1) over (2n + 2r-1) ^ 2} a_ {n-1} (r),
& = & - Displaystyle {n + r over2n + 2r-1} a_ {n-1} (r), quad n ge0.
end {matriz}
end {eqnarray *}

Te dejamos mostrar que

begin {ecuación} label {eq: 3.6.18}
a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {j + r over2j + 2r-1}, quad n ge0.
end {ecuación}

Al establecer (r = 1/2 ) se obtiene

begin {ecuación} label {eq: 3.6.19}
begin {array} {ccl}
a_n (1/2) & = & (- 1) ^ n Displaystyle prod_ {j = 1} ^ n Displaystyle {j + 1/2 over2j} = (-1) ^ n prod_ {j = 1 } ^ n Displaystyle {2j + 1 over4j},
& = & displaystyle {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!}, quad n ge0.
end {matriz}
end {ecuación}

Sustituyendo esto en eqref {eq: 3.6.16} se obtiene

begin {eqnarray *}
y_1 = x ^ {1/2} sum_ {n = 0} ^ infty {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} x ^ n.
end {eqnarray *}

Para obtener (y_2 ) en eqref {eq: 3.6.17}, debemos calcular (a_n '(1/2) ) para (n = 1 ), (2 ), ( puntos ). Haremos esto por diferenciación logarítmica. De eqref {eq: 3.6.18},

begin {eqnarray *}
| a_n (r) | = prod_ {j = 1} ^ n {| j + r | over | 2j + 2r-1 |}, quad n ge1.
end {eqnarray *}

Por lo tanto

begin {eqnarray *}
ln | a_n (r) | = sum ^ n_ {j = 1} left ( ln | j + r | - ln | 2j + 2r-1 | right).
end {eqnarray *}

Diferenciar con respecto a (r ) produce

begin {eqnarray *}
{a'_n (r) over a_n (r)} = sum ^ n_ {j = 1} left ({1 over j + r} - {2 over2j + 2r-1} right).
end {eqnarray *}

Por lo tanto

begin {eqnarray *}
a'_n (r) = a_n (r) sum ^ n_ {j = 1} left ({1 over j + r} - {2 over2j + 2r-1} right).
end {eqnarray *}

Configurando (r = 1/2 ) aquí y recordando eqref {eq: 3.6.19} produce

begin {ecuación} label {eq: 3.6.20}
a'_n (1/2) = {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} left ( sum_ {j = 1} ^ n {1 sobre j + 1/2} - sum_ {j = 1} ^ n {1 sobre j} derecha).
end {ecuación}

Desde

begin {eqnarray *}
{1 sobre j + 1/2} - {1 sobre j} = {j-j-1/2 sobre j (j + 1/2)} = - {1 sobre j (2j + 1)},
end {eqnarray *}

eqref {eq: 3.6.20} se puede reescribir como

begin {eqnarray *}
a'_n (1/2) = - {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} sum_ {j = 1} ^ n {1 over j (2j + 1)}.
end {eqnarray *}

Por lo tanto, de eqref {eq: 3.6.17},

begin {eqnarray *}
y_2 = y_1 ln xx ^ {1/2} sum_ {n = 1} ^ infty {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} izquierda ( sum_ {j = 1} ^ n {1 sobre j (2j + 1)} derecha) x ^ n.
end {eqnarray *}

Ejemplo ( PageIndex {3} )

Encuentre un conjunto fundamental de soluciones de Frobenius de

begin {ecuación} label {eq: 3.6.21}
x ^ 2 (2-x ^ 2) y '' - 2x (1 + 2x ^ 2) y '+ (2-2x ^ 2) y = 0.
end {ecuación}

Da fórmulas explícitas para los coeficientes en las soluciones.

Respuesta

Para eqref {eq: 3.6.21}, los polinomios definidos en el Teorema ((3.6.1) ) son

begin {eqnarray *}
begin {array} {ccccc}
p_0 (r) & = & 2r (r-1) -2r + 2 & = & 2 (r-1) ^ 2,
p_1 (r) & = & 0,
p_2 (r) & = & - r (r-1) -4r-2 & = & - (r + 1) (r + 2).
end {matriz}
end {eqnarray *}

Como en la Sección (3.5 ), dado que (p_1 equiv0 ), las fórmulas de recurrencia del Teorema ((3.6.1) ) implican que (a_n (r) = 0 ) si (n ) es extraño, y

begin {eqnarray *}
begin {array} {ccl}
a_0 (r) & = & 1,
a_ {2m} (r) & = & - displaystyle {p_2 (2m + r-2) over p_0 (2m + r)} a_ {2m-2} (r)
& = & Displaystyle {(2m + r-1) (2m + r) over2 (2m + r-1) ^ 2} a_ {2m-2} (r)
& = & displaystyle {2m + r over2 (2m + r-1)} a_ {2m-2} (r), quad m ge1.
end {matriz}
end {eqnarray *}

Dado que (r_1 = 1 ) es una raíz repetida del polinomio indicial (p_0 ), el teorema ((3.6.2) ) implica que

begin {ecuación} label {eq: 3.6.22}
y_1 = x sum_ {m = 0} ^ infty a_ {2m} (1) x ^ {2m}
end {ecuación}

y

begin {ecuación} label {eq: 3.6.23}
y_2 = y_1 ln x + x sum_ {m = 1} ^ infty a '_ {2m} (1) x ^ {2m}
end {ecuación}

forman un conjunto fundamental de soluciones de Frobenius de eqref {eq: 3.6.21}. Te dejamos mostrar que

begin {ecuación} label {eq: 3.6.24}
a_ {2m} (r) = {1 over2 ^ m} prod_ {j = 1} ^ m {2j + r over2j + r-1}.
end {ecuación}

Estableciendo (r = 1 ) rendimientos

begin {ecuación} label {eq: 3.6.25}
a_ {2m} (1) = {1 over2 ^ m} prod_ {j = 1} ^ m {2j + 1 over2j} = { prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!},
end {ecuación}

y sustituyendo esto en eqref {eq: 3.6.22} se obtiene

begin {eqnarray *}
y_1 = x sum_ {m = 0} ^ infty { prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} x ^ {2m}.
end {eqnarray *}

Para obtener (y_2 ) en eqref {eq: 3.6.23}, debemos calcular (a_ {2m} '(1) ) para (m = 1 ), (2 ), ( puntos ). Nuevamente usamos la diferenciación logarítmica. De eqref {eq: 3.6.24},

begin {eqnarray *}
| a_ {2m} (r) | = {1 over2 ^ m} prod_ {j = 1} ^ m {| 2j + r | over | 2j + r-1 |}.
end {eqnarray *}

Tomando rendimientos de logaritmos

begin {eqnarray *}
ln | a_ {2m} (r) | = -m ln2 + sum ^ m_ {j = 1} left ( ln | 2j + r | - ln | 2j + r-1 | right).
end {eqnarray *}

Diferenciar con respecto a (r ) produce

begin {eqnarray *}
{a '_ {2m} (r) over a_ {2m} (r)} = sum ^ m_ {j = 1} left ({1 over 2j + r} - {1 over2j + r-1 }derecho).
end {eqnarray *}

Por lo tanto

begin {eqnarray *}
a '_ {2m} (r) = a_ {2m} (r) sum ^ m_ {j = 1} left ({1 over 2j + r} - {1 over2j + r-1} right) .
end {eqnarray *}

Establecer (r = 1 ) y recuperar eqref {eq: 3.6.25} produce

begin {ecuación} label {eq: 3.6.26}
a '_ {2m} (1) = displaystyle {{ prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} sum_ {j = 1} ^ m left ({1 over2j +1} - {1 over2j} right)}.
end {ecuación}

Desde

begin {eqnarray *}
{1 over2j + 1} - {1 over2j} = - {1 over2j (2j + 1)},
end {eqnarray *}

eqref {eq: 3.6.26} se puede reescribir como

begin {eqnarray *}
a_ {2m} '(1) = - displaystyle {{ prod_ {j = 1} ^ m (2j + 1) over2 cdot 4 ^ mm!} sum_ {j = 1} ^ m left ({ 1 over (2j + 1)} right)}.
end {eqnarray *}

Sustituyendo esto en eqref {eq: 3.6.23} se obtiene

begin {eqnarray *}
y_2 = y_1 ln x- {x over2} sum_ {m = 1} ^ infty { prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} left ( sum_ {j = 1} ^ m {1 sobre j (2j + 1)} right) x ^ {2m}.
end {eqnarray *}

Si la solución (y_1 = y (x, r_1) ) de (Ly = 0 ) se reduce a una suma finita, entonces existe una dificultad para usar la diferenciación logarítmica para obtener los coeficientes ( {a_n '(r_1) } ) en la segunda solución. El siguiente ejemplo ilustra esta dificultad y muestra cómo superarla.

Ejemplo ( PageIndex {4} )

Encuentre un conjunto fundamental de soluciones de Frobenius de

begin {ecuación} label {eq: 3.6.27}
x ^ 2y '' - x (5-x) y '+ (9-4x) y = 0.
end {ecuación}

Da fórmulas explícitas para los coeficientes en las soluciones.

Respuesta

Para eqref {eq: 3.6.27} los polinomios definidos en el Teorema ((3.6.1) ) son

begin {eqnarray *}
begin {array} {ccccc}
p_0 (r) & = & r (r-1) -5r + 9 & = & (r-3) ^ 2,
p_1 (r) & = & r-4,
p_2 (r) & = & 0.
end {matriz}
end {eqnarray *}

Dado que (r_1 = 3 ) es un cero repetido del polinomio indicial (p_0 ), el teorema ((3.6.2) ) implica que

begin {ecuación} label {eq: 3.6.28}
y_1 = x ^ 3 sum_ {n = 0} ^ infty a_n (3) x ^ n
end {ecuación}

y

begin {ecuación} label {eq: 3.6.29}
y_2 = y_1 ln x + x ^ 3 sum_ {n = 1} ^ infty a_n '(3) x ^ n
end {ecuación}

son soluciones de Frobenius linealmente independientes de eqref {eq: 3.6.27}. Para encontrar los coeficientes en eqref {eq: 3.6.28} usamos las fórmulas de recurrencia

begin {eqnarray *}
begin {array} {ccl}
a_0 (r) & = & 1,
a_n (r) & = & - Displaystyle {p_1 (n + r-1) over p_0 (n + r)} a_ {n-1} (r)
& = & - displaystyle {n + r-5 over (n + r-3) ^ 2} a_ {n-1} (r), quad n ge1.
end {matriz}
end {eqnarray *}

Te dejamos mostrar que

begin {ecuación} label {eq: 3.6.30}
a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {j + r-5 over (j + r-3) ^ 2}.
end {ecuación}

Al establecer (r = 3 ) aquí se obtiene

begin {eqnarray *}
a_n (3) = (- 1) ^ n prod_ {j = 1} ^ n {j-2 over j ^ 2},
end {eqnarray *}

entonces (a_1 (3) = 1 ) y (a_n (3) = 0 ) si (n ge2 ). Sustituyendo estos coeficientes en eqref {eq: 3.6.28} se obtiene

begin {eqnarray *}
y_1 = x ^ 3 (1 + x).
end {eqnarray *}

Para obtener (y_2 ) en eqref {eq: 3.6.29} debemos calcular (a_n '(3) ) para (n = 1 ), (2 ), ( dots ) . Probemos primero la diferenciación logarítmica. Desde eqref {eq: 3.6.30},

begin {eqnarray *}
| a_n (r) | = prod_ {j = 1} ^ n {| j + r-5 | sobre | j + r-3 | ^ 2}, quad n ge1,
end {eqnarray *}

entonces

begin {eqnarray *}
ln | a_n (r) | = sum ^ n_ {j = 1} left ( ln | j + r-5 | -2 ln | j + r-3 | right).
end {eqnarray *}

Diferenciar con respecto a (r ) produce

begin {eqnarray *}
{a'_n (r) over a_n (r)} = sum ^ n_ {j = 1} left ({1 over j + r-5} - {2 over j + r-3} right ).
end {eqnarray *}

Por lo tanto

begin {ecuación} label {eq: 3.6.31}
a'_n (r) = a_n (r) sum ^ n_ {j = 1} left ({1 over j + r-5} - {2 over j + r-3} right).
end {ecuación}

Sin embargo, no podemos simplemente establecer (r = 3 ) aquí si (n ge2 ), ya que la expresión entre corchetes en la suma correspondiente a (j = 2 ) contiene el término (1 / (r -3) ). De hecho, dado que (a_n (3) = 0 ) para (n ge2 ), la fórmula eqref {eq: 3.6.31} para (a_n '(r) ) es en realidad una forma indeterminada en (r = 3 ).

Superamos esta dificultad de la siguiente manera. De eqref {eq: 3.6.30} con (n = 1 ),

begin {eqnarray *}
a_1 (r) = - {r-4 over (r-2) ^ 2}.
end {eqnarray *}

Por lo tanto

begin {eqnarray *}
a_1 '(r) = {r-6 over (r-2) ^ 3},
end {eqnarray *}

entonces

begin {ecuación} label {eq: 3.6.32}
a_1 '(3) = - 3.
end {ecuación}

De eqref {eq: 3.6.30} con (n ge2 ),

begin {eqnarray *}
a_n (r) = (- 1) ^ n (r-4) (r-3) , { prod_ {j = 3} ^ n (j + r-5) over prod_ {j = 1} ^ n (j + r-3) ^ 2} = (r-3) c_n (r),
end {eqnarray *}

dónde

begin {eqnarray *}
c_n (r) = (- 1) ^ n (r-4) , { prod_ {j = 3} ^ n (j + r-5) over prod_ {j = 1} ^ n (j + r -3) ^ 2}, quad n ge2.
end {eqnarray *}

Por lo tanto

begin {eqnarray *}
a_n '(r) = c_n (r) + (r-3) c_n' (r), quad n ge2,
end {eqnarray *}

lo que implica que (a_n '(3) = c_n (3) ) if (n ge3 ). Te dejamos comprobar que

begin {eqnarray *}
a_n '(3) = c_n (3) = {(- 1) ^ {n + 1} over n (n-1) n!}, quad n ge2.
end {eqnarray *}

Sustituyendo esto y eqref {eq: 3.6.32} en eqref {eq: 3.6.29} se obtiene

begin {eqnarray *}
y_2 = x ^ 3 (1 + x) ln x-3x ^ 4-x ^ 3 displaystyle { sum_ {n = 2} ^ infty {(-1) ^ n over n (n-1) n !} x ^ n}.
end {eqnarray *}


Estadística multivariante

Como A es definida positiva, podemos calcular la raíz cuadrada definida positiva simétrica de A.

  • En lugar de usar la descomposición propia completa para ( mathbf A ), intente truncarlo y use solo un valor propio y un vector propio, es decir, calcule [ mathbf A & # 39 = lambda_1 mathbf q_1 mathbf q_1 ^ top ]
  • Calcule la diferencia entre ( mathbf A ) y ( mathbf A & # 39 ) usando la norma 2 y la norma Frobenius.
  1. La descomposición del valor singular se puede calcular en R usando el comando svd. Sea ( mathbf X ) las cuatro variables numéricas en el conjunto de datos del iris con la media de la columna eliminada

Calcule la SVD de ( mathbf X ) en R e informe sus valores singulares.

¿R informa la SVD completa o compacta?

Compruebe que ( mathbf X mathbf v = sigma mathbf u ).

Calcule las mejores aproximaciones de rango 1, rango 2 y rango 3 para ( mathbf X ), e informe la norma 2 y la norma Frobenious para estas aproximaciones

Calcule los valores propios de ( mathbf X ^ top mathbf X ). ¿Cómo se relacionan estos con los valores singulares? ¿Cómo se relaciona ( mathbf X ^ top mathbf X ) con la matriz de covarianza de muestra de los datos del iris? ¿Cómo se relacionan los valores singulares con los valores propios de la matriz de covarianza?

Sea ( mathbf S ) la matriz de covarianza de muestra del conjunto de datos del iris. ¿Qué vector ( mathbf x ) con (|| mathbf x || = 1 ) maximiza ( mathbf x ^ top mathbf S mathbf x )?

Elija algunas imágenes de la base de datos de imágenes de USC-SIPI y repita el ejemplo de compresión de imágenes de las notas. ¿Qué tipo de imágenes se comprimen bien crees?

No discutiremos cómo se calcula la SVD en la práctica, pero hay una variedad de enfoques que se pueden utilizar. Pruebe el siguiente enfoque iterativo para calcular los primeros vectores singulares:


Contenido

Dejar positivo y no negativo describen respectivamente matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que componen el espectro de la matriz. La tasa de crecimiento exponencial de las potencias de la matriz. A k como k → ∞ está controlado por el valor propio de A con el mayor valor absoluto (módulo). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron (1907) y se referían a matrices positivas. Posteriormente, Georg Frobenius (1912) encontró su extensión a ciertas clases de matrices no negativas.

Matrices positivas Editar

  1. Hay un número real positivo r, llamó al Raíz de Perron o el Valor propio de Perron-Frobenius (también llamado valor propio líder o autovalor dominante), tal que r es un valor propio de A y cualquier otro valor propio λ (posiblemente complejo) en valor absoluto es estrictamente menor que r , |λ| & lt r. Por lo tanto, el radio espectral ρ (A) < displaystyle rho (A)> es igual a r. Si los coeficientes de la matriz son algebraicos, esto implica que el valor propio es un número de Perron.
  2. El valor propio de Perron-Frobenius es simple: r es una raíz simple del polinomio característico de A. En consecuencia, el espacio propio asociado a r es unidimensional. (Lo mismo es cierto para el espacio propio izquierdo, es decir, el espacio propio para A , la transposición de A.)
  3. Existe un vector propio v = (v1. vnorte) T de A con valor propio r tal que todos los componentes de v son positivos: Una v = r v, vI & gt 0 por 1 ≤ Inorte. (Respectivamente, existe un vector propio izquierdo positivo w : w T A = r w T , wI & gt 0.) Se conoce en la literatura bajo muchas variaciones como el Vector de escalinata, Vector propio de perron, Vector propio de Perron-Frobenius, vector propio líder, o vector propio dominante.
  4. No hay otros autovectores positivos (además no negativos) excepto los múltiplos positivos de v (respectivamente, vectores propios izquierdos excepto w), es decir, todos los demás autovectores deben tener al menos un componente negativo o no real.
  5. lim k → ∞ UNA k / r k = v w T < Displaystyle lim _A ^/ r ^= vw ^>, donde los vectores propios izquierdo y derecho para A están normalizados para que w T v = 1. Además, la matriz v w T es la proyección sobre el espacio propio correspondiente a r. Esta proyección se llama Proyección escalinata.
  6. Fórmula de Collatz-Wielandt: para todos los vectores distintos de cero no negativos X, dejar F(X) ser el valor mínimo de [Hacha]I / XI se hizo cargo de todos esos I tal que XI ≠ 0. Entonces F es una función de valor real cuyo máximo sobre todos los vectores distintos de cero no negativos X es el valor propio de Perron-Frobenius.
  7. Una fórmula Collatz-Wielandt "Mín-máx." Adopta una forma similar a la anterior: para todos los vectores estrictamente positivos X, dejar gramo(X) sea el valor máximo de [Hacha]I / XI tomado I. Luego gramo es una función de valor real cuyo mínimo sobre todos los vectores estrictamente positivos X es el valor propio de Perron-Frobenius.
  8. Fórmula Birkhoff-Varga: Dejar X y y ser vectores estrictamente positivos. Entonces r = sup x & gt 0 inf y & gt 0 y ⊤ A xy ⊤ x = inf x & gt 0 sup y & gt 0 y ⊤ A xy ⊤ x = inf x & gt 0 sup y & gt 0 ∑ i, j = 1 nxi A ijyj / ∑ i = 1 nyixi. < Displaystyle r = sup _ inf _< frac Hacha>x >> = inf _sorber _< frac Hacha>x >> = inf _sorber _ sum _^X_A_y_/ sum _^y_X_.>[8]
  9. Fórmula de Donsker-Varadhan-Friedland: Dejar pag ser un vector de probabilidad y X un vector estrictamente positivo. Entonces r = sup p inf x & gt 0 ∑ i = 1 n p i [A x] i / x i. < Displaystyle r = sup _

    inf _ sum _^pag_[Hacha]_/X_.>[9][10]

  10. Fórmula de Fiedler: r = sup z & gt 0 inf x & gt 0, y & gt 0, x ∘ y = zy ⊤ A xy ⊤ x = sup z & gt 0 inf x & gt 0, y & gt 0, x ∘ y = z ∑ i, j = 1 nxi A ijyj / ∑ i = 1 nyixi. < Displaystyle r = sup _ inf _< frac Hacha>x >> = sup _ inf _ sum _^X_A_y_/ sum _^y_X_.>[11]
  11. El valor propio de Perron-Frobenius satisface las desigualdades

Todas estas propiedades se extienden más allá de las matrices estrictamente positivas para matrices primitivas (vea abajo). Los hechos 1-7 se pueden encontrar en Meyer [12], capítulo 8, afirmaciones 8.2.11-15, página 667, y ejercicios 8.2.5, 7,9, páginas 668-669.

Los vectores propios izquierdo y derecho w y v a veces se normalizan de modo que la suma de sus componentes es igual a 1 en este caso, a veces se les llama vectores propios estocásticos. A menudo se normalizan de modo que el vector propio correcto v sumas a uno, mientras que w T v = 1 < displaystyle w ^v = 1>.

Matrices no negativas Editar

Sin embargo, Frobenius encontró una subclase especial de matrices no negativas: irreducible matrices - para las cuales es posible una generalización no trivial. Para tal matriz, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma ω r < displaystyle omega r>, donde r es un valor propio real estrictamente positivo, y ω < displaystyle omega> se extiende sobre el complejo hth raíces de 1 para algún entero positivo h llamado el período de la matriz. El vector propio correspondiente a r tiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes son solo no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. A continuación se describen otras propiedades.

Clasificación de matrices Editar

Dejar A ser una matriz cuadrada (no necesariamente positiva o incluso real). La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.

Definición 2: A no se puede conjugar en forma triangular superior de bloque mediante una matriz de permutación PAG:

dónde mi y GRAMO son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).

Si A no es negativo, otra definición es válida:

Definición 3: Uno puede asociarse con una matriz A un cierto gráfico dirigido GRAMOA. Tiene exactamente norte vértices, donde norte es el tamaño de A, y hay una arista desde el vértice I al vértice j precisamente cuando Aij & gt 0. Entonces la matriz A es irreducible si y solo si su gráfico asociado GRAMOA está fuertemente conectado.

Una matriz es reducible si no es irreductible.

Una matriz A es primitivo si es no negativo y su metroLa potencia es positiva para algún número natural. metro (es decir, todas las entradas de Soy son positivas).

Dejar A ser no negativo. Arreglar un índice I y definir el período de índice I ser el máximo común divisor de todos los números naturales metro tal queA metro )ii & gt 0. Cuando A es irreducible, el período de cada índice es el mismo y se llama periodo de A. De hecho, cuando A es irreducible, el período se puede definir como el máximo común divisor de las longitudes de los caminos cerrados dirigidos en GRAMOA (consulte Cocinas [15] en la página 16). El período también se denomina índice de imprimibilidad (Meyer [12] página 674) o el orden de ciclicidad. Si el período es 1, A es aperiódico. Se puede demostrar que las matrices primitivas son las mismas que las matrices irreductibles aperiódicas no negativas.

Todos los enunciados del teorema de Perron-Frobenius para matrices positivas siguen siendo verdaderos para matrices primitivas. Las mismas declaraciones también son válidas para una matriz irreductible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto es igual a su radio espectral, por lo que las declaraciones deben modificarse en consecuencia. De hecho, el número de esos valores propios es igual al período.

Los resultados de las matrices no negativas fueron obtenidos por primera vez por Frobenius en 1912.

Teorema de Perron-Frobenius para matrices irreducibles no negativas Editar

Dejar A ser un irreductible no negativo norte × norte matriz con período h y radio espectral ρ(A) = r. Entonces las siguientes declaraciones son válidas.

  1. El número r es un número real positivo y es un valor propio de la matriz A, llamó al Valor propio de Perron-Frobenius.
  2. El valor propio de Perron-Frobenius r es simple. Espacios propios derecho e izquierdo asociados con r son unidimensionales.
  3. A tiene un vector propio derecho v con valor propio r cuyos componentes son todos positivos.
  4. Igualmente, A tiene un vector propio izquierdo w con valor propio r cuyos componentes son todos positivos.
  5. Los únicos vectores propios cuyos componentes son todos positivos son los asociados con el valor propio r.
  6. La matriz A tiene exactamente h (dónde h es el período) autovalores complejos con valor absoluto r. Cada uno de ellos es una raíz simple del polinomio característico y es el producto de r con un hla raíz de la unidad.
  7. Dejar ω = 2π /h. Entonces la matriz A es parecido a miyoA, en consecuencia el espectro de A es invariante bajo la multiplicación por miyo (correspondiente a la rotación del plano complejo por el ángulo ω).
  8. Si h & gt 1 entonces existe una matriz de permutación PAG tal que

Otras propiedades Editar

Dejar A ser una matriz no negativa irreducible, entonces:

  1. (Yo +A) norte−1 es una matriz positiva. (Meyer [12] reclamación 8.3.5 p. 672).
  2. Teorema de Wielandt. [aclaración necesaria] Si |B| & ltA, luego ρ(B)≤ρ(A).Si se cumple la igualdad (es decir, si μ = ρ (A) e iφ es el valor propio para B), luego B = miyoPADRE −1 para alguna matriz unitaria diagonal D (es decir, elementos diagonales de D igual a miyol , no diagonales son cero). [dieciséis]
  3. Si algo de poder Una q es reducible, entonces es completamente reducible, es decir, para alguna matriz de permutación PAG, es cierto que: P A q P - 1 = (A 1 0 0… 0 0 A 2 0… 0 ⋮ ⋮ ⋮ ⋮ 0 0 0… A d) < displaystyle PA ^P ^ <-1> = < beginA_ <1> & amp0 & amp0 & amp dots & amp0 0 & ampA_ <2> & amp0 & amp dots & amp0 vdots & amp vdots & amp vdots & amp & amp vdots 0 & amp0 & amp0 & amp dots & ampA_final>>, donde AI son matrices irreducibles que tienen el mismo valor propio máximo. El número de estas matrices D es el máximo común divisor de q y h, dónde h es período de A. [17]
  4. Si C(X) = x n + ck1 x n-k1 + ck2 x n-k2 +. + cks x n-ks es el polinomio característico de A en el que sólo se enumeran los términos distintos de cero, entonces el período de A es igual al máximo común divisor de k1, k2,. , ks. [18] promedios: lim k → ∞ 1 / k ∑ i = 0,. . . , k UNA yo / r yo = (v w T), < Displaystyle lim _1 / k suma _A ^/ r ^= (vw ^),> donde los vectores propios izquierdo y derecho para A están normalizados para que wTv = 1. Además, la matriz v w T es la proyección espectral correspondiente a r, la proyección Perron. [19]
  5. Dejar r ser el valor propio de Perron-Frobenius, luego la matriz adjunta para (r-A) es positivo. [20]
  6. Si A tiene al menos un elemento diagonal distinto de cero, entonces A es primitivo. [21]
  7. Si 0 ≤ A & lt B, luego rArB. Además, si B es irreductible, entonces la desigualdad es estricta: rA & lt rB.

Una matriz A es primitivo siempre que no sea negativo y Soy es positivo para algunos metro, y por lo tanto A k es positivo para todos k ≥ m. Para comprobar la primitividad, se necesita un límite de cuán grande es el mínimo metro puede ser, dependiendo del tamaño de A: [22]

  • Si A es una matriz primitiva no negativa de tamaño norte, luego Anorte 2 − 2norte + 2 es positivo. Además, este es el mejor resultado posible, ya que para la matriz METRO abajo, el poder M k no es positivo para todos k & lt norte 2 − 2norte + 2, ya que (METROnorte 2 − 2norte+1 )11 = 0.

Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente una característica central. Los siguientes ejemplos que se dan a continuación solo muestran la superficie de su vasto dominio de aplicación.

Matrices no negativas Editar

El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede estar escrito en forma de bloque triangular superior (conocido como el forma normal de una matriz reducible) [23]

dónde PAG es una matriz de permutación y cada BI es una matriz cuadrada que es irreducible o cero. Ahora si A no es negativo, entonces también lo es cada bloque de PAPILLA −1, además el espectro de A es solo la unión de los espectros del BI.

La invertibilidad de A también se puede estudiar. El inverso de PAPILLA −1 (si existe) debe tener bloques diagonales de la forma BI −1 así que si hay alguno BI no es invertible, entonces tampoco lo es PAPILLA −1 o A. Por el contrario, deja D ser la matriz de bloque-diagonal correspondiente a PAPILLA −1, en otras palabras PAPILLA −1 con los asteriscos puestos a cero. Si cada BI es invertible entonces también lo es D y D −1 (PAPILLA −1) es igual a la identidad más una matriz nilpotente. Pero tal matriz es siempre invertible (si N k = 0 el inverso de 1 - norte es 1 + norte + norte 2 + . + norte k−1) entonces PAPILLA −1 y A ambos son invertibles.

Por lo tanto, muchas de las propiedades espectrales de A puede deducirse aplicando el teorema a la irreductible BI. Por ejemplo, la raíz de Perron es el máximo de ρ (BI). Si bien todavía habrá vectores propios con componentes no negativos, es muy posible que ninguno de estos sea positivo.

Matrices estocásticas Editar

Una matriz estocástica de filas (columnas) es una matriz cuadrada, cada una de cuyas filas (columnas) consta de números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a tales matrices porque no es necesario que sean irreductibles.

Si A es estocástico de fila, entonces el vector de columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ (A) por la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástica de filas e irreductible, entonces la proyección de Perron también es estocástica de filas y todas sus filas son iguales.

Teoría de grafos algebraicos Editar

El teorema tiene un uso particular en la teoría de grafos algebraicos. El "gráfico subyacente" de un no negativo norte-matriz cuadrada es el gráfico con vértices numerados 1,. norte y arco ij si y solo si Aij ≠ 0. Si la gráfica subyacente de dicha matriz está fuertemente conectada, entonces la matriz es irreducible y, por lo tanto, se aplica el teorema. En particular, la matriz de adyacencia de un gráfico fuertemente conectado es irreducible. [24] [25]

Cadenas finitas de Markov Editar

El teorema tiene una interpretación natural en la teoría de cadenas de Markov finitas (donde es el equivalente teórico de matrices de la convergencia de una cadena de Markov finita irreductible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena, ver, por ejemplo , el artículo sobre el subdesplazamiento de tipo finito).

Operadores compactos Editar

De manera más general, puede extenderse al caso de operadores compactos no negativos, que, en muchos sentidos, se parecen a matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia, o en ocasiones Operadores Ruelle – Perron – Frobenius (después de David Ruelle). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico, y los valores propios menores a los modos de desintegración de un sistema que no está en equilibrio. Por lo tanto, la teoría ofrece una manera de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examinan desde el punto de vista de la topología de conjuntos de puntos. [26]

Un hilo común en muchas demostraciones es el teorema del punto fijo de Brouwer. Otro método popular es el de Wielandt (1950). Usó la fórmula de Collatz-Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius. [27] Otra prueba se basa en la teoría espectral [28] de la que se toman prestados parte de los argumentos.

La raíz de Perron es un valor propio estrictamente máximo para matrices positivas (y primitivas) Editar

Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r (Valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo tanto r es el radio espectral de A.

Esta afirmación no es válida para matrices irreductibles no negativas generales, que tienen h valores propios con el mismo valor propio absoluto que r, dónde h es el periodo de A.

Prueba de matrices positivas Editar

Dejar A ser una matriz positiva, suponga que su radio espectral ρ (A) = 1 (de lo contrario, considere A / ρ (A)). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Suponga que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo metro tal que Soy es una matriz positiva y la parte real de λ metro es negativo. Sea ε la mitad de la entrada diagonal más pequeña de Soy y establecer T = SoyεI que es otra matriz positiva. Además, si Hacha = λx luego Una m x = λ m x por lo tanto λ metroε es un valor propio de T. Debido a la elección de metro este punto se encuentra fuera del disco unitario, en consecuencia ρ(T) & gt 1. Por otro lado, todas las entradas en T son positivos y menores o iguales a los de Soy así que por la fórmula de Gelfand ρ(T) ≤ ρ(Soy ) ≤ ρ(A) metro = 1. Esta contradicción significa que λ = 1 y no puede haber otros valores propios en el círculo unitario.

Absolutamente los mismos argumentos se pueden aplicar al caso de matrices primitivas, solo necesitamos mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.

Lemma Editar

Dado un no negativo A, asume que existe metro, tal que Soy es positivo, entonces A metro+1 , A metro+2 , A metro+3. son todos positivos.

A metro+1 = Automóvil club británico metro , por lo que puede tener un elemento cero solo si alguna fila de A es completamente cero, pero en este caso la misma fila de Soy será cero.

Aplicando los mismos argumentos anteriores para matrices primitivas, demuestre la afirmación principal.

Método de potencia y el par propio positivo Editar

Para una matriz positiva (o más generalmente irreductible no negativa) A el vector propio dominante es real y estrictamente positivo (para A respectivamente no negativo.)

Esto se puede establecer utilizando el método de potencia, que establece que para una matriz suficientemente genérica (en el sentido siguiente) A la secuencia de vectores Bk+1 = Abk / | Abk | converge al vector propio con el valor propio máximo. (El vector inicial B0 se puede elegir arbitrariamente a excepción de alguna medida puesta a cero). Comenzando con un vector no negativo B0 produce la secuencia de vectores no negativos Bk. Por tanto, el vector limitante tampoco es negativo. Por el método de potencia, este vector limitante es el autovector dominante para A, probando la afirmación. El valor propio correspondiente no es negativo.

La prueba requiere dos argumentos adicionales. Primero, el método de la potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior lo garantiza.

En segundo lugar, asegurar la positividad estricta de todos los componentes del vector propio para el caso de matrices irreducibles. Esto se deriva del siguiente hecho, que es de interés independiente:

Lema: dada una matriz positiva (o más generalmente irreducible no negativa) A y v como cualquier vector propio no negativo para A, entonces es necesariamente estrictamente positivo y el valor propio correspondiente también es estrictamente positivo.

Prueba. Una de las definiciones de irreductibilidad para matrices no negativas es que para todos los índices yo, j existe metro, tal que (A metro )ij es estrictamente positivo. Dado un vector propio no negativo v, y que al menos uno de sus componentes diga j-th es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado norte tal queA norte )ii & gt0, por lo tanto: r norte vI = A norte vI ≥ (A norte )iivI & gt0. Por eso r es estrictamente positivo. El vector propio es positividad estricta. Entonces dado metro, tal que (A metro )ij & gt0, por lo tanto: r metro vj = (A metro v)j ≥ (A metro )ijvI & gt0, por lo tanto vj es estrictamente positivo, es decir, el vector propio es estrictamente positivo.

Multiplicidad uno Editar

Esta sección prueba que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por lo tanto, el espacio propio asociado al valor propio de Perron-Frobenius r es unidimensional. Los argumentos aquí son cercanos a los de Meyer. [12]

Dado un vector propio estrictamente positivo v correspondiente a r y otro vector propio w con el mismo valor propio. (Los vectores v y w puede elegirse para ser real, porque A y r son ambos reales, por lo que el espacio nulo de Arkansas tiene una base que consta de vectores reales.) Suponiendo que al menos uno de los componentes de w es positivo (de lo contrario multiplica w por −1). Dado el máximo posible α tal que u = v- α w no es negativo, entonces uno de los componentes de tu es cero, de lo contrario α no es máximo. Vector tu es un vector propio. No es negativo, por lo tanto, según el lema descrito en la sección anterior, la no negatividad implica una positividad estricta para cualquier vector propio. Por otro lado, como antes, al menos un componente de tu es cero. La contradicción implica que w no existe.

Caso: no hay celdas de Jordan correspondientes al valor propio de Perron-Frobenius r y todos los demás valores propios que tienen el mismo valor absoluto.

Si hay una celda de Jordan, entonces la norma infinita (A / r) k tiende al infinito para k → ∞ , pero eso contradice la existencia del vector propio positivo.

Dado r = 1, o Arkansas. Dejando v ser un vector propio estrictamente positivo de Perron-Frobenius, por lo que Av = v, luego:

| A ^ | _ < infty> leq | v | / min _(v_)> Entonces A k está acotado para todos k. Esto da otra prueba de que no hay valores propios que tengan un valor absoluto mayor que el de Perron-Frobenius. También contradice la existencia de la celda de Jordan para cualquier valor propio que tenga un valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la celda de Jordan implica que A k es ilimitado. Para una matriz de dos por dos:

por eso J k = |k + λ| (para |λ| = 1), por lo que tiende a infinito cuando k lo hace. Desde J k = C −1 A k C, luego A kJ k / (C −1 C ), por lo que también tiende al infinito. La contradicción resultante implica que no hay celdas de Jordan para los valores propios correspondientes.

La combinación de las dos afirmaciones anteriores revela que el valor propio de Perron-Frobenius r es raíz simple del polinomio característico. En el caso de matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r. La misma afirmación es válida para ellos, pero requiere más trabajo.

Ningún otro vector propio no negativo Editar

Dado positivo (o matriz no negativa más generalmente irreducible) A, el vector propio de Perron-Frobenius es el único vector propio no negativo (hasta la multiplicación por constante) para A.

Otros autovectores deben contener componentes negativos o complejos, ya que los autovectores para diferentes autovalores son ortogonales en algún sentido, pero dos autovectores positivos no pueden ser ortogonales, por lo que deben corresponder al mismo autovalor, pero el autoespacio para Perron-Frobenius es unidimensional.

Suponiendo que existe un par propio (λ, y) por A, tal ese vector y es positivo y dado (r, X), dónde X - es el vector propio de Perron-Frobenius izquierdo para A (es decir, vector propio para A ), luego rx T y = (X T A) y = X T () = λx T y, además X T y & gt 0, entonces uno tiene: r = λ. Dado que el espacio propio para el valor propio de Perron-Frobenius r es un vector propio no negativo, unidimensional y es un múltiplo del de Perron-Frobenius. [29]

Fórmula de Collatz-Wielandt Editar

Dada una matriz positiva (o más generalmente irreducible no negativa) A, uno define la función F en el conjunto de todos los vectores distintos de cero no negativos X tal que f (x) es el valor mínimo de [Hacha]I / XI se hizo cargo de todos esos I tal que XI ≠ 0. Entonces F es una función de valor real, cuyo máximo es el valor propio de Perron-Frobenius r.

Para la prueba denotamos el máximo de F por el valor R. La prueba requiere mostrar R = r. Inserción del vector propio de Perron-Frobenius v dentro F, obtenemos f (v) = r y concluir r ≤ R. Para la desigualdad opuesta, consideramos un vector arbitrario no negativo X y deja ξ = f (x). La definición de F da 0 ≤ ξx ≤ Hacha (por componentes). Ahora, usamos el vector propio derecho positivo w por A para el valor propio de Perron-Frobenius r, luego ξ w T x = w T ξx ≤ w T (Ax) = (w T A) x = r w T x . Por eso f (x) = ξ ≤ r, lo que implica R ≤ r. [30]

Proyección de escalera como límite: A k /r k Editar

Dejar A ser una matriz positiva (o más generalmente, primitiva), y dejar r sea ​​su valor propio de Perron-Frobenius.

  1. Existe un limite A k / r k por k → ∞, denotarlo por PAG.
  2. PAG es un operador de proyección: PAG 2 = PAG, que conmuta con A: AP = Pensilvania.
  3. La imagen de PAG es unidimensional y se divide en el vector propio de Perron-Frobenius v (respectivamente para P T —Por el vector propio de Perron-Frobenius w por A ).
  4. PAG = vwT , dónde v, w están normalizados de tal manera que wTv = 1.
  5. Por eso PAG es un operador positivo.

Por eso PAG es una proyección espectral del valor propio de Perron-Frobenius r, y se llama proyección de Perron. La afirmación anterior no es cierta para las matrices irreductibles no negativas generales.

En realidad, las afirmaciones anteriores (excepto la 5) son válidas para cualquier matriz. METRO tal que existe un valor propio r que es estrictamente mayor que los otros valores propios en valor absoluto y es la raíz simple del polinomio característico. (Estos requisitos son válidos para matrices primitivas como se indicó anteriormente).

Dado que METRO es diagonalizable, METRO se conjuga a una matriz diagonal con valores propios r1, . , rnorte en la diagonal (denotar r1 = r). La matriz METRO k /r k será conjugado (1, (r2/r) k , . , (rnorte/r) k ), que tiende a (1,0,0. 0), para k → ∞, entonces el límite existe. El mismo método funciona para general METRO (sin asumir que METRO es diagonalizable).

Las propiedades de proyección y conmutatividad son corolarios elementales de la definición: MM k /r k = METRO k /r k METRO PAG 2 = lim METRO 2k /r 2k = PAG. El tercer hecho también es elemental: METRO(Pu) = METRO lim METRO k /r k tu = lim rM k+1 /r k+1 tu, por lo que tomar el límite da como resultado METRO(Pu) = r(Pu), por lo que la imagen de PAG yace en el r-eigenspace para METRO, que es unidimensional según los supuestos.

Denotando por v, r-eigenvector para METRO (por w por M T ). Columnas de PAG son múltiplos de v, porque la imagen de PAG está abarcado por él. Respectivamente, filas de w. Entonces PAG toma una forma (a v w T), para algunos a. Por lo tanto, su traza es igual a (a w T v). El rastro del proyector es igual a la dimensión de su imagen. Se demostró antes que no es más que unidimensional. De la definición se ve que PAG actúa de forma idéntica en el r-eigenvector para METRO. Entonces es unidimensional. Así que eligiendo (w T v) = 1, implica PAG = vw T .

Desigualdades para el valor propio de Perron-Frobenius Editar

Para cualquier matriz no negativa A su valor propio de Perron-Frobenius r satisface la desigualdad:

Este hecho es específico de matrices no negativas para matrices generales, no hay nada similar. Dado que A es positivo (no solo no negativo), entonces existe un vector propio positivo w tal que Aw = rw y el componente más pequeño de w (decir wI) es 1. Entonces r = (Aw)I ≥ la suma de los números en fila I de A. Por lo tanto, la suma mínima de filas da un límite inferior para r y esta observación se puede extender a todas las matrices no negativas por continuidad.

Otra forma de argumentarlo es a través de la fórmula de Collatz-Wielandt. Uno toma el vector X = (1, 1,. 1) e inmediatamente obtiene la desigualdad.

Más pruebas Editar

Proyección de escalón Editar

La prueba ahora procede usando descomposición espectral. El truco aquí es dividir la raíz de Perron de los otros valores propios. La proyección espectral asociada con la raíz de Perron se llama proyección de Perron y disfruta de la siguiente propiedad:

La proyección de Perron de una matriz cuadrada no negativa irreducible es una matriz positiva.

Los hallazgos de Perron y también (1) - (5) del teorema son corolarios de este resultado. El punto clave es que una proyección positiva siempre tiene rango uno. Esto significa que si A es una matriz cuadrada no negativa irreducible, entonces las multiplicidades algebraicas y geométricas de su raíz de Perron son ambas una. También si PAG es su proyección Perron entonces AP = Pensilvania = ρ (A)PAG así que cada columna de PAG es un vector propio derecho positivo de A y cada fila es un vector propio izquierdo positivo. Además, si Hacha = λX luego Paz = λPx = ρ (A)Px lo que significa Px = 0 si λ ≠ ρ (A). Por tanto, los únicos vectores propios positivos son los asociados con ρ (A). Si A es una matriz primitiva con ρ (A) = 1 entonces se puede descomponer como PAG ⊕ (1 − PAG)A así que eso Un = PAG + (1 − PAG)A norte . Como norte aumenta el segundo de estos términos decae a cero dejando PAG como el límite de Un como norte → ∞.

El método de potencia es una forma conveniente de calcular la proyección de Perron de una matriz primitiva. Si v y w son los vectores positivos de fila y columna que genera, entonces la proyección de Perron es solo Virginia Occidental/vw. Las proyecciones espectrales no están perfectamente bloqueadas como en la forma de Jordan. Aquí están superpuestos y cada uno generalmente tiene entradas complejas que se extienden a las cuatro esquinas de la matriz cuadrada. Sin embargo, conservan su ortogonalidad mutua que es lo que facilita la descomposición.

Proyección periférica Editar

El análisis cuando A es irreducible y no negativo es, en general, similar. La proyección de Perron sigue siendo positiva, pero ahora puede haber otros valores propios de módulo ρ (A) que niegan el uso del método de poder y previenen los poderes de (1 - PAG)A decayendo como en el caso primitivo siempre que ρ (A) = 1. Por tanto, consideramos el proyección periférica, que es la proyección espectral de A correspondiente a todos los valores propios que tienen módulo ρ(A). Entonces se puede demostrar que la proyección periférica de una matriz cuadrada no negativa irreducible es una matriz no negativa con una diagonal positiva.

Ciclicidad Editar

Supongamos además que ρ (A) = 1 y A posee h valores propios en el círculo unitario. Si PAG es la proyección periférica entonces la matriz R = AP = Pensilvania es no negativo e irreductible, Rh = PAG, y el grupo cíclico PAG, R, R 2 , . R h−1 representa los armónicos de A. La proyección espectral de A en el valor propio λ en el círculo unitario viene dado por la fórmula h - 1 ∑ 1 h λ - k R k < displaystyle scriptstyle h ^ <-1> sum _ <1> ^ lambda ^ <-k> R ^>. Todas estas proyecciones (incluida la proyección de Perron) tienen la misma diagonal positiva; además, si se elige cualquiera de ellas y luego se toma el módulo de cada entrada, se obtiene invariablemente la proyección de Perron. Todavía se necesita algo de trabajo de burro para establecer las propiedades cíclicas (6) - (8), pero esencialmente es solo una cuestión de girar el mango. La descomposición espectral de A es dado por A = R ⊕ (1 − PAG)A entonces la diferencia entre Un y R n es UnR n = (1 − PAG)A norte representando los transitorios de Un que eventualmente decae a cero. PAG puede calcularse como el límite de Un nh como norte → ∞.

Un problema que genera confusión es la falta de estandarización en las definiciones. Por ejemplo, algunos autores usan los términos estrictamente positivo y positivo para significar & gt 0 y ≥ 0 respectivamente. En este articulo positivo significa & gt 0 y no negativo significa ≥ 0. Otra área preocupada se refiere descomponibilidad y reducibilidad: irreducible es un término sobrecargado. Para evitar dudas, una matriz cuadrada no negativa no nula A tal que 1 + A es primitivo a veces se dice que es conectado. Entonces, las matrices cuadradas no negativas irreducibles y las matrices conectadas son sinónimos. [31]

El vector propio no negativo a menudo se normaliza de modo que la suma de sus componentes sea igual a la unidad en este caso, el vector propio es el vector de una distribución de probabilidad y a veces se denomina vector propio estocástico.

Valor propio de Perron-Frobenius y autovalor dominante son nombres alternativos para la raíz de Perron. Las proyecciones espectrales también se conocen como proyectores espectrales y idempotentes espectrales. En ocasiones, el período se denomina índice de imprimibilidad o el orden de ciclicidad.


3.6: El método de Frobenius II - Matemáticas

¡Hoy, 30 de noviembre, es el día de AMS! Únase a nuestra celebración de los miembros de AMS y explore ofertas especiales en publicaciones de AMS, membresía y más. Las ofertas terminan a las 11:59 pm EST.

ISSN 1088-6842 (en línea) ISSN 0025-5718 (impreso)

Logaritmos discretos individuales más rápidos en campos finitos de grado de extensión compuesto


Autor: Aurore Guillevic
Diario: Matemáticas. Comp. 88 (2019), 1273-1301
MSC (2010): Primaria 11T71
DOI: https://doi.org/10.1090/mcom/3376
Publicado electrónicamente: 6 de septiembre de 2018
Revisión de MathSciNet: 3904147
PDF de texto completo
Ver en AMS MathViewer

Resumen: Calcular logaritmos discretos en campos finitos es una preocupación principal en criptografía. Los mejores algoritmos en campos característicos grandes y medianos (por ejemplo, $ rm (p ^ 2) $, $ rm (p ^ <12>) $) son el tamiz de campo numérico y sus variantes (especial, de alto grado, torre). Los mejores algoritmos en campos finitos característicos pequeños (por ejemplo, $ rm (3 ^ <6 cdot 509>) $) son el tamiz de campo de función, el algoritmo de Joux y el algoritmo de tiempo cuasipolinomial. El último paso de esta familia de algoritmos es el cálculo del logaritmo individual. Calcula una descomposición suave de un objetivo dado en dos fases: una división inicial, luego un árbol de descenso. Si bien se han realizado nuevas mejoras para reducir la complejidad de la colección de relaciones dominantes y los pasos de álgebra lineal, lo que da como resultado una base de factores más pequeña (base de datos de logaritmos conocidos de elementos pequeños), el último paso permanece en el mismo nivel de dificultad. De hecho, tenemos que encontrar una descomposición suave de un elemento típicamente grande en el campo finito. Este trabajo mejora la fase de división inicial y se aplica a cualquier campo finito no principal. Es muy eficaz cuando el grado de extensión es compuesto. Explota los subcampos adecuados, lo que resulta en una descomposición mucho más suave del objetivo. Esto conduce a una nueva compensación entre el paso de división inicial y el paso de descenso en característica pequeña. Además, reduce el ancho y la altura del árbol descendente posterior.

  • G. Adj, Logaritmos discretos en el campo de interés criptográfico GF $ (3 ^ <6 * 509>) $, Conferencia de criptografía de curva elíptica (ECC), Charla invitada, septiembre de 2016, diapositivas disponibles en http://ecc2016.yasar.edu.tr/slides/ecc2016-gora.pdf.
  • G. Adj, Logaritmo discreto en campos finitos de característica pequeña: atacando la criptogrfía basada en emparejamientos de tipo 1, Tesis doctoral, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, México, julio de 2016, http://delta.cs.cinvestav.mx/
    Referencias
  • G. Adj, Logaritmos discretos en el campo de interés criptográfico GF $ (3 ^ <6 * 509>) $, Conferencia de criptografía de curva elíptica (ECC), Charla invitada, septiembre de 2016, diapositivas disponibles en http://ecc2016.yasar.edu.tr/slides/ecc2016-gora.pdf.
  • G. Adj, Logaritmo discreto en campos finitos de feature small: atacando la criptogrfía basada en emparejamientos de tipo 1, Tesis doctoral, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, México, julio de 2016, http://delta.cs.cinvestav.mx/

Recuperar artículos en Matemáticas de la Computación con MSC (2010): 11T71

Recuperar artículos en todas las revistas con MSC (2010): 11T71

Aurore Guillevic
Afiliación: Inria Nancy – Grand Est, Équipe Caramba, 615 rue du jardin botanique, CS 20101, 54603 Villers-lès-Nancy Cedex, Francia
MR ID de autor: 963265
Correo electrónico: [email protected]

Palabras clave: campo finito, logaritmo discreto, tamiz de campo numérico, tamiz de campo de función, logaritmo individual.
Recibido por editor (es): 26 de julio de 2017
Recibido por los editores en forma revisada: 26 de febrero de 2018
Publicado electrónicamente: 6 de septiembre de 2018
Copyright del artículo: & copy Copyright 2018 American Mathematical Society


3.6: El método de Frobenius II - Matemáticas

En el otoño nos centraremos en gran medida en la comprensión de ejemplos y cálculos clave, así como en las demostraciones de teoremas serios sobre la teoría de la gavilla de etale, con el objetivo de completar gran parte del capítulo 1 del libro de Freitag y Kiehl. Eso nos llevará a través de los importantes teoremas del cambio de base suave y adecuado, así como del formalismo básico de l-cohomología ádica. En el invierno profundizaremos en la teoría de la cohomología (especialmente en los teoremas de dualidad y las fórmulas de Kunneth), y luego pasaremos a la técnica de Laumon de l-adic Fourier se transforma en la configuración de la gavilla.

Aquí hay algunas referencias relevantes para el seminario de este año (en orden aproximado de aparición):

Algunas notas que Conrad escribió hace mucho tiempo que seguiremos como plantilla para el otoño y el invierno (complementadas con otras referencias para los detalles omitidos indicados en el mismo), es un archivo .pdf editado, que explica algunos espacios en blanco ocasionales (irrelevantes) en el medio. de texto
[FK] "Etale Cohomology and the Weil Conjectures" por Freitag y Kiehl
[Mi] "Etale Cohomology" de Milne
[KW] "Conjeturas de Weil, gavillas perversas y l-adic Fourer transform "por Kiehl y Weissauer
[M1] "Dualidad de etale analítica" (preimpresión) y [M2] "q-cohomologías cristalinas "(en preparación) por Masullo


Las matemáticas de Frobenius en contexto: un viaje a través de las matemáticas de los siglos XVIII al XX

El Comité de Lista de Bibliotecas Básicas recomienda encarecidamente que este libro sea adquirido por bibliotecas de matemáticas de pregrado.

Ferdinand Georg Frobenius nació en 1849 y pasó sus primeros años de carrera en la Universidad de Berlín. De 1874 a 1892 trabajó en Zurich en la institución ahora conocida como ETH. En 1892 regresó a la Universidad de Berlín, donde trabajó hasta su muerte en 1917. Hizo contribuciones fundamentales a muchas áreas de las matemáticas, siendo el más famoso por fundar la teoría de las representaciones de grupos finitos.

En 1968, las obras recopiladas de Frobenius y rsquo se publicaron en un conjunto de tres volúmenes, editado por Jean-Pierre Serre. Serre escribe en su prefacio de una página,

Hawkins ha dedicado más de cuarenta años a esta difícil tarea. El presente trabajo teje sus artículos publicados anteriormente y mucho más en una descripción de toda la carrera de Frobenius. Como sugiere el título, se dedica aproximadamente la misma atención a proporcionar contexto. Así, además de describir el trabajo de Frobenius y rsquo, Hawkins lo relaciona regularmente con el trabajo de otros matemáticos, anteriores, contemporáneos y posteriores.

El texto se divide en tres partes. Los capítulos 1 y 2 resumen la vida y las matemáticas de Frobenius. Los capítulos 3 y ndash5 preparan el escenario al discutir algunas matemáticas pre-Frobenius Berlín. Los capítulos 6 y 18, claramente el núcleo del libro de quinientas páginas, se centran en los logros matemáticos de Frobenius en orden cronológico aproximado.

Recomiendo encarecidamente el libro de Hawkins y rsquo. Es muy matemático hasta el final. Pero, en términos de estructura, se lee como una gran novela. Hay un protagonista central, pero también muchos otros personajes de gran interés dibujados con nitidez. Hay muchas historias individuales atractivas y todas se entrelazan en un todo satisfactorio.

Para ayudar a otros a participar en el libro, I & rsquoll ofrece versiones introductorias de tres de las historias, que representan la atención que Hawkins presta a la historia general, de teoría de números y de teoría de grupos. Los dos últimos dan la & ldquobackstory & rdquo de tres artículos consecutivos, todos publicados en 1896. Estos son los artículos 52, 53 y 54 de los 102 artículos matemáticos de las obras recopiladas por Frobenius & rsquo. Muchos otros artículos de diferentes campos también reciben una atención cuidadosa en la descripción detallada de Hawkins y rsquo de las matemáticas de Frobenius y su contexto.

La sociología de las matemáticas alemanas en el siglo XIX y principios del XX es intrigante, especialmente la extrema escasez de lo que Hawkins llama cátedras plenas. Por ejemplo, en 1890 Berlín tenía tres puestos de este tipo y su principal rival G & oumlttingen tenía dos. Este entorno produjo muchos casos históricamente importantes y algo dramáticos en los que un matemático famoso fue sucedido por otro. Hawkins relata los siguientes eventos con mucho más detalle en las páginas 53 & ndash54 y 64 & ndash70.

Los tres profesores titulares en 1890 en Berlín eran Fuchs, Kronecker y Weierstrass, y los dos últimos ya no se llevaban bien. Weierstrass, entonces de 75 años, quería renunciar a su puesto, pero se quedó porque no quería que Kronecker tuviera un papel principal en la elección de su sucesor. Pero al año siguiente Kronecker murió repentinamente, y Weierstrass fue la fuerza principal en la elección de los dos nuevos profesores titulares, Schwarz y Frobenius.

Fuchs murió en 1902. El comité, que incluía a Schwarz y Frobenius, tenía a Hilbert, entonces uno de los dos profesores titulares de G & oumlttingen, como primera opción para su sucesor. Frobenius argumentó enérgicamente que Schottky estaba en un cercano segundo lugar. Después de mucho ir y venir, G & oumlttingen recibió una tercera cátedra completa ocupada por Minkowski, Hilbert se quedó allí y Schottky se convirtió en el nuevo profesor titular en Berlín. Todo el incidente ensució un poco la reputación de Frobenius y rsquo con las autoridades contratantes: Hawkins llama a Frobenius y rsquo argumentos a favor de Schottky y "ldquospecious", "ldquoexaggerated" y "ldquomisleading".

Schwarz dimitió en 1916. Esta vez, la primera elección del comité y rsquos, Schmidt, fue elegida como sucesora. Una vez más, Frobenius elogió mucho a la segunda opción, Schur, pero su palabra tuvo poco peso. Después de la muerte de Frobenius, Schur volvió a quedar en segundo lugar, esta vez a Carath & eacuteodory. Poco después, Carath y eacuteodory partieron hacia su tierra ancestral de Grecia, y Schur fue pasado por alto una vez más, ahora a favor de von Mises. Finalmente, en 1921 Schottky murió y Schur, matemáticamente el sucesor natural de Frobenius, finalmente fue nombrado profesor titular.

Muchos otros matemáticos de primer rango desempeñan un papel importante en el libro de Hawkins. El más destacado entre ellos es Dedekind, dieciocho años mayor que Frobenius. Al igual que Frobenius, Dedekind pasó parte de su carrera inicial en Berlín y Zúrich. Pero luego pasó la mayor parte de su carrera en Brunswick, lejos de los centros principales, sin ni siquiera supervisar a un estudiante de doctorado. La correspondencia con Dedekind juega un papel central en la génesis de los tres artículos que se comentarán a continuación. Hawkins cita extensamente esta correspondencia, dejando en claro que los dos matemáticos tenían una fuerte amistad basada en un profundo respeto mutuo.

Algo de historia de la teoría de los números

Frobenius tuvo un papel central en la historia temprana de lo que ahora se llama el teorema de la densidad de Chebotarev. El papel clave de Frobenius & rsquo, número 52 en sus obras completas, es & Uumlber Beziehungen zwischen den Primidealen eines algebraischen K & oumlrpers und den Substitutionen seiner Gruppe o Sobre las relaciones entre los ideales primarios de un campo algebraico y las sustituciones en su grupo.

Hawkins describe la historia de fondo muy complicada de este documento en las páginas 318 y ndash335.Hay un misterioso retraso en la publicación de 15 años y una conjetura incorrecta sobre un tema secundario relativamente poco importante que llegó al artículo final. Hawkins sostiene que la demora se debió en parte a la conjetura.

Frobenius destaca el retraso en la primera página de su artículo de 1896, escribiendo

Del libro de Hawkins y rsquo, aprendemos mucho más. Frobenius escribió a Dedekind varias veces, diciéndole que envió el trabajo a la revista Crelle & rsquos en 1881 y que el proceso de revisión estaba demorando mucho. Más tarde, Frobenius volvió a escribir a Dedekind diciéndole que finalmente había sido aceptado. Pero, de hecho, el papel no apareció. Hawkins especula que Frobenius retiró su artículo para mejorarlo.

Para describir más la historia, usaré la numeración del papel de Frobenius y rsquo. Para beneficio de los lectores que quieran seguir un tratamiento prolongado y cuidadoso de Hawkins, también le doy la numeración a Hawkins y rsquo.

I Teorema 9.14 Equidistribución de particiones factoriales para polinomios
II Teorema 9.16 Equidistribución de particiones factoriales para campos
& sect3 Conjetura 9.17 Conjetura inversa
& sect4 Teorema 9.18 Construcción de elementos Frobenius
IV Teorema 9.20 Equidistribución de las divisiones de Frobenius en los grupos de Galois
V Conjetura 9.21 Equidistribución de clases de conjugación de Frobenius en grupos de Galois

Las afirmaciones de equidistribución I, II, IV y V son afirmaciones similares de creciente profundidad. Les presentaré aquí la noción técnica de densidad de Dirichlet reemplazada por un equivalente intuitivo aproximado, la frecuencia. El material de las Secciones 3 y 4 del artículo de Frobenius y rsquo juega un papel central, pero no está numerado allí.

El Teorema I de Frobenius y rsquo se refiere a polinomios y convierte una igualdad analítica fundamental publicada en 1880 por Kronecker en una declaración de teoría de grupo que ofrece perspectivas complementarias. Suponga dado un polinomio mónico irreducible ( Phi (x) ) con coeficientes integrales. Entonces uno puede factorizarlo en modulo primos irreducibles. Tomando ( Phi (x) = x ^ 6-6 x ^ 4 + 6 x ^ 2-6 x + 2 in mathbb[x] ) como ejemplo continuo, sus factorizaciones modulo los primeros seis primos son como en la segunda columna:

Utilizando un lenguaje moderno, diga que un primo es malo si un factor se repite y por lo demás es bueno. Siempre hay sólo un número finito de números primos incorrectos y, en el ejemplo, los únicos números primos incorrectos son 2, 3 y 5. Lo importante que debe extraerse de un número primo es su partición de factores asociada, que se obtiene al enumerar los grados de los factores irreductibles.

Para enunciar el Teorema I de Frobenius y rsquo, es necesario incorporar grupos de Galois. El polinomio dado ( Phi (x) ) tiene un grupo de Galois (G ), que es un grupo de permutaciones del polinomio & rsquos raíces del complejo. En el ejemplo, las raíces complejas se pueden etiquetar (r_ <12> ), (r_ <13> ), (r_ <14> ), (r_ <23> ), (r_ < 24> ) y (r_ <34> ) de tal manera que (G ) se identifica con el grupo simétrico (S_4 ). Así, por ejemplo, la transposición ((1,2) ) en (S_4 ) actúa como la permutación ((r_ <13>, r_ <23>) (r_ <14>, r_ <24>) ).

El teorema I de Frobenius y rsquo dice entonces que una partición dada surge como una partición factorial para los números primos con la misma frecuencia que surge como una partición cíclica para los elementos del grupo de Galois. En el ejemplo, las frecuencias son las siguientes:

Entonces, leyendo la segunda fila como ejemplo, 9 de los 24 elementos del grupo tienen una partición cíclica ([2,2,1,1] ), los primeros tres primos tienen una partición factorial ([2,2,1,1 ] ) son (17 ), (31 ) y (43 ), y en total (9030 ) de los primeros (24000 ) primos tienen la partición factorial ([2,2,1 , 1] ). La concordancia entre las columnas & ldquo # de (g ) & rdquo y & ldquo # de (p ) & rdquo es inconfundible. Si bien Frobenius y sus contemporáneos nunca vieron datos como en la última columna, ahora podemos producirlos fácilmente en menos de diez segundos.

Para enunciar el Teorema II de Frobenius y rsquo, es necesario traducir al lenguaje de los ideales primarios, una nueva teoría en el tiempo de Frobenius y rsquo debido a Dedekind. Sea (R ) el anillo de números enteros en el campo numérico ( mathbb[x] / f (x) ). Entonces un ideal primo ((p) ) en ( mathbb) factores en potencias de distintos ideales primos en (R ), como se ilustra en la última columna de la tabla (1). Los números en subíndices indican el grado de un ideal primo, como en (| R / P_f | = p ^ f ). Al enumerar los grados de los ideales primos, se obtiene nuevamente una partición del grado de ( Phi (x) ). En un buen primo, la nueva partición de teoría ideal es la misma que la antigua partición de teoría de polinomios. En un mal primo, puede ser diferente, aunque para los tres malos primos del ejemplo es el mismo. El Teorema II de Frobenius y rsquo ahora simplemente repite el Teorema I, excepto que se refiere a particiones teóricas ideales.

Frobenius señala en la Sección 3 que si una partición ([f_1. F_e] ) no proviene de un elemento de grupo, entonces el Teorema II dice que solo puede provenir de un conjunto de números primos de densidad cero. Pero un conjunto de densidad cero no está necesariamente vacío. En palabras de Frobenius y rsquo,

Frobenius conjetura en cursiva que tales números primos no existen. Luego demuestra en el resto de la Sección 3 que la conjetura es cierta para buenos números primos.

Es sorprendente que Frobenius no ignorara simplemente los números primos malos y estableciera su resultado en números primos buenos como un teorema. Después de todo, los números primos incorrectos, al ser finitos en número, no tienen ningún papel en las declaraciones de equidistribución del artículo. En retrospectiva, ahora sabemos que la conjetura de los números primos incorrectos es de hecho falsa, como lo ilustra [2,2,2] que surge del primo 5 en las tablas (1) y (2) anteriores.

También es sorprendente que la conjetura incorrecta de Frobenius no se corrigiera durante más de 100 años. El primer contraejemplo publicado de la conjetura completa de Frobenius y rsquo está en realidad en el libro de Hawkins. Hawkins reconoce que Serre ayudó de muchas maneras a lo largo de sus cuarenta años de estudio de Frobenius, y este contraejemplo se debe a Serre. El contraejemplo I & rsquove presentado anteriormente es una modificación que tiene la característica de que las particiones de factores teóricos polinomiales concuerdan con las particiones de factores teóricos ideales.

Habiendo explicado algunas de las matemáticas, ahora podemos volver a la historia. A principios de la década de 1880, Frobenius pensó que el trabajo inédito de Dedekind de finales de la década de 1870 le permitiría demostrar que si ([f_1, f_2, dots, f_e] ) no proviene de un elemento del grupo de Galois, entonces tampoco proviene de una mala prima. . Mantuvo correspondencia con Dedekind en este punto. Frobenius parece haber estado esperando que Dedekind publicara su trabajo reciente, y luego podría perfeccionar su declaración en la Sección 3 para incluir números primos incorrectos. Dedekind no publicó y Frobenius tampoco publicó.

A finales de la década de 1870, Dedekind había hecho una construcción fundamental (p mapsto F_p ), asociando a un buen primo (p ) una clase de conjugación en (G ). La sección 4 del artículo de Frobenius y rsquo también da esta construcción y ahora llamamos a (F_p ) una clase de Frobenius. En la década de 1890, Hilbert estaba descubriendo de forma independiente algunos de los resultados antiguos de Dedekind & rsquos, incluida la construcción (p mapsto F_p ), y Dedekind se vio obligado a publicar algunos de sus resultados anteriores. Entonces Hurwitz descubrió de forma independiente el Teorema IV de Frobenius y Frobenius salió con su artículo de 1896. El enunciado V de Frobenius, el enunciado más refinado y más natural sobre la equidistribución de (F_p ), tuvo que esperar hasta la década de 1920 para ser probado por Chebotarev. ¡Historia notable que uno no conoce simplemente trabajando en la teoría de números algebraica actual!

Algo de historia de la teoría de grupos

Frobenius fue la figura central en el descubrimiento de la teoría de las representaciones de grupos finitos. En las páginas 449 y 488, Hawkins describe la historia de fondo detrás de las dos primeras contribuciones de Frobenius, los artículos 53 y 54. Una lección aquí es que la primera ruta histórica de un grupo a su tabla de personajes tiene una simplicidad teórica espectacular que casi hemos olvidado. El concepto de determinante de grupo juega un papel central, aunque apenas se registra en la conciencia de los matemáticos modernos.

Para explicar este concepto mediante un ejemplo, considere el grupo simétrico (S_3 ). Abreviar sus elementos mediante ((a, b, c, d, e, f) = ( mbox, (123), (132), (12), (13), (23)) ). Entonces su tabla de multiplicar, normalizada para que los elementos de identidad bajen por la diagonal principal, tiene la siguiente forma:

El determinante de grupo ( Theta (S_3) ) es solo el determinante de esta matriz, visto como un polinomio en ( mathbb[a B C D e F]). Para un grupo finito general (G ), su determinante de grupo ( Theta (G) ) es igualmente el determinante de su tabla de multiplicar.

Ampliado, ( Theta (S_3) ) tiene 147 términos. Sin embargo, factorizado, toma la siguiente forma notable:

[ empezar nonumber Theta (S_3) & amp = & amp (a + b + c + d + e + f) (a + b + c-d-e-f) cdot label & amp & amp qquad left (a ^ 2-a b-a c + b ^ 2-b c + c ^ 2-d ^ 2 + d e + d f-e ^ 2 + e f-f ^ 2 right) ^ 2. final etiqueta <3> ]

Dedekind había obtenido esta fórmula en 1886, como explica Hawkins en las páginas 449 y ndash450. Él sabía teóricamente que ( Theta (G) ) factores en factores lineales para todos los abelianos (G ). También había encontrado factorizaciones similares a (3) para otros (G ) pequeños no belianos. Escribió a Frobenius el 19 de marzo de 1896, tratando de interesarlo por los determinantes del grupo.

Frobenius estaba más que interesado y en un mes tuvo resultados fundamentales. Para (G ) general con (k ) clases de conjugación, demostró una factorización en irreducibles de la forma

Frobenius suena particularmente moderno cuando escribe que (k ) es tanto el número de factores primos como el número de clases de conjugación: dice que este acuerdo es & ldquotodo más notable ya que no parece haber ninguna relación entre los primos individuales factores y las clases individuales & rdquo (página 476).

Frobenius fue más lejos en este primer mes. Las tres clases de conjugación de (S_3 ) son ([1,1,1] = ), ([3] = ) y ([2,1] = ). Reemplazando (b ) y (c ) por (u / 2 ), y (d ), (e ) y (f ) por (v / 3 ), el factores determinantes de grupos especializados aún más,

Para (G ) general, Frobenius pasó de elementos de grupo a clases de conjugación de la misma manera. Demostró que siempre hay una factorización en factores lineales,

¡Reconocemos ahora que la tabla de caracteres completa de un grupo finito general (G ) acaba de aparecer en (6)! Por ejemplo, (5) exhibe esta tabla de caracteres para (S_3 ):

Una vez más, Frobenius anticipa el punto de vista moderno cuando llama a (6) "una de las fórmulas más importantes" (página 476). Al informar de los resultados anteriores el 17 de abril de 1896, Frobenius le escribe a Dedekind: "Le estoy muy agradecido por sugerir este trabajo, que me ha proporcionado una alegría inconmensurable".

El mes heroico que acabamos de resumir es seguido por varios años igualmente heroicos, todos bien descritos por Hawkins. Inmediatamente, Frobenius reemplaza el determinante de grupo con métodos computacionalmente prácticos. Ya el 26 de abril de 1896 escribe a Dedekind, sobre "un acto de vil ingratitud contra el determinante magnífico" ( Theta ), "la fuente milagrosa de la que ha brotado todo lo maravilloso". Empieza a derivar (4) y (6) ) & ldquodirectamente de la teoría de grupos & rdquo (página 477).

De hecho, Frobenius y rsquo primer artículo de teoría de grupos de 1896, Y Uumlber Gruppencharaktere, inicia una teoría general de tablas de caracteres con sofisticados ejemplos explícitos, todos sin determinantes de grupo. Su otro artículo de teoría de grupos de 1896, & Uumlber die Primfactoren der Gruppendeterminante, es el punto culminante de los determinantes de grupo en las obras publicadas por Frobenius. En él se prueban (4) y (6), junto con el importante complemento que (f_i = mbox( Phi_i) ). ¡Aquí no hay retrasos en la publicación!

Resumiendo desde un punto de vista diferente, las tablas de multiplicar en grupo son un tema obligatorio en todos los cursos introductorios de álgebra abstracta, pero ofrecen muy poca información sobre la naturaleza de un grupo determinado (G ). Las tablas de caracteres son demasiado avanzadas para estos cursos, pero son una parte esencial de una buena comprensión de (G ). ¿Cuántos instructores conocen la estrecha relación entre los dos tipos de tablas?

La cita del prefacio de Serre & rsquos a las obras recopiladas de Frobenius & rsquo continúa de manera muy curiosa. El análisis del trabajo y la influencia de Frobenius y rsquo habría sido muy difícil

Serre explica lo que quiere decir citando inmediatamente una carta que recibió de Brauer: "Si el lector quiere hacerse una idea de la importancia del trabajo de Frobenius hoy, todo lo que tiene que hacer es mirar libros y artículos sobre grupos". la continuación es simplemente un recurso retórico, destinado a subrayar la gran influencia que Frobenius tiene en partes de las matemáticas hasta el día de hoy.

Sin embargo, vale la pena decirlo claramente: el trabajo de Hawkins es extraordinariamente útil. Permite a la comunidad matemática, incluso a la gran mayoría de nosotros que no leemos bien el alemán, comprender el trabajo del muy importante matemático Frobenius. La gran extensión del libro es esencial para el éxito del libro y rsquos. Se nos da una idea del arco completo y la sorprendente variedad de la carrera de Frobenius. La cuidadosa atención al contexto también es fundamental. Nos da un sentido más completo de la época de Frobenius y rsquo y su relevancia directa para la nuestra.


Bhaskara

Bhaskara también se conoce como Bhaskara II o como Bhaskaracharya, este último nombre significa "Bhaskara el Maestro". Dado que en la India se le conoce como Bhaskaracharya, nos referiremos a él a lo largo de este artículo con ese nombre. El padre de Bhaskaracharya era un brahman llamado Mahesvara. El propio Mahesvara era famoso como astrólogo. Esto sucedió con frecuencia en la sociedad india con generaciones de una familia que eran excelentes matemáticos y, a menudo, actuaban como maestros para otros miembros de la familia.

Bhaskaracharya se convirtió en jefe del observatorio astronómico de Ujjain, el principal centro matemático de la India en ese momento. Matemáticos destacados como Varahamihira y Brahmagupta habían trabajado allí y habían construido una sólida escuela de astronomía matemática.

En muchos sentidos, Bhaskaracharya representa el pico del conocimiento matemático en el siglo XII. Alcanzó una comprensión de los sistemas numéricos y la resolución de ecuaciones que no se logró en Europa durante varios siglos.

Se conocen seis obras de Bhaskaracharya, pero muchos historiadores creen que una séptima obra, que afirma ser suya, es una falsificación tardía. Las seis obras son: Lilavati (The Beautiful) que trata sobre matemáticas Bijaganita (Recuento de semillas o extracción de raíces) que está en álgebra el Siddhantasiromani que consta de dos partes, la primera sobre astronomía matemática y la segunda parte sobre la esfera Vasanabhasya de Mitaksara que es el propio comentario de Bhaskaracharya sobre el Siddhantasiromani la Karanakutuhala (Cálculo de maravillas astronómicas) o Brahmatulya que es una versión simplificada del Siddhantasiromani y el Vivarana que es un comentario sobre el Shishyadhividdhidatantra de Lalla. Son los tres primeros de estos trabajos los más interesantes, ciertamente desde el punto de vista de las matemáticas, y nos concentraremos en el contenido de estos.

Dado que estaba construyendo sobre el conocimiento y la comprensión de Brahmagupta, no es sorprendente que Bhaskaracharya entendiera sobre el cero y los números negativos. Sin embargo, su comprensión fue más allá incluso que la de Brahmagupta. Para dar algunos ejemplos antes de examinar su trabajo con un poco más de detalle, notamos que él sabía que x 2 = 9 x ^ <2> = 9 x 2 = 9 tenía dos soluciones. También dio la fórmula

Examinemos primero el Lilavati. Primero vale la pena repetir la historia contada por Fyzi quien tradujo esta obra al persa en 1587. Damos la historia tal como la da José en [5]: -

Esta es una historia encantadora, pero es difícil ver que exista alguna evidencia de que sea cierta. Ni siquiera es seguro que Lilavati fuera la hija de Bhaskaracharya. También existe la teoría de que Lilavati era la esposa de Bhaskaracharya. Los temas tratados en los trece capítulos del libro son: definiciones términos aritméticos interés progresiones aritméticas y geométricas geometría plana geometría sólida la sombra del gnomon las combinaciones kuttaka.

Al tratar con números, Bhaskaracharya, como Brahmagupta antes que él, manejó eficientemente la aritmética con números negativos. Él es sólido en suma, resta y multiplicación con cero, pero se dio cuenta de que había problemas con las ideas de Brahmagupta de dividir por cero. Madhukar Mallayya en [14] sostiene que el cero usado por Bhaskaracharya en su regla (a. 0) / 0 = a (a.0) / 0 = a (a. 0) / 0 = a, dado en Lilavati, es equivalente al concepto moderno de un "infinitesimal" distinto de cero. Aunque esta afirmación no carece de fundamento, tal vez esté viendo ideas más allá de lo que pretendía Bhaskaracharya.

Bhaskaracharya dio dos métodos de multiplicación en su Lilavati. Seguimos a Ifrah, quien explica estos dos métodos debido a Bhaskaracharya en [4]. Para multiplicar 325 por 243 Bhaskaracharya escribe los números así:
Ahora, trabajando con la más a la derecha de las tres sumas, calculó 5 veces 3 y luego 5 veces 2 omitiendo las 5 veces 4 que hizo la última vez y escribió debajo de las otras un lugar a la izquierda. Tenga en cuenta que esto evita hacer el "acarreo" en la cabeza.
Ahora agregue el 1015 y el 20 así colocados y escriba la respuesta debajo de la segunda línea debajo de la suma al lado de la izquierda.
Calcule la suma del medio como la de la derecha, evitando nuevamente el "acarreo", y agréguelos escribiendo la respuesta debajo del 1215 pero desplazado un lugar a la izquierda.
Finalmente, calcula la suma más a la izquierda de la misma manera y vuelve a colocar la suma resultante un lugar a la izquierda debajo del 486.
Finalmente, agregue los tres números debajo de la segunda línea para obtener la respuesta 78975.
A pesar de evitar el "acarreo" en las primeras etapas, por supuesto, uno todavía se enfrenta al "acarreo" en esta adición final.

El segundo de los métodos de Bhaskaracharya procede de la siguiente manera:
Multiplica el número de abajo por el número de arriba comenzando con el dígito más a la izquierda y avanzando hacia la derecha. Desplaza cada fila un lugar para comenzar un lugar más a la derecha que la línea anterior. Primer paso
Segundo paso
Tercer paso, luego agregue
Bhaskaracharya, como muchos de los matemáticos indios, consideraba la elevación al cuadrado de números como casos especiales de multiplicación que merecían métodos especiales. Dio cuatro de esos métodos de cuadratura en Lilavati.

A continuación se muestra un ejemplo de explicación de la proporción inversa tomado del Capítulo 3 de la Lilavati. Bhaskaracharya escribe:

En el método inverso, la operación se invierte. Ese es el fruto que se multiplica por el aumento y se divide por la demanda.Cuando la fruta aumenta o disminuye, a medida que aumenta o disminuye la demanda, se usa la regla directa. De lo contrario, a la inversa.

Regla de tres inversa: si el fruto disminuye a medida que aumenta la requisa, o aumenta a medida que disminuye, ellos, que son expertos en cuentas, consideran que la regla de tres está invertida. Cuando hay una disminución de la fruta, si hay un aumento de la requisa, y un aumento de la fruta si hay una disminución de la requisa, entonces se emplea la regla inversa de tres.

Además de la regla de tres, Bhaskaracharya analiza ejemplos para ilustrar reglas de proporciones compuestas, como la regla de cinco (Pancarasika), la regla de siete (Saptarasika), la regla de nueve (Navarasika), etc. estas reglas se analizan en [15].

Un ejemplo del Capítulo 5 sobre progresiones aritméticas y geométricas es el siguiente:

Un ejemplo del Capítulo 12 sobre el método kuttaka para resolver ecuaciones indeterminadas es el siguiente:

En el capítulo final sobre combinaciones, Bhaskaracharya considera el siguiente problema. Supongamos que un número de n n n dígitos se representa en la forma decimal habitual como

La Bijaganita es una obra en doce capítulos. Los temas son: números positivos y negativos cero el desconocido surds el kuttaka ecuaciones cuadráticas indeterminadas ecuaciones simples ecuaciones cuadráticas ecuaciones con más de una ecuación cuadrática desconocida con más de una operación desconocida con productos de varias incógnitas y el autor y su obra.

Habiendo explicado cómo hacer aritmética con números negativos, Bhaskaracharya da problemas para probar las habilidades del lector para calcular con cantidades negativas y afirmativas: -

Los caracteres, que denotan las cantidades conocidas y desconocidas, deben escribirse primero para indicarlos de manera general y aquellos que se vuelven negativos deben luego marcarse con un punto encima.

Ejemplo: Restando dos de tres, afirmativo de afirmativo y negativo de negativo, o al contrario, dime rápidamente el resultado.

Bhaskaracharya da las ecuaciones que conducen a más de una solución: -

El problema conduce a una ecuación cuadrática y Bhaskaracharya dice que las dos soluciones, a saber, 16 y 48, son igualmente admisibles.

El método de kuttaka para resolver ecuaciones indeterminadas se aplica a ecuaciones con tres incógnitas. El problema es encontrar soluciones enteras a una ecuación de la forma a x + b y + c z = d ax + by + cz = d a x + b y + c z = d. Un ejemplo que da es:

Por supuesto, tales problemas no tienen una solución única como Bhaskaracharya es plenamente consciente. Encuentra una solución, que es la mínima, a saber caballos 85, camellos 76, mulas 31 y bueyes 4.

La conclusión de Bhaskaracharya al Bijaganita es fascinante por la percepción que nos da de la mente de este gran matemático:

Un bocado de enseñanza transmite conocimiento a una mente comprensiva y, habiéndolo alcanzado, se expande por su propio impulso, como el aceite se vierte sobre el agua, como un secreto confiado a los viles, como la limosna otorgada a los dignos, por pequeños que sean, así lo hace el conocimiento infundido en una mente sabia difundida por fuerza intrínseca.

Es evidente para los hombres de claro entendimiento que la regla de tres términos constituye aritmética y la sagacidad constituye álgebra. En consecuencia he dicho. La regla de los tres términos es la aritmética, la comprensión impecable es el álgebra. ¿Qué es lo que desconoce el inteligente? Por lo tanto, solo para los aburridos.

La Siddhantasiromani es un texto de astronomía matemática similar en diseño a muchos otros textos de astronomía indios de este y períodos anteriores. Los doce capítulos de la primera parte cubren temas tales como: longitudes medias de los planetas longitudes verdaderas de los planetas los tres problemas de rotación diurna sicigias eclipses lunares eclipses solares latitudes de los planetas salidas y puestas de la luna creciente conjunciones de los planetas entre sí conjunciones de los planetas con las estrellas fijas y las patas del sol y la luna.

La segunda parte contiene trece capítulos sobre la esfera. Abarca temas como: elogio del estudio de la esfera naturaleza de la esfera cosmografía y geografía movimiento medio planetario excéntrico modelo epicíclico de los planetas la esfera armilar trigonometría esférica cálculos de elipse primeras visibilidades de los planetas cálculo de la luna creciente instrumentos astronómicos estaciones y problemas de cálculos astronómicos.

Hay resultados interesantes sobre trigonometría en este trabajo. En particular, Bhaskaracharya parece más interesado en la trigonometría por sí misma que sus predecesores, quienes la vieron solo como una herramienta para el cálculo. Entre los muchos resultados interesantes dados por Bhaskaracharya están:


Soluciones NCERT para matemáticas de clase 10 Capítulo 3 Par de ecuaciones lineales en dos variables Ej 3.6

Soluciones NCERT para matemáticas de la clase 10 Capítulo 3 Par de ecuaciones lineales en dos variables El ejemplo 3.6 es parte de las soluciones NCERT para matemáticas de la clase 10. Aquí hemos dado soluciones NCERT para matemáticas de la clase 10 Capítulo 3 Par de ecuaciones lineales en dos variables Ejercicio 3.6

Ej 3.6 Pregunta 1 de matemáticas de la clase 10.
Resuelva los siguientes pares de ecuaciones reduciéndolos a un par de ecuaciones lineales:

Solución:











Ej 3.6 Pregunta 2 de matemáticas de la clase 10.
Formule los siguientes problemas como un par de ecuaciones lineales y, por tanto, encuentre sus soluciones:
(I) Ritu puede remar río abajo 20 km en horas y río arriba 4 km en 2 horas. Calcula su velocidad de remar en aguas tranquilas y la velocidad de la corriente.
(ii) 2 mujeres y 5 hombres pueden terminar juntos un trabajo de bordado en 4 días, mientras que 3 mujeres y 6 hombres pueden terminarlo en 3 días. Encuentre el tiempo que le tomó 1 mujer sola para terminar el trabajo, y también el que le tomó 1 hombre solo.
(iii) Roohi viaja 300 km hasta su casa en parte en tren y en parte en autobús. Tarda 4 horas si recorre 60 km en tren y el resto en autobús. Si viaja 100 km en tren y el resto en autobús, tarda 10 minutos más. Calcula la velocidad del tren y del autobús por separado.
Solución:


Soluciones NCERT para matemáticas de la clase 10 Capítulo 3 Pares de ecuaciones lineales en dos variables (medio en hindi) Ej 3.6



Soluciones NCERT para matemáticas de clase 10

Esperamos que el Par de ecuaciones lineales en dos variables del capítulo de las soluciones de NCERT para la clase 10 de matemáticas, Ej 3.6, lo ayude. Si tiene alguna consulta sobre las soluciones NCERT para matemáticas de la clase 10, Capítulo 3 Par de ecuaciones lineales en dos variables Ejercicio 3.6, deje un comentario a continuación y nos comunicaremos con usted lo antes posible.


* Lun 19 mar 13:00
Groupe de travail: Peso 3 GSp (2) -nolevantamientos paramodulares.

* Martes 20 de marzo 11:00
M. Nori. ¿Qué es & # 8230 un motivo hipergeométrico?

* Martes 20 de marzo 14:00 @MPI
J. Fresan. Teoría de Hodge de las conexiones de Kloosterman

* Mar 20 de marzo 16:30
V. Golyshev. Hipergeometría reducible y extensiones motívicas.

* Mié 21 mar 10:30
S. Sikander. Cuantización del espacio de módulos de paquetes vectoriales.

* Mié 21 Mar 14:30 @MPI
Almuerzo de teoría de números HIM / MPI

F. Baldassarri: El isomorfismo de Artin-Hasse de discos unitarios abiertos perfectos y una teoría tipo Fourier para funciones continuas en Q_p


Herramientas de articulación vertical DYNAMIC Mathematics (MVAT)

Uso de herramienta

Esta herramienta fue diseñada para ayudar a los educadores de Virginia en su proceso de revisar las fortalezas de los estudiantes y el aprendizaje inconcluso en términos de preparación para el álgebra. Esta herramienta, junto con los datos de rendimiento matemático proporcionados por VDOE, así como los datos generados en el aula o la escuela, pueden ayudar a automatizar la creación de planes de remediación estudiantil para estudiantes individuales por parte de maestros, consejeros, administradores u otros. Estos planes se pueden imprimir (guardar como PDF o copia impresa) y compartir con maestros, tutores y otras personas designadas para trabajar con los estudiantes para completar el aprendizaje inconcluso en matemáticas.

Requisitos del sistema

Estas hojas de cálculo utilizan tablas dinámicas y la función de consulta de energía que solo están disponibles en los productos de Microsoft Office Professional (no Home) para Excel 2013 o versiones más recientes. Actualmente, esta funcionalidad solo está disponible en el sistema operativo Windows.


Ver el vídeo: Method of Frobenius (Septiembre 2021).