Artículos

4.4: Límites infinitos. Operaciones en E * - Matemáticas


Como hemos señalado, el teorema 1 de §3 no se aplica a límites infinitos, incluso si los valores de la función (f (x), g (x), h (x) ) permanecen finitos (es decir, (en E ^ {1}). ) Solo en ciertos casos (indicados a continuación) podemos probar algunos análogos.

Hay bastantes casos separados de este tipo. Por tanto, por brevedad, adoptaremos una especie de taquigrafía matemática. La letra (q ) no necesariamente denotará una constante; representará

[ text {"una función} f: A rightarrow E ^ {1}, A subseteq (S, rho), text {tal que} f (x) rightarrow q en E ^ {1} text {as} x rightarrow p. text {"} ]

De manera similar, "0" y " ( pm infty )" representarán expresiones análogas, con (q ) reemplazado por 0 y ( pm infty, ) respectivamente.

Por ejemplo, la "fórmula abreviada" ((+ infty) + (+ infty) = + infty ) significa

[ text {"La suma de dos funciones reales, con límite} + infty text {at} p text {} (p in S), text {es en sí misma una función con límite} + infty texto {at} p. text {"} ]

El punto (p ) es fijo, posiblemente ( pm infty left ( text {if} A subseteq E ^ {*} right). ) Con esta notación, tenemos los siguientes teoremas.

Teoremas

1. (( pm infty) + ( pm infty) = pm infty ).

2. (( pm infty) + q = q + ( pm infty) = pm infty ).

3. (( pm infty) cdot ( pm infty) = + infty ).

4. (( pm infty) cdot ( mp infty) = - infty ).

5. (| pm infty | = + infty ).

6. (( pm infty) cdot q = q cdot ( pm infty) = pm infty ) si (q> 0 ).

7. (( pm infty) cdot q = q cdot ( pm infty) = mp infty ) if (q <0 ).

8. (- ( pm infty) = mp infty ).

9. ( frac {( pm infty)} {q} = ( pm infty) cdot frac {1} {q} ) if (q neq 0 ).

10. ( frac {q} {( pm infty)} = 0 ).

11. ((+ infty) ^ {+ infty} = + infty ).

12. ((+ infty) ^ {- infty} = 0 ).

13. ((+ infty) ^ {q} = + infty ) si (q> 0 ).

14. ((+ infty) ^ {q} = 0 ) si (q <0 ).

15. Si (q> 1, ) entonces (q ^ {+ infty} = + infty ) y (q ^ {- infty} = 0 ).

16. Si (0

Prueba

Demostramos los Teoremas 1 y 2, dejando el resto como problemas. (Es mejor posponer los teoremas 11-16 hasta que se desarrolle la teoría de los logaritmos).

1. Sea (f (x) ) y (g (x) rightarrow + infty ) como (x rightarrow p. ) Tenemos que demostrar que

[f (x) + g (x) flecha derecha + infty, ]

es decir, que

[ left ( forall b in E ^ {1} right) ( exist delta> 0) left ( forall x in A cap G _ { neg p} ( delta) right) quad f (x) + g (x)> b ]

(podemos asumir (b> 0). ) Por lo tanto, arregle (b> 0. ) Como (f (x) ) y (g (x) rightarrow + infty, ) hay ( delta ^ { prime}, delta ^ { prime prime}> 0 ) tal que

[ left ( forall x in A cap G _ { neg p} left ( delta ^ { prime} right) right) f (x)> b text {y} left ( para todos x en A cap G _ { neg p} left ( delta ^ { prime prime} right) right) g (x)> b. ]

Deje ( delta = min left ( delta ^ { prime}, delta ^ { prime prime} right). ) Entonces

[ left ( forall x in A cap G _ { neg p} ( delta) right) quad f (x) + g (x)> b + b> b, ]

según sea necesario; de manera similar para el caso de (- infty ).

2. Sea (f (x) rightarrow + infty ) y (g (x) rightarrow q en E ^ {1}. ) Entonces hay ( delta ^ { prime}> 0 ) tal que para (x ) en (A cap G _ { neg p} left ( delta ^ { prime} right), | qg (x) | <1, ) de modo que ( g (x)> q-1 ).

Además, dado cualquier (b en E ^ {1}, ) hay ( delta ^ { prime prime} ) tal que

[ left ( forall x in A cap G _ {- p} left ( delta ^ { prime prime} right) right) quad f (x)> b-q + 1. ]

Deje ( delta = min left ( delta ^ { prime}, delta ^ { prime prime} right). ) Entonces

[ left ( forall x in A cap G _ { neg p} ( delta) right) quad f (x) + g (x)> (b-q + 1) + (q-1 ) = b, ]

según sea necesario; de manera similar para el caso de (f (x) rightarrow- infty ).

Precaución: No existen teoremas de este tipo para los siguientes casos (que, por tanto, se denominan expresiones indeterminadas):

[(+ infty) + (- infty), quad ( pm infty) cdot 0, quad frac { pm infty} { pm infty}, quad frac {0} {0}, quad ( pm infty) ^ {0}, quad 0 ^ {0}, quad 1 ^ { pm infty}. ]

En estos casos, no es suficiente conocer solo los límites de (f ) y (g. ) Es necesario investigar las funciones mismas para dar una respuesta definitiva, ya que en cada caso la respuesta puede ser diferente, dependiendo de las propiedades de (f ) y (g. ) Las expresiones (1 *) permanecen indeterminadas incluso si consideramos el tipo más simple de funciones, a saber, las secuencias, como mostramos a continuación.

Ejemplos de

(a) Deja

[u_ {m} = 2 m text {y} v_ {m} = - m. ]

(Esto corresponde a (f (x) = 2 x ) y (g (x) = - x.) ) Entonces, como se ve fácilmente,

[u_ {m} rightarrow + infty, v_ {m} rightarrow- infty, text {y} u_ {m} + v_ {m} = 2 m-m = m rightarrow + infty. ]

Sin embargo, si tomamos (x_ {m} = 2 m ) y (y_ {m} = - 2 m, ) entonces

[x_ {m} + y_ {m} = 2 m-2 m = 0; ]

por tanto, (x_ {m} + y_ {m} ) es constante, con límite 0 (ya que el límite de una función constante es igual a su valor; ver §1, Ejemplo (a)).

A continuación, deja

[u_ {m} = 2 m text {y} z_ {m} = - 2 m + (- 1) ^ {m}. ]

Luego otra vez

[u_ {m} rightarrow + infty text {y} z_ {m} rightarrow- infty, text {but} u_ {m} + z_ {m} = (- 1) ^ {m}; ]

(u_ {m} + z_ {m} ) "oscila" de (- 1 ) a 1 como (m rightarrow + infty, ) por lo que no tiene ningún límite.

Estos ejemplos muestran que ((+ infty) + (- infty) ) es de hecho una expresión indeterminada ya que la respuesta depende de la naturaleza de las funciones involucradas. No es posible una respuesta general.

(b) Ahora mostramos que (1 ^ {+ infty} ) es indeterminado.

Tome primero una constante ( left {x_ {m} right }, x_ {m} = 1, ) y deje (y_ {m} = m. ) Luego

[x_ {m} rightarrow 1, y_ {m} rightarrow + infty, text {y} x_ {m} ^ {y_ {m}} = 1 ^ {m} = 1 = x_ {m} rightarrow 1. ]

Sin embargo, si (x_ {m} = 1 + frac {1} {m} ) y (y_ {m} = m, ) entonces nuevamente (y_ {m} rightarrow + infty ) y (x_ {m} rightarrow 1 ) (según el Teorema 10 anterior y el Teorema 1 del Capítulo 3, §15), pero

[x_ {m} ^ {y_ {m}} = left (1+ frac {1} {m} right) ^ {m} ]

no tiende a (1; ) tiende a (e> 2, ) como se muestra en el Capítulo 3, §15. Por lo tanto, nuevamente, el resultado depende de ( left {x_ {m} right } ) y ( left {y_ {m} right }. )

De manera similar, se muestra que los otros casos (1 *) son indeterminados.

Nota 1. A menudo es útil introducir convenciones "taquigráficas" adicionales. Así, el símbolo ( infty ) (infinito sin signo) podría denotar una función (f ) tal que

[| f (x) | rightarrow + infty text {as} x rightarrow p; ]

entonces también escribimos (f (x) rightarrow infty. ) El símbolo (0 ^ {+} ) (respectivamente, (0 ^ {-}) ) denota una función (f ) tal que

[f (x) rightarrow 0 text {as} x rightarrow p ]

y además

[f (x)> 0 text {} (f (x) <0, text {respectivamente}) text {en algunos} G _ { neg p} ( delta). ]

Luego tenemos las siguientes fórmulas adicionales:

(i) ( frac {( pm infty)} {0 ^ {+}} = pm infty, frac {( pm infty)} {0 ^ {-}} = mp infty ).

(ii) Si (q> 0, ) entonces ( frac {q} {0 ^ {+}} = + infty ) y ( frac {q} {0 ^ {-}} = - infty ).

(iii) ( frac { infty} {0} = infty ).

(iv) ( frac {q} { infty} = 0 ).

La prueba se deja para el lector.

Nota 2. Todas estas fórmulas y teoremas también son válidos para límites relativos.

Hasta ahora, no hemos definido operaciones aritméticas en (E ^ {*}. ) Para llenar este vacío (al menos parcialmente), de ahora en adelante trataremos los Teoremas 1-16 anteriores no solo como ciertos enunciados límite (en "taquigrafía" ) sino también como definiciones de ciertas operaciones en (E ^ {*}. ) Por ejemplo, la fórmula ((+ infty) + (+ infty) = + infty ) se tratará como la definición de la suma real de (+ infty ) y (+ infty ) en (E ^ {*}, ) con (+ infty ) considerado esta vez como un elemento de (E ^ { *} ) (no como una función). Esta convención define las operaciones aritméticas solo para ciertos casos; lo indeterminado expresiones (1 *) permanecen indefinidos, a menos que decidamos asignarles algún significado.

En un análisis superior, de hecho resulta conveniente asignar un significado al menos a algunos de ellos. Adoptaremos estas convenciones (ciertamente arbitrarias):

( left { begin {array} {l} {( pm infty) + ( mp infty) = ( pm infty) - ( pm infty) = + infty; 0 ^ { 0} = 1;} {0 cdot ( pm infty) = ( pm infty) cdot 0 = 0 text {(incluso si} 0 text {representa el vector cero}). } end {matriz} right. )

Precaución: Estas fórmulas no deben tratarse como teoremas límite (en "abreviatura"). Sumas y productos de la forma (2 *) sera llamado "heterodoxo."


4.4: Límites infinitos. Operaciones en E * - Matemáticas

En esta sección veremos los límites cuyo valor es infinito o menos infinito. Estos tipos de límites aparecerán con bastante regularidad en secciones posteriores y en otros cursos, por lo que deberá poder lidiar con ellos cuando los encuentre.

Lo primero que probablemente deberíamos hacer aquí es definir lo que queremos decir cuando decimos que un límite tiene un valor de infinito o menos infinito.

Definición

[ mathop < lim> limits_ f left (x right) = infty ]

si podemos hacer (f (x) ) arbitrariamente grande para todo (x ) lo suficientemente cerca de (x = a ), desde ambos lados, sin dejar realmente (x = a ).

[ mathop < lim> limits_ f left (x right) = - infty ]

si podemos hacer (f (x) ) arbitrariamente grande y negativo para todo (x ) lo suficientemente cerca de (x = a ), desde ambos lados, sin dejar realmente (x = a ).

Estas definiciones también pueden modificarse adecuadamente para los límites unilaterales. Para ver una definición matemática más precisa de este tipo de límite, consulte la sección Definición del límite al final de este capítulo.

Comencemos con un ejemplo bastante típico que ilustra límites infinitos.

Por lo tanto, vamos a echar un vistazo a un par de límites unilaterales, así como al límite normal aquí. En los tres casos, observe que no podemos simplemente conectar (x = 0 ). Si lo hiciéramos, obtendríamos una división por cero. Recuerde también que las definiciones anteriores se pueden modificar fácilmente para dar definiciones similares para los dos límites unilaterales que necesitaremos aquí.

Ahora, hay varias formas en las que podríamos proceder aquí para obtener valores para estos límites. Una forma es conectar algunos puntos y ver a qué valor se acerca la función. En la sección anterior dijimos que ya no íbamos a hacer esto, pero en este caso es una buena manera de ilustrar lo que está sucediendo con esta función.

Entonces, aquí hay una tabla de valores de (x ) tanto de la izquierda como de la derecha. Usando estos valores, podremos estimar el valor de los dos límites unilaterales y una vez que lo hayamos hecho, podemos usar el hecho de que el límite normal existirá solo si los dos límites unilaterales existen y tienen el mismo valor. .

(X) ( Displaystyle frac <1>) (X) ( Displaystyle frac <1>)
-0.1 -10 0.1 10
-0.01 -100 0.01 100
-0.001 -1000 0.001 1000
-0.0001 -10000 0.0001 10000

En esta tabla podemos ver que a medida que hacemos (x ) cada vez más pequeña la función ( frac <1>) se hace cada vez más grande y conservará el mismo signo que originalmente tenía (x ). Debería tener sentido que esta tendencia continúe para cualquier valor menor de (x ) que decidamos usar. La función es una constante (una en este caso) dividida por un número cada vez más pequeño. La fracción resultante debe ser un número cada vez mayor y, como se indicó anteriormente, la fracción conservará el mismo signo que (x ).

Podemos hacer que la función sea tan grande y positiva como queramos para todos (x ) lo suficientemente cerca de cero mientras permanecemos positivos (es decir. a la derecha). Del mismo modo, podemos hacer que la función sea tan grande y negativa como queramos para todos (x ) lo suficientemente cerca de cero mientras permanecemos negativos (es decir. a la izquierda). Entonces, de nuestra definición anterior, parece que deberíamos tener los siguientes valores para los dos límites unilaterales.

Otra forma de ver los valores de los dos límites unilaterales aquí es graficar la función. Nuevamente, en la sección anterior mencionamos que no haremos esto con demasiada frecuencia ya que la mayoría de las funciones no son algo que podamos esbozar rápidamente, así como los problemas de precisión al leer los valores del gráfico. Sin embargo, en este caso, no es demasiado difícil dibujar un gráfico de la función y, en este caso, como veremos, la precisión no será un problema. Entonces, aquí hay un bosquejo rápido del gráfico.

Entonces, podemos ver en este gráfico que la función se comporta de manera muy similar a como predijimos a partir de los valores de nuestra tabla. Cuanto más se acerca (x ) a cero desde la derecha, más grande (en el sentido positivo) se vuelve la función, mientras que cuanto más se acerca (x ) a cero desde la izquierda, más grande (en el sentido negativo) se vuelve la función .

Finalmente, el límite normal, en este caso, no existirá ya que los dos límites unilaterales tienen valores diferentes.

Entonces, en resumen, aquí están los valores de los tres límites para este ejemplo.

Para la mayoría de los ejemplos restantes en esta sección, intentaremos "hablar a través de" cada límite. Esto significa que veremos si podemos analizar qué debería suceder con la función a medida que nos acercamos mucho al punto en cuestión sin tener que introducir ningún valor en la función. Para la mayoría de los siguientes ejemplos, este tipo de análisis no debería ser tan difícil de hacer. También verificaremos nuestro análisis con un gráfico rápido.

Entonces, hagamos un par de ejemplos más.

Como en el ejemplo anterior, comencemos mirando los dos límites unilaterales. Una vez que los tengamos, podremos determinar un valor para el límite normal.

Por lo tanto, primero echemos un vistazo al límite de la derecha y, como se indicó anteriormente, veamos si podemos averiguar qué hará cada límite sin tener que introducir ningún valor de (x ) en la función. A medida que tomamos valores cada vez más pequeños de (x ), mientras permanecemos positivos, cuadrarlos solo los hará más pequeños (recuerde que elevar al cuadrado un número entre cero y uno lo hará más pequeño) y, por supuesto, permanecerá positivo. Entonces, tenemos una constante positiva dividida por un número positivo cada vez más pequeño. El resultado debería ser un número positivo cada vez mayor. Parece que deberíamos tener el siguiente valor para el límite de la derecha en este caso,

Ahora, echemos un vistazo al límite de la izquierda. En este caso, vamos a tomar valores cada vez más pequeños de (x ), pero esta vez permanecemos negativos. Cuando los cuadramos, se vuelven más pequeños, pero al cuadrarlos, el resultado ahora es positivo. Entonces, tenemos una constante positiva dividida por un número positivo cada vez más pequeño. El resultado, al igual que con el límite de la derecha, será un número positivo cada vez mayor y, por lo tanto, el límite de la izquierda será,

Ahora, en este ejemplo, a diferencia del primero, el límite normal existirá y será infinito ya que los dos límites unilaterales existen y tienen el mismo valor. Entonces, en resumen, aquí están todos los límites para este ejemplo, así como un gráfico rápido que verifica los límites.

Con el siguiente ejemplo, nos alejaremos de solo una (x ) en el denominador, pero como veremos en los siguientes ejemplos, funcionan de la misma manera.

Empecemos de nuevo con el límite de la derecha. Con el límite de la derecha sabemos que tenemos,

Además, a medida que (x ) se acerca más y más a -2, (x + 2 ) se acercará más y más a cero, mientras se mantiene positivo como se indicó anteriormente. Entonces, para el límite de la derecha, tendremos una constante negativa dividida por un número positivo cada vez más pequeño. El resultado será un número cada vez mayor y negativo. Entonces, parece que el límite de la derecha será infinito negativo.

Para el límite de la izquierda tenemos,

y (x + 2 ) se acercará más y más a cero (y será negativo) a medida que (x ) se acerque más y más a -2. En este caso, tendremos una constante negativa dividida por un número negativo cada vez más pequeño. El resultado será entonces un número positivo cada vez mayor y, por lo tanto, parece que el límite de la izquierda será infinito positivo.

Finalmente, dado que dos límites unilaterales no son iguales, el límite normal no existirá.

Aquí están las respuestas oficiales para este ejemplo, así como un gráfico rápido de la función para fines de verificación.

En este punto debemos reconocer brevemente la idea de asíntotas verticales. Cada uno de los tres gráficos anteriores ha tenido uno. Recuerde de una clase de álgebra que una asíntota vertical es una línea vertical (la línea discontinua en (x = - 2 ) en el ejemplo anterior) en la que la gráfica irá hacia el infinito y / o menos el infinito en uno o ambos lados de la línea.

En una clase de álgebra son un poco difíciles de definir, aparte de decir prácticamente lo que acabamos de decir. Ahora que tenemos límites infinitos en nuestro haber, podemos definir fácilmente una asíntota vertical de la siguiente manera,

Definición

La función (f (x) ) tendrá una asíntota vertical en (x = a ) si tenemos alguno de los siguientes límites en (x = a ).

[ mathop < lim> limits_> f left (x right) = pm , infty hspace <0.25in> mathop < lim> limits_> f left (x right) = pm , infty hspace <0.25in> mathop < lim> limits_ f left (x right) = pm , infty ]

Tenga en cuenta que solo requiere uno de los límites anteriores para que una función tenga una asíntota vertical en (x = a ).

Usando esta definición, podemos ver que los dos primeros ejemplos tenían asíntotas verticales en (x = 0 ) mientras que el tercer ejemplo tenía una asíntota vertical en (x = - 2 ).

Realmente no vamos a hacer mucho con las asíntotas verticales aquí, pero queríamos mencionarlas en este punto, ya que habíamos llegado a un buen momento para hacerlo.

Veamos ahora un par de ejemplos más de límites infinitos que pueden causar algunos problemas en ocasiones.

Comencemos con el límite de la derecha. Para este límite tenemos,

[x & gt 4 hspace <0.5in> Rightarrow hspace <0.25in> 4 - x & lt 0 hspace <0.25in> Rightarrow hspace <0.5in> < left (<4 - x> right) ^ 3> & lt 0 ]

también, (4 - x a 0 ) como (x a 4 ). Entonces, tenemos una constante positiva dividida por un número negativo cada vez más pequeño. Los resultados serán un número negativo cada vez mayor y, por lo tanto, parece que el límite de la derecha será infinito negativo.

Para el límite de zurdos que tenemos,

[x & lt 4 hspace <0.5in> Rightarrow hspace <0.25in> 4 - x & gt 0 hspace <0.25in> Rightarrow hspace <0.5in> < left (<4 - x> right) ^ 3> & gt 0 ]

y todavía tenemos, (4 - x a 0 ) como (x a 4 ). En este caso tenemos una constante positiva dividida por un número positivo cada vez más pequeño. Los resultados serán un número positivo cada vez mayor y, por lo tanto, parece que el límite de la izquierda será infinito positivo.

El límite normal no existirá ya que los dos límites unilaterales no son iguales. Las respuestas oficiales a este ejemplo son entonces,

Aquí hay un bosquejo rápido para verificar nuestros límites.

Todos los ejemplos hasta este punto han tenido una constante en el numerador y probablemente deberíamos echar un vistazo rápido a un ejemplo que no tiene una constante en el numerador.

Primero, echemos un vistazo al límite para diestros. Para este límite tendremos,

[x & gt 3 hspace <0.5in> Rightarrow hspace <0.5in> x - 3 & gt 0 ]

La principal diferencia aquí con este ejemplo es el comportamiento del numerador cuando dejamos que (x ) se acerque más y más a 3. En este caso, tenemos el siguiente comportamiento tanto para el numerador como para el denominador.

Entonces, a medida que permitimos que (x ) se acerque cada vez más a 3 (siempre permaneciendo a la derecha, por supuesto), el numerador, aunque no es una constante, se acerca cada vez más a una constante positiva mientras que el denominador se acerca cada vez más. a cero y será positivo ya que estamos en el lado derecho.

Esto significa que tendremos un numerador que se acerca cada vez más a una constante positiva distinta de cero dividida por un número positivo cada vez más pequeño y, por lo tanto, el resultado debería ser un número positivo cada vez más grande. El límite de la derecha debería ser infinito positivo.

Para el límite de la izquierda tendremos,

[x & lt 3 hspace <0.5in> Rightarrow hspace <0.5in> x - 3 & lt 0 ]

Al igual que con el límite de la derecha, tendremos los siguientes comportamientos para el numerador y el denominador,

La principal diferencia en este caso es que el denominador ahora será negativo. Entonces, tendremos un numerador que se aproxima a una constante positiva distinta de cero dividida por un número negativo cada vez más pequeño. El resultado será un número cada vez mayor y negativo.

Las respuestas formales para este ejemplo son entonces,

Como ocurre con la mayoría de los ejemplos de esta sección, el límite normal no existe ya que los dos límites unilaterales no son iguales.

Aquí hay un gráfico rápido para verificar nuestros límites.

Hasta ahora, todo lo que hemos hecho es mirar los límites de las expresiones racionales, hagamos un par de ejemplos rápidos con algunas funciones diferentes.

Primero, observe que aquí solo podemos evaluar el límite para diestros. Sabemos que el dominio de cualquier logaritmo son solo los números positivos y, por lo tanto, ni siquiera podemos hablar del límite para zurdos porque eso requeriría el uso de números negativos. Del mismo modo, dado que no podemos lidiar con el límite para zurdos, no podemos hablar del límite normal.

Este límite es bastante simple de obtener a partir de un bosquejo rápido del gráfico.

De esto podemos ver que,

[ mathop < lim> limits_> ln left (x right) = - infty ]

A continuación, se muestra un bosquejo rápido de la gráfica de la función tangente.

A partir de esto, es fácil ver que tenemos los siguientes valores para cada uno de estos límites,

[ mathop < lim> limits_<2>> ^ + >> tan left (x right) = - infty hspace <0.5in> mathop < lim> limits_<2>> ^ - >> tan left (x right) = infty ]

Tenga en cuenta que el límite normal no existirá porque los dos límites unilaterales no son iguales.

Dejaremos esta sección con algunos datos sobre los límites infinitos.

Hechos

para algunos números reales (c ) y (L ). Luego,

  1. ( mathop < lim> límites_ izquierda[ right] = infty )
  2. Si (L & gt 0 ) entonces ( mathop < lim> limits_ izquierda[ right] = infty )
  3. Si (L & lt 0 ) entonces ( mathop < lim> limits_ izquierda[ right] = - infty )
  4. ( Displaystyle mathop < lim> limits_ frac <><> = 0)

Para ver la prueba de este conjunto de hechos, consulte la sección Prueba de varias propiedades de límite en el capítulo Extras.

Tenga en cuenta también que el conjunto de hechos anterior también se aplica a los límites unilaterales. También se mantendrán si ( mathop < lim> limits_ f left (x right) = - infty ), con un cambio de signo en los infinitos de las tres primeras partes. Las pruebas de estos cambios en los hechos son casi idénticas a las pruebas de los hechos originales y, por lo tanto, se las deja a usted.


Euler demostró que el número mi se representa como la fracción continua infinita simple [1] (secuencia A003417 en la OEIS):

e = [2 1, 2, 1, 1, 4, 1, 1, 6, 1, 1, 8, 1,…, 1, 2 n, 1,…].

Su convergencia se puede triplicar [ aclaración necesaria ] [ cita necesaria ] permitiendo solo un número fraccionario:

Aquí hay algunas expansiones de fracciones continuas generalizadas infinitas de mi . El segundo se genera a partir del primero mediante una simple transformación de equivalencia.

Este último, equivalente a [1 0.5, 12, 5, 28, 9,. ], es un caso especial de una fórmula general para la función exponencial:

El número mi se puede expresar como la suma de las siguientes series infinitas:

En el caso especial donde X = 1 o −1, tenemos:

Otras series incluyen las siguientes:

Consideración de cómo poner límites superiores en mi conduce a esta serie descendente:

que da al menos un dígito correcto (o redondeado) por término. Es decir, si 1 ≤ norte, luego

De manera más general, si X no está en <2, 3, 4, 5,. >, entonces

El número mi también viene dada por varias formas de producto infinitas, incluido el producto de Pippenger

donde el norteEl factor es el nortela raíz del producto

así como el producto infinito

De manera más general, si 1 & lt B & lt mi 2 (que incluye B = 2, 3, 4, 5, 6 o 7), luego

El número mi es igual al límite de varias secuencias infinitas:

puede obtenerse mediante la manipulación de la definición de límite básica de mi .

Las siguientes dos definiciones son corolarios directos del teorema de los números primos [7]


MAT 112 Matemáticas antiguas y contemporáneas

El siguiente teorema se deriva del algoritmo euclidiano (algoritmo 4.3.2) y el teorema 3.2.16.

Teorema 4.4.1. Identidad de Bézout.

Para todos los números naturales (a ) y (b ) existen enteros (s ) y (t ) con ((s cdot a) + (t cdot b) = gcd (a , b) texto <.> )

Los valores (s ) y (t ) del Teorema 4.4.1 se denominan cofactores de (a ) y (b text <.> ) Para encontrar (s ) y (t ) para cualquier (a ) y (b text <,> ) deberíamos utilizar sustituciones repetidas en los resultados del algoritmo euclidiano (algoritmo 4.3.2). Esto funciona porque el algoritmo conecta (a ) y (b ) a ( gcd (a, b) ) mediante una serie de ecuaciones relacionadas.

Cuando ( gcd (a, b) = a fmod b text <,> ) podemos encontrar fácilmente los valores de (s ) y (t ) del teorema 4.4.1. En este curso limitamos nuestros cálculos a este caso. Demostramos esto en los siguientes ejemplos.

Ejemplo 4.4.2. Identidad de Bézout para ( mcd (28,12) ).

Encontramos valores para (s ) y (t ) del Teorema 4.4.1 para (a: = 28 ) y (b: = 12 text <.> )

Primero, calculamos ( gcd (28, 12) ) usando el algoritmo euclidiano (algoritmo 4.3.2). En la tabla damos los valores de las variables al final del paso (1) en cada iteración del ciclo.

paso (r ) (a) (B)
Aporte (28) (12)
(1) (28 fmod 12 = 4 ) (12) (4)
(1) (12 fmod 4 = 0 ) (1) (0)
Producción 4

Entonces ( gcd (28, 12) = 28 fmod 12 = 4 text <.> ) Para encontrar (s ) y (t ) con ((s cdot 28) + (t cdot 12) = gcd (28,12) = 4 ) necesitamos

el resto de la primera iteración del ciclo (r: = a fmod b = 28 fmod 12 = 4 ) y

el cociente (q: = a fdiv b = 28 fdiv 12 = 2 text <.> )

Ahora podemos escribir (a ) en la forma (a = b cdot q + r text <:> )

Escribimos (a = (b cdot q) + r ) de una manera un poco más complicada, es decir, como ((1 cdot a) = (q cdot b) + r text <.> ) Resolviendo ((1 cdot a) = (q cdot b) + r ) para (r ) obtenemos ((1 cdot a) - (q cdot b) = r text <.> ) Para llevar esto a la forma deseada ((s cdot a) + (t cdot b) = gcd (a, b) ) escribimos (- (q cdot b) ) como (+ ( (-q) cdot b) ) y obtenga

Ingresando nuestros valores para (a text <,> ) (b text <,> ) (q text <,> ) y (r ) obtenemos

Tenga en cuenta que obtenemos (s = 1 ) ya que el algoritmo euclidiano solo necesitaba dos pasos para calcular el máximo común divisor. Los cofactores (s ) y (t ) no son únicos. Usando los números del ejemplo anterior, también podríamos haber obtenido ((s cdot 28) + (t cdot 12) = 4 ) para (s = -5 ) y (t = 12 text < .> )

Problema 4.4.3. Identidad de Bézout para ( gcd (5,2) ).

Encuentra números enteros (s ) y (t ) tales que (s cdot5 + t cdot2 = gcd (5,2) text <.> )

Aunque es fácil ver que el máximo común divisor de 5 y 2 es 1, necesitamos algunos de los resultados intermedios del algoritmo euclidiano para encontrar (s ) y (t text <.> ) Siguiendo el método euclidiano algoritmo (Algoritmo 4.3.2) para los valores de entrada (a: = 5 ) y (b: = 2 ) obtenemos:

paso (r ) (a) (B)
Aporte (5) (2)
(1) (5 fmod 2 = 1 ) (2) (1)
(1) (2 fmod 1 = 0 ) (1) (0)
Producción 1

Hemos confirmado que ( gcd (5,2) = 1 text <.> ) Dado que el algoritmo euclidiano terminó después de 2 iteraciones, podemos usar el mismo truco que en el ejemplo 4.4.2. Obtenemos

Conectando estos a la fórmula

Leemos los valores (s: = 1 ) y (t: = - 2 text <.> ) Tenga en cuenta que (t = - (5 fdiv 2) text <.> )

En Checkpoint 4.4.4 trabaje con un ejemplo similar.

Punto de control 4.4.4. Encuentra los cofactores.

El patrón observado en la solución del problema y el punto de verificación 4.4.4 se puede generalizar. Obtenemos el siguiente teorema.

Teorema 4.4.5.

Sean (a ) y (b ) números naturales. Si el algoritmo euclidiano para calcular el máximo común divisor de (a ) y (b ) devuelve ( gcd (a, b) ) después de solo ejecutar el repetir_Hasta que bucle dos veces entonces (s cdot a + t cdot b = gcd (a, b) ) con (s = 1 ) y (t = - (a fdiv b) text <.> )

Aplicamos el teorema en la solución de un problema.

Problema 4.4.6. Encuentra (s ) y (t ) tales que (s cdot 63 + t cdot 14 = gcd (63,14) ).

Para (a = 63 ) y (b = 14 ) encuentre los números enteros (s ) y (t ) tales que (s cdot a + t cdot b = gcd (a, b) text <.> )

Encontramos el máximo común divisor de 63 y 14 usando el algoritmo euclidiano.

Entonces, el algoritmo euclidiano termina después de recorrer el ciclo dos veces y devuelve ( gcd (63,14) = 7 text <.> ) Según el teorema 4.4.5. tenemos (s = 1 ) y (t = - (63 fdiv 14) = -4 text <.> )

Comprobamos si el resultado es correcto:

Punto de control 4.4.7. Encuentra los cofactores.

En el video de la Figura 4.4.8 resumimos los resultados anteriores y damos algunos ejemplos adicionales.


Operadores, matrices y teoría de grupos

Resumen

Un operador es un símbolo que representa una o más operaciones matemáticas. Si un operador A opera en una función f el resultado es una nueva función. El álgebra de operadores manipula los símbolos de operadores de acuerdo con reglas que son ligeramente diferentes de las del álgebra ordinaria. Una diferencia es que la multiplicación de operadores no es necesariamente conmutativa y otra es que la división por operadores no está definida. Una ecuación de valor propio tiene la forma Af = af dónde A es un operador, f es una función propia y a es un valor propio. Los operadores de simetría mueven puntos en el espacio en relación con un elemento de simetría. Si un operador de simetría pertenece a un objeto simétrico, deja ese objeto en la misma conformación después de operar en todas las partículas del objeto. Los operadores de simetría pueden operar tanto en funciones como en puntos y pueden tener funciones propias con valores propios iguales a 1 o -1. Una función de onda electrónica de una molécula puede ser una función propia de los operadores de simetría que pertenecen al marco nuclear de una molécula. Una matriz es una lista de cantidades, organizadas en filas y columnas. Las matrices se pueden manipular de acuerdo con las reglas del álgebra de matrices, que son similares a las reglas del álgebra de operadores. La inversa de una matriz es una matriz tal que su producto con la matriz original da como resultado la matriz identidad. La inversa de una matriz dada se puede obtener mediante el procedimiento de eliminación de Gauss-Jordan. Un grupo es un conjunto de elementos que obedecen a determinadas condiciones, con una sola operación combinando dos elementos para dar un tercer elemento del grupo. Esta operación se llama multiplicación y posiblemente no sea conmutativa. Los operadores de simetría que pertenecen a un objeto simétrico forman un grupo matemático. Un conjunto de matrices que obedecen a la misma tabla de multiplicar que un grupo es una representación del grupo. Varios teoremas de la teoría de grupos son útiles para estudiar las propiedades de simetría de las moléculas.


Limites

En secciones anteriores de esta unidad, presentamos las definiciones básicas y los resultados que aplicamos para evaluar los límites. Dimos algunas explicaciones para hacerlas plausibles, pero una cosa es aceptar algo como plausible y otra comprender, sin ningún motivo de duda, que algo es cierto. Los matemáticos buscan argumentos lógicos que expliquen por qué un enunciado o resultado es verdadero. En esta sección, consideramos cómo se obtuvieron estos resultados, para que su comprensión del límite sea más profunda y para que pueda apreciar que todas las cosas que hacemos con las matemáticas tienen una base sólida. No es nuestra intención probar todos los resultados que hemos estado usando; las limitaciones de tiempo lo impiden. En cambio, elegiremos algunos de ellos, y te invitamos a probar los demás si tu horario lo permite.

Comprensión por qué algo es cierto es lo que hace que las matemáticas sean emocionantes. En nuestros esfuerzos por demostrar que algo es cierto, debemos comenzar con definiciones y axiomas.

Sabemos que el enunciado f (x) & # x2192 L como x & # x2192 a significa que podemos hacer que los valores de f (x) se acerquen arbitrariamente a L (tan cerca como queramos) tomando x como lo suficientemente cerca de a, pero no igual a a.

Esto es lo mismo que decir que podemos hacer que los valores de f (x) se acerquen arbitrariamente a L (tan cerca como queramos) porque siempre hay x s lo suficientemente cerca de a tal que f (x) está cerca de L.

¿Estás de acuerdo con esta afirmación? Tenga en cuenta la gráfica de una función con límite L en a (consulte la Figura 3.29, a continuación).

Figura 3.29. Función definida en los puntos ayx cerca de a

En la figura 3.29, podemos ver que para un número pequeño m (tan pequeño como queramos), podemos encontrar x cerca de a, de modo que la distancia entre f (x) y L es menor que m. El desafío es escribir precisamente esta idea utilizando conceptos matemáticos, es decir, traducir esta idea en un enunciado matemático.

Necesitamos expresar la idea de & ldquo x cerca de a & rdquo en términos matemáticos. Two numbers are close if the distance between them is small, so we need to express the idea of &ldquodistance between two numbers.&rdquo What is the distance between the numbers x and a ? How do we measure the distance between x and a ?

Figure 3.30. Real number line showing x < a

If x < a , as shown in the real line above, then their distance is a - x , regardless of whether both are positive, both are negative, or one is positive and the other negative. Convince yourself of this fact. Figures 7 and 8 on page 341 of the textbook may help you.

Figure 3.31. Real number line showing x > a

If x > a , as shown in the real line above, then their distance is x - a , regardless of whether both are positive, both are negative, or one is positive and the other negative.

Combining these two results, we can say that the distance between two distinct numbers x and a is | x - a | because

This is precisely what we say above!

As you can see, | 6 - 6 . 0 1 | = 0. 0 1 because the distance between 6 and 6 . 0 1 is 0 . 0 1 , and | 3 . 5 - 3 | = 0. 5 , because the distance between 3 and 3 . 5 is 0 . 5.

The distance between two distinct numbers x and a can be very small, and this fact can be expressed mathematically as follows:

We use the Greek letter δ (delta) to denote a small number. It is a convention, and it has its historical reasons.

If we write | x - 3 | < 0 . 0 1 , then the distance between x and 3 is less than 0 . 0 1 . These numbers are on the interval ( 2 . 9 9 , 3 . 0 1 ) .

Figure 3.32. Real number line showing the interval ( 2 . 9 9 , 3 . 0 1 )

If we write | x - 3 | < δ , then we are referring to the numbers x whose distance to 3 is less than the small number δ .

When we write 0 < | x - 3 | < δ , we are referring to all numbers x very close to 3 , but not equal to 3 , because | x - 3 | = 0 only of x = 3 .

Now we must express the idea of &ldquomaking the values of f ( x ) arbitrarily close to L (as close as we like)&rdquo mathematically.

We know that &ldquo f ( x ) is close to L &rdquo is written as | f ( x ) − L | < ε for a small number ε > 0 .

Note that ε is the Greek letter epsilon.

But &ldquothe distance is as small as we want&rdquo is the same as saying that the distance is less than any number we want to give.

| f ( x ) − L | < ε for any given small number ε > 0 ,

we are saying that the distance between f ( x ) and L is as small as any number we want to give.

we can find a δ > 0 such that, for any 0 < | x − a | < δ , it is the case that | f ( x ) − L | < ε . for any given small number ε > 0

we can find x s very close to a , but not equal to a , so that f ( x ) can be as close to L as we like.

This is precisely the definition of a limit.

Definition 3.30. Let f be a function defined around a .

The limit of f , as x approaches a , is L if

given any ε > 0 , we can find δ > 0 such that

for any 0 < | x − a | < δ it is the case that | f ( x ) − L | < ε .

Note that this definition expresses what we understood a limit to be.

We will need the following definition in our further discussions.

Definition 3.31. If a and b are two numbers, the number min < a , b >is the smaller of the two for instance, min < 3 , - 4 >= - 4 . Similarly, max < a , b >is the larger of the two hence, max < 3 , - 4 >= 3 . It is true that min < 4 , 4 >= 4 = max < 4 , 4 >.

Definition 3.31 extends naturally to any finite number or numbers for example,

The results about limits that we presented to you are consequences of Definition 3.30 and the properties of the real numbers. For example, let us see why the first and third laws of limits in Theorem 3.23 are true.

Sum of limits: If lim x → a f ( x ) = L and lim x → a g ( x ) = M , then

lim x → a f ( x ) + g ( x ) = L + M .

Proof. We start with knowing what we want to show (prove).

Given any ε > 0 , we can find δ > 0 such that, for any 0 < | x - a | < δ , it is the case that

We are given ε > 0 , and we must find δ > 0 with the property indicated above.

To proceed from this point, we must determine what we know.

In this case, we know that lim x → a f ( x ) = L and lim x → a g ( x ) = M . Definition 3.30 is true for any positive number, so

  1. for ε 2 > 0 , there is a δ 1 > 0 such that, for any 0 < | x − a | < δ 1 , it is the case that | f ( x ) − L | < ε 2 , and
  2. for ε 2 > 0 , there is a δ 2 > 0 such that, for any 0 < | x − a | < δ 2 , it is the case that | g ( x ) − M | < ε 2 .

Hence, statements 1 and 2 above are true for this δ .

From the triangle inequality, we have

| f ( x ) + g ( x ) − ( L + M ) | ≤ | f ( x ) − L | + | g ( x ) − M ) | < ε 2 + ε 2 = ε .

Therefore, given ε > 0 , we have found δ = min ( δ 1 , δ 2 ) , such that if 0 < | x − a | < δ then | f ( x ) + g ( x ) − ( L + M ) | < ε .

Nota: The end of a proof is indicated by the initials &ldquoQ.E.D.,&rdquo an abbreviation of the Latin phrase quod erat demonstrandum (&ldquowhich was to be proved&rdquo).

Product of limits: If lim x → a f ( x ) = L and lim x → a g ( x ) = M , then

lim x → a f ( x ) g ( x ) = L M .

Proof. We want to show that, for any given ε > 0 , we can find a δ > 0 such that

We know that lim x → a f ( x ) = L and lim x → a g ( x ) = M hence,

  1. for any ε 1 > 0 , there is a δ 1 > 0 such that for any 0 < | x − a | < δ 1 , it is the case that | f ( x ) − L | < ε 1 , and
  2. for any ε 2 > 0 , there is a δ 2 > 0 such that for any 0 < | x − a | < δ 2 , it is the case that | g ( x ) − M | < ε 2 .

See how the addition of 0 = g ( x ) L - g ( x ) L allows us to relate what we want to show con what we know.

By the triangle inequality,

| f ( x ) g ( x ) − L M | = | f ( x ) g ( x ) − L M + g ( x ) L − g ( x ) L | = | f ( x ) g ( x ) − g ( x ) L + g ( x ) L − L M | = | g ( x ) ( f ( x ) − L ) + L ( g ( x ) − M ) | ≤ | g ( x ) | | f ( x ) − L | + | L | | ( g ( x ) − M ) |

We want the final inequality above to be less than any ε > 0 , and we can achieve this result by taking particular values for ε 1 > 0 and ε 2 > 0 in statements 1 and 2 above.

In statement 1, we take ε 1 = ε 2 ( 1 + | M | ) > 0 . So, there is a δ 1 > 0 such that

In statement 2 we take ε 2 = 1 . So, for 1 > 0 there is a δ 2 > 0 such that, for any 0 < | x − a | < δ 2 , it is the case that | g ( x ) − M | < 1.

Since | g ( x ) | = | g ( x ) − M + M | ≤ | g ( x ) − M | + | M | , we conclude that

Again, in statement 2, we take ε 3 = ε 2 | L | > 0 . So, there is a δ 3 > 0 such that

Hence, if δ = min ( δ 1 , δ 2 , δ 3 ) , then, for any 0 < | x - a | < δ , statements 3, 4 and 5, above, are valid. Por lo tanto,

| f ( x ) g ( x ) − L M | ≤ | g ( x ) | | f ( x ) − L | + | L | | ( g ( x ) − M ) | < ( 1 + | M | ) ε 2 ( 1 + | M | ) + | L | ε 2 | L | = ε .

Limit of the reciprocal: If lim x → a g ( x ) = M and M ≠ 0 , then lim x → a   1 g ( x ) = 1 M .

Proof. We want to show that for any given ε > 0 , we can find a δ > 0 such that for any

We know that lim x → a g ( x ) = M hence,

  1. for any ε 1 > 0 , there is a δ 1 > 0 such that for any 0 < | x − a | < δ 1 it is the case that | g ( x ) − M | < ε 1 .

To relate what we know to what we want to show, we do the operations and obtain

| 1 g ( x ) − 1 M | = | M − g ( x ) g ( x ) M | = | g ( x ) − M | 1 | g ( x ) M |

From statement 1, if | g ( x ) − M | < ε 1 , then by the properties of the absolute value,

| g ( x ) − M | 1 | g ( x ) M | < ε 1 | M | ( | M | − ε 1 ) .

If we want ε = ε 1 | M | ( | M | − ε 1 ) , we solve for ε 1 , and we determine that

From statement 1, above, we know that for this value of ε 1 , there is a δ such that if

| 1 g ( x ) − 1 M | = | g ( x ) − M | 1 | g ( x ) M | < ε 1 | M | ( | M | − ε 1 ) = ε .

Finally, we can use the fact that

f ( x ) g ( x ) = f ( x ) 1 g ( x ) ,

and determine, from the product of limits and the limit of the reciprocal, the limit of the quotient.

If lim x → a f ( x ) = L and lim x → a g ( x ) = M where M ≠ 0 , then

lim x → a   f ( x ) g ( x ) = lim x → a f ( x ) 1 g ( x ) = lim x → a f ( x ) lim x → a   1 g ( x ) = L 1 M = L M

Ejercicios
  1. Use Definition 3.30 and the properties of the absolute value to show that
    1. if c is any number and lim x → a f ( x ) = L , then lim x → a   c f ( x ) = c L .
    2. if lim u → b f ( u ) = L and lim x → a g ( x ) = b , then lim x → a f ( g ( x ) ) = L .

    Hint: | L − K | = | f ( x ) − K + L − f ( x ) | ≤ | f ( x ) − K | + | f ( x ) − L | .

    The formal definition of the side limits should indicate when an x is very close to a from the right (or left) but is not a . We denote this situation by

    Observe that the statement 0 < x - a says that x ≠ a and that a < x that is, x is on the right of a .

    Definition 3.32.

    Let f be a function defined on the right of a .

    The limit of f , as x approaches a from the right, is L if,

    given any ε > 0 , we can find δ > 0 such that, for any 0 < x - a < δ , we have | f ( x ) − L | < ε .

    Let f be a function defined on the left of a .

    The limit of f , as x approaches a from the left, is L if,

    given any ε > 0 , we can find δ > 0 such that, for any 0 < a - x < δ , we have | f ( x ) − L | < ε .

    Remember that a function f is continuous at a if, lim x → a f ( x ) = f ( a ) . By Definition 3.30, the formal definition of continuity is as follows.

    Definition 3.33. A function f is continuous at a if

    given any ε > 0 , we can find δ > 0 such that, for any | x − a | < δ , it is the case that | f ( x ) − f ( a ) | < L .

    From the laws of limits we have the following laws for continuous functions.

    Proposition 3.34. If f and g are continuous at a , then

    1. lim x → a f ( x ) ± g ( x ) = f ( a ) ± g ( a ) .
    2. lim x → a   c f ( x ) = c f ( a ) , for any constant c .
    3. lim x → a f ( x ) g ( x ) = f ( a ) g ( a ) .
    4. lim x → a   f ( x ) g ( x ) = f ( a ) g ( a ) , if g ( a ) ≠ 0 .

    Proposition 3.34 is saying that the sum (difference), constant product, product and quotient of continuous functions at a are continuous at a .

    Example 3.78. Using Definition 3.33, above, we can also prove that the identity function I ( x ) = x is continuous everywhere. We want to show that, for any number a , the function is continuous at a that is, given ε > 0 , we can find δ > 0 such that

    for any 0 < | x − a | < δ , it is the case that | I ( x ) − I ( a ) | < ε .

    Since I ( x ) = x , we have | I ( x ) − I ( a ) | = | x − a | , and for ε = δ , the statement is true. Since a is any number, the function I is continuous everywhere.

    Example 3.79. By Example 3.78 and Proposition 3.34(C), we know that for any positive integer n , the function I ( x ) n = x n is the n product of the everywhere-continuous identity function. Hence, by the second law of limits, the function f ( x ) = c x n is continuous everywhere for any constant c . You can conclude, again by the law of limits, that polynomial functions are continuous everywhere.

    Example 3.80. Since a rational function is the quotient of polynomial functions, rational functions are continuous on their domains by Example 3.79 and Proposition 3.34(D).

    Example 3.81. By the definition of radians, for any numbers (radians) θ and η , it is true that | sin   θ −  sin  η | ≤ | θ − η | .

    This result shows that the sine function is continuous at η however, since η is arbitrary, we conclude that sine is continuous everywhere.

    Theorem 3.35. If the function g is continuous at a , and the function f is continuous at g ( a ) , then the composition f ∘ g is continuous at a . [Note that this theorem was presented earlier as Theorem 3.13.]

    Proof. We have lim x → a g ( x ) = g ( a ) and lim x → b f ( x ) = f ( b ) for b = g ( a ) . Then, by Exercise 34(B), which you just completed, lim x → a f ( g ( x ) ) = f ( g ( a ) ) , and therefore, lim x → a f ( g ( x ) ) is continuous at a .

    Example 3.82. From the addition formula of the sine function, we have

    Hence, cosine is the composition of the outside function sine and the inside polynomial function x + π ∕ 2 .

    By Examples 3.79 and 3.81, these two functions are continuous everywhere hence, by Theorem 3.35, cosine is continuous everywhere.

    At this point, we want to consider the formal definition of

    By Definition 3.6, we have lim x → a + f ( x ) = ∞ if we can make the values of f ( x ) arbitrarily large (as large as we like) by taking x to be sufficiently close to a from the right but not equal to a .

    This statement is the same as saying that it does not matter how large a number M we have, we can always find an x close to a from the right, but not equal to a , such that f ( x ) is bigger than M .

    Do you agree with this statement? Again, keep in mind the graph of a function with an infinite limit at a from the right.

    Figure 3.33. Function with an infinite positive limit at a from the right

    From Figure 3.33, above, we can see that, given any large M > 0 , we can find δ > 0 such that, for any 0 < x - a < δ , we have f ( x ) > M .

    Figure 3.34. Function with an infinite negative limit at a from the right

    Figure 3.34, above, is the graph of a function with a negative infinite limit at a from the right. We can see that it does not matter how small and negative a number N we have, we can always find an x close to a from the right, but not equal to a , so that f ( x ) is less than N .

    In Figure 3.34, we can see that, given a small N < 0 we can find δ > 0 such that for any 0 < x - a < δ , we have f ( x ) < N .

    We leave it to you to analyse the limits lim x → a - f ( x ) = ± ∞ and lim x → a f ( x ) = ± ∞ in the definition below.

    Definition 3.36.

    Let f be a function defined at the right of a . The limit of f , as x approaches a from the right, is infinity if

    given any M > 0 , we can find δ > 0 such that, for any 0 < x - a < δ , we have f ( x ) > M .

    The limit of f , as x approaches a from the right, is negative infinity if

    given any N < 0 , we can find δ > 0 such that, for any 0 < x - a < δ , we have f ( x ) < N .

    Let f be a function defined at the left of a . The limit of f , as x approaches a from the left, is infinity if

    given any M > 0 , we can find δ > 0 such that, for any 0 < a - x < δ , we have f ( x ) > M .

    The limit of f , as x approaches a from the left, is negative infinity if

    given any N < 0 , we can find δ > 0 such that, for any 0 < a - x < δ , we have f ( x ) < N .

    Let f be a function defined around a . The limit of f , as x approaches a , is infinity if

    given any M > 0 , we can find δ > 0 such that, for any 0 < | x − a | < δ , we have f ( x ) > M .

    The limit of f , as x approaches a , is negative infinity if

    given any N < 0 , we can find δ > 0 such that, for any 0 < | x − a | < δ , we have f ( x ) < N .

    Definition 3.37.

    1. If g ( x ) > 0 for x → a + , then there is a δ > 0 such that g ( x ) > 0 for any 0 < x - a < δ .
    2. If g ( x ) ≤ f ( x ) for x → a + , then there is a δ > 0 such that g ( x ) ≤ f ( x ) for any 0 < x - a < δ .

    In the discussion below, we present some proofs about infinite limits. We strongly recommend that you try other proofs.

    Theorem 3.38. If lim x → a + g ( x ) = 0 and g ( x ) > 0 for x → a + , then

    Proof. We want to show that, given M > 0 , there is a δ > 0 such that, for any 0 < x - a < δ , we have 1 g ( x ) > M .

    1. for any ε > 0 , there is δ 1 > 0 such that | g ( x ) | < ε for any 0 < x - a < δ 1 .
    2. there is a δ 2 > 0 , such that g ( x ) > 0 for any 0 < x - a < δ 2 .

    In particular, for ε = 1 M > 0 in statement 1, we have

    If δ = min ( δ 1 , δ 2 ) , then for 0 < x - a < δ , statements 2 and 3 hold, and

    Theorem 3.39. If lim x → a f ( x ) = L > 0 , and lim x → a g ( x ) = ∞ , then

    Proof. We want to show that, given M > 0 , there is a δ > 0 such that, for any 0 < | x − a | < δ , we have f ( x ) g ( x ) > M .

    1. for any ε > 0 , there is δ 1 > 0 such that | f ( x ) − L | < ε for any 0 < | x − a | < δ 1 .
    2. for any M ′ > 0 , there is a δ 2 > 0 such that g ( x ) > M ′ for any 0 < | x − a | < δ 2 .

    In particular, in statement 1, for

    Adding L to each side of the inequality, we conclude that

    In statement 2, we take M ′ = 2 M L > 0 . There is a δ 2 > 0 , such that

    If δ = min ( δ 1 , δ 2 ) , then statements 3 and 4 hold for all 0 < | x − a | < δ , and we have

    f ( x ) g ( x ) > L 2 2 M L = M .

    Ejercicios
    1. Use Definitions 3.36 and 3.37 to prove the statements below.
      1. If lim x → a + g ( x ) = 0 and g ( x ) < 0 for x → a + , then lim x → a +   1 g ( x ) = - ∞ .
      2. If lim x → a g ( x ) = 0 and g ( x ) > 0 for x → a , then lim x → a   1 g ( x ) = ∞ .
      3. If lim x → a f ( x ) = L < 0 and lim x → a g ( x ) = ∞ , then lim x → a f ( x ) g ( x ) = - ∞ .
      4. If lim x → a f ( x ) = L > 0 and lim x → a g ( x ) = - ∞ , then lim x → a f ( x ) g ( x ) = - ∞ .

      Finally, let us consider the formal definition of

      means that the values of f ( x ) can be made arbitrarily close to L by taking x sufficiently large and positive (see Figure 3.35, below).

      Figure 3.35. Formal definition of lim x → + ∞ f ( x ) = L

      For any small number ε > 0 (as small as we want), we can always find a large number M > 0 such that, for any x > M , the distance between f ( x ) and L is less than ε .

      Definition 3.40. Let f be a function defined on an interval ( c , ∞ ) for some c . The limit of f , as x approaches infinity, is L if

      given any ε > 0 , we can find an M > 0 such that, for any x > M , it is the case that | f ( x ) − L | < ε .

      We leave it to you to give the formal definitions of the statements in Definition 3.40 for x → a - and x → a .

      means that the values of f ( x ) can be made arbitrarily close to L by taking x sufficiently small and negative (see Figure 3.36, below).

      For any small number ε > 0 (as small as we want), we can always find a small number N < 0 such that, for any x < N , the distance between f ( x ) and L is less than ε .

      Figure 3.36. Formal definition of lim x → - ∞ f ( x ) = L

      Definition 3.41. Let f be a function defined on an interval ( - ∞ , c ) for some c . The limit of f , as x approaches negative infinity, is L if

      given any ε > 0 we can find an N < 0 such that, for any x < N , it is the case that | f ( x ) − L | < ε .

      We have provided a set of theorems that hold for limits at infinity one of them is the laws of limits. Compare the following proof with the product of limits we gave before (see Theorem 3.23).

      Theorem 3.42. If lim x → ∞ f ( x ) = L and lim x → ∞ g ( x ) = K , then

      Proof. We want to show that, for any given ε > 0 , we can find an M > 0 such that, for any

      x > M it is the case that | f ( x ) g ( x ) − L M | < ε .

      We know that, for any positive number,

      1. ε 1 > 0 , there is an M 1 > 0 such that, for any x > M 1 , it is the case that | f ( x ) − L | < ε 1 .
      2. ε 2 > 0 , there is an M 2 > 0 such that, for any x > M 2 , it is the case that | g ( x ) − K | < ε 2 .

      As before, we add 0 = g ( x ) L - g ( x ) L to relate what we want to show with what we know. By the triangle inequality, we know that

      | f ( x ) g ( x ) − L K | = | f ( x ) g ( x ) − g ( x ) L + g ( x ) L − L K | ≤ | g ( x ) | | f ( x ) − L | + | L | | g ( x ) − K |

      Since we want this inequality to be less than ε , and since statements 1 and 2 above are true for any positive real number, we take values for ε 1 and ε 2 that fit these criteria.

      In statement 2, we take ε 2 = 1 , and we find that for 1 > 0 , there is an M 2 > 0 such that for any x > M 2 it is the case that | g ( x ) − K | < ε 2 .

      Since | g ( x ) | = | g ( x ) − K + K | ≤ | g ( x ) − K | + | K | , we conclude that

      Again, in statement 2, we take ε 2 = ε 2 | L | > 0 , and we find that there is an M 3 > 0 such that

      In statement 1, we take ε 1 = ε 2 ( 1 + | K | ) > 0 , and we find that there is an M 1 > 0 such that

      Hence, if M = max ( M 1 , M 2 , M 3 ) , then for any x > M , statements 3, 4 and 5 are valid. Por lo tanto,

      | f ( x ) g ( x ) − L K | ≤ | g ( x ) | | f ( x ) − L | + | L | | g ( x ) − K | < ( 1 + | K | ) ε 2 ( 1 + | K | ) + | L | ε 2 | L | = ε

      From this proof, you can see intuitively why some results for limits at finite numbers are also true for limits at infinity.

      Next, we give some other proofs to illustrate the different arguments we can use to prove a statement logically. Observe also how we use the properties of the absolute value.

      Theorem 3.43. If lim x → a f ( x ) = L and lim x → a g ( x ) = K and g ( x ) ≤ f ( x ) for x → a , then K ≤ L .

      This theorem is saying that if g ( x ) ≤ f ( x ) for x → a , then lim x → a g ( x ) ≤ lim x → a f ( x ) .

      Proof. We will argue by contradiction. If we assume that K > L , this assumption will take us to a contradiction, and from the contradiction, we can conclude that our assumption is false, and that K ≤ L .

      By the sum of limits, we know that

      lim x → a g ( x ) - f ( x ) = K - L .

      If K > L , then K - L > 0 . We have two hypotheses:

      1. for any ε 1 > 0 , there is a δ 1 > 0 such that | g ( x ) − K | < ε 1 for any 0 < | x − a | < δ 1 .
      2. for any ε 2 > 0 there is a δ 2 > 0 such that | g ( x ) − f ( x ) − ( K − L ) | < ε 2 for any 0 < | x − a | < ε 2 .

      In particular, we take ε 2 = K - L > 0 in statement 2, and we find that there is δ 2 > 0 such that

      If we take δ = min ( δ 1 , δ 2 ) , then statements 1 and 3 are true, and for any 0 < | x − a | < δ , we know that

      - ( K - L ) < g ( x ) - f ( x ) - ( K - L ) < K - L .

      Adding ( K - L ) to both sides, we obtain

      Therefore, f ( x ) < g ( x ) for 0 < | x − a | < δ . This inequality states that f ( x ) < g ( x ) for x → a , contrary to our assumption. Thus, we conclude that K ≤ L .

      Corollary 3.44. Squeeze Theorem.

      If g ( x ) ≤ f ( x ) ≤ h ( x ) for x → a , and lim x → a g ( x ) = L = lim x → a   h ( x ) , then lim x → a f ( x ) = L .

      Proof. From Theorem 3.43, we know that

      lim x → a g ( x ) ≤ lim x → a f ( x ) ≤ lim x → a   h ( x ) .

      Hence, L ≤ lim x → a f ( x ) ≤ L , and lim x → a f ( x ) = L .

      Theorem 3.45. If lim x → a g ( x ) = ∞ and g ( x ) ≤ f ( x ) for x → a , then lim x → a f ( x ) = ∞ .

      Proof. We want to show that for any M > 0 , there is a δ > 0 such that f ( x ) > M for any 0 < | x - a | < δ .

      1. there is δ 1 > 0 such that g ( x ) ≤ f ( x ) for any 0 < | x − a | < δ 1
      2. for M > 0 , there is a δ 2 > 1 such that g ( x ) > M for any 0 < | x − a | < δ 2 .

      For δ = min ( δ 1 , δ 2 ) , both statements are true and for any 0 < | x − a | < δ , it is the case that f ( x ) ≥ g ( x ) > M .


      Properties of Infinity

      I am passionate about travelling and currently live and work in Paris. I like to spend my time reading, gardening, running, learning languages and exploring new places.

      Cancel reply

      Value of +infinity=2.5×10power19

      infinity is not a number. it’s just an expression for a really small or large number like 0.9999999… or 0.00000000 then a number or 10000000… . in math the sideway 8 or infinity involved with an operation addition, subtraction, multiplication, division, etc. It is very important to understand and remember the properties there is no other way.


      Topological Vector Spaces

      3.4.2 Fréchet spaces

      Definition 3.51

      A Fréchet space (or ( ℱ )-space) is a metrizable and complete locally convex space. An ( ℒℱ )-space is an inductive limit of a secuencia of Fréchet spaces an ( ℒ s ℱ )-space is a strict inductive limit of a secuencia of Fréchet spaces 8 .

      The category of Fréchet spaces is preabelian, and, in particular, any Hausdorff quotient of a Fréchet space is a Fréchet space. By Theorem 3.34 :

      Corollary 3.52

      Every ( ℒ s ℱ )-space is Hausdorff and complete.

      (II) A locally convex space mi is quasi-complete if and only if every closed and bounded subset of mi is complete ( Definition 2.99 ). Any closed subspace of a Fréchet space is a Fréchet space. Si (miI, ψI j I) is an inverse system of complete Hausdorff (resp. quasi-complete Hausdorff) locally convex spaces, then lim ← E i is complete Hausdorff (resp. quasi-complete Hausdorff) by Theorems 2.79 and 2.100 . We will see to what extent the converse holds below.

      Theorem 3.53

      If a locally convex space is complete and Hausdorff, then it is the decreasing projective limit ( Definition 3.32 (2)) of a family of Banach spaces.

      A locally convex space E is a Fréchet space if and only if it is the decreasing projective limit de un secuencia of Banach spaces.

      Dejar mi be a complete Hausdorff locally convex space, and let U be a fundamental system of disked and closed neighborhoods of 0, ordered by inclusion. For all V ∈ U , let pagV be the gauge of V ( section 3.3.2 (I)). Then ker (pagV) ≔ <Xmi : pagV(X) = 0> is a vector subspace of mi y miV = E / ker (pagV) is a normed vector space (said to be associated with V) when equipped with the norm x ¯ V V = p V x , where x ¯ V ≔ x + ker p V . Let E V ^ be the completion of miV ( Definition 2.81 ). Dejar U, V ∈ U be such that UV. Then ker (pagU) ⊂ ker (pagV), so there exists a canonical mapping ψV U : miUmiV induced by 1mi ([P1], section 2.2.3(1)) ψV U is surjective (ibid.) and is continuous, since x ¯ V V ≤ x ¯ U U . Thus, by Theorem 2.80 , there exist canonical mappings ψ V U ^ : E U ^ → E V ^ and ψ U ^ : E → E U ^ clearly, if UVW (U, V, W ∈ U ), then ψ V ^ : ψ V U ^ ∘ ψ U ^ and ψ W U ^ = ψ W V ^ ∘ ψ V U ^ . We therefore have the inverse system ℑ = E V ^ ψ V U ^ U , and F ≔ lim ← E V ^ ⊂ ∏ V ∈ U E V ^ is equipped with the coarsest topology for which the canonical mappings F → E V ^ are continuous. Desde mi is Hausdorff, there exists a canonical injection j : E↪F : x ↦ x ¯ V V ∈ U j is a strict monomorphism ( [SCF 99] , Chapter II, section 5.4 ), j (mi) is dense in F y mij (mi) is complete, thus j (mi) = F and via j, which is an isomorphism of Tvs, mi y F are identified.

      Si mi is a Fréchet space, then U may be chosen to be countable ( section 2.1.3 (II)).


      4.4: Infinite Limits. Operations in E* - Mathematics

      MAT 305: Combinatorics Topics for K-8 Teachers

      Summation and Product Notation

      At times when we add, there is a pattern by which we can express the addends. For instance, in the sum

      1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 + 10

      the smallest addend is 1, each successive addend is one larger than the one before it, and the largest addend is 10. Likewise, in the sum

      the smallest addend is 2, each successive addend is 4 larger than the previous, and the largest addend is 18. See whether you can detect and describe the addend patterns in the following sums.

      (1) 3 + 6 + 9 + 12 + 15 + 18 + 21
      (2) 5 + 10 + 20 + 40 + 80 + 160
      (3) 2a + 4a + 6a + 8a + 10a + 12a + 14a
      (4) 1 + 4 + 9 + 16 + 25 + 36 + . . .
      (5) 3 + 6 + 9 + 12 + 15 + 18 + 21 + . . .
      (6) 10 - 16 + 22 - 28 + 34 - . . .

      Summation notation provides for us a compact way to represent the addends in sums such as these. For instance, here is the summation notation to represent the sum of the first 10 positive integers, the first sum described on this page.

      The annotated symbolism shown below identifies important elements used in summation notation (also called sigma notation).

      • The Greek letter sigma is closely associated with the word "sum." The letter sigma is a signal that summation notation is being used.
      • The index of summation , here the letter i, is a dummy variable whose value will change as the addends of the sum change. The dummy variable will usually show up one or more times in the expression to the right of the Greek letter sigma.
      • The lower limit of summation indicates the smallest value the index will take on. Here, the smallest value i will take is 1. Unless indicated otherwise, we increase this value by 1 until we reach the upper limit of summation.
      • The upper limit of summation indicates the largest value the index will take on. Here, the largest value i will take on is 10.
      • The expression to the right of sigma describes or represents each addend, in terms of the index variable i. Here, that expression is just the index variable. Often is is much more involved than this.

      To expand this summation notation, that is, to determine the set of addends that we are to sum, we replace any occurance of the dummy variable in the addend representation with the lower limit of the index variable. We evaluate the resulting expression. This is our first addend. We repeat this process with the next value of the index variable, using that specific value for the index variable in the addend representation and simplifying as desired or necessary. The replace and simplify process continues until the last index value to be used is the upper limit of summation.

      Determine the expansion of this summation notation:

      Each addend in the sum will be the square of an index value. The index values begin with 3 and increase by 1 until reaching 7. Thus, we have the index values 3, 4, 5, 6, and 7, and the squares of those are 9, 16, 25, 36, and 49. The summation notation above, therefore, represents the sum 9 + 16 + 25 + 36 + 49.

      In some cases we may not identify the upper limit of summation with a specific value, instead usingf a variable. Here's an example.

      The lower limit of summation is 0 and the upper limit is n. Each addend in the sum is found by multiplying the index value by 3 and then adding 1 to that. When j=0, the addend is (3)(0)+1=1. When j=1, the addend is (3)(1)+1=4. When we reach the upper limit, the addend is (3)(n)+1. Because we do not know the specific value for n, we use an elipsis (. . .) to signal that the addend pattern continues. Here's the expansion of this summation notation.

      We may also create sums with an infinite number of addends. In this situation, the upper limit of summation is infinity. Here's an example.

      When k=1, the addend is (1+1)^3=8, when k=2 the addend is (2+1)^3=27, and so on. There is no last addend, because the upper limit of summation is infinity, indicating we simply continue to create addends following the pattern shown. Here's the expansion for this infinite summation.

      Once you've learned how to use summation notation to express patterns in sums, product notation has many similar elements that make it straightforward to learn to use. The only difference is that we use product notation to express patterns in products, that is, when the factors in a product can be represented by some pattern. Instead of the Greek letter sigma, we use the Greek letter pi. Here is product notation to represent the product of the first several squares: