Artículos

6.3: Funciones diferenciables


Como sabemos, una función (f: E ^ {1} rightarrow E left ( text {on} E ^ {1} right) ) es diferenciable en (p in E ^ {1} ) iff, con ( Delta f = f (x) -f (p) ) y ( Delta x = xp ),

[
f ^ { prime} (p) = lim _ {x rightarrow p} frac { Delta f} { Delta x} text {existe} quad ( text {finite}).
]

Configurando ( Delta x = xp = t, Delta f = f (p + t) -f (p), ) y (f ^ { prime} (p) = v, ) podemos escribir esto ecuación como

[
lim _ {t rightarrow 0} left | frac { Delta f} {t} -v right | = 0,
]

o

[
lim _ {t flecha derecha 0} frac {1} {| t |} | f (p + t) -f (p) -v t | = 0
]

Ahora defina un mapa ( phi: E ^ {1} rightarrow E ) por ( phi (t) = t v, v = f ^ { prime} (p) in E ).

Entonces ( phi ) es lineal y continuo, es decir, ( phi in L left (E ^ {1}, E right); ) así que por el Corolario 2 en §2, podemos expresar ( (1) ) como sigue: hay un mapa ( phi in L left (E ^ {1}, E right) ) tal que

[
lim _ {t rightarrow 0} frac {1} {| t |} | Delta f- phi (t) | = 0.
]

También adoptamos esto como una definición en el caso general, (f: E ^ { prime} rightarrow E, ).

Definición: diferenciable en un punto

Una función (f: E ^ { prime} rightarrow E ) donde (E ^ { prime} ) y (E ) son espacios normativos sobre el mismo campo escalar) se dice que es diferenciable en un punto ( vec {p} in E ^ { prime} ) si si hay un mapa

[
phi in L left (E ^ { prime}, E right)
]

tal que

[
lim _ { vec {t} rightarrow overrightarrow {0}} frac {1} {| vec {t} |} | Delta f- phi ( vec {t}) | = 0;
]

es decir,

[
lim _ { vec {t} rightarrow overrightarrow {0}} frac {1} {| vec {t} |} [f ( vec {p} + vec {t}) - f ( vec {p}) - phi ( vec {t})] = 0.
]

Como mostramos a continuación, ( phi ) es único (para un ( vec {p}) fijo, ) si existe.

Llamamos ( phi ) el diferencial de (f ) en ( vec {p}, ) brevemente denotado (df. ) Como depende de ( vec {p}, ) también escriba (df ( vec {p}; vec {t}) ) para (df ( vec {t}) ) y (df ( vec {p}; cdot) ) para (df ).

Algunos autores escriben (f ^ { prime} ( vec {p}) ) para (df ( vec {p}; cdot) ) y lo llaman la derivada en ( vec {p}, ) pero no haremos esto (ver Prefacio). Sin embargo, siguiendo a M. Spivak, usaremos ("[f ^ { prime} ( vec {p})]" ) para su matriz, como sigue.

Definición: matriz jacobiana

Si (E ^ { prime} = E ^ {n} left (C ^ {n} right) ) y (E = E ^ {m} left (C ^ {m} right), ) y (f: E ^ { prime} rightarrow E ) es diferenciable en ( vec {p}, ) establecemos

[
left [f ^ { prime} ( vec {p}) right] = [d f ( vec {p}; cdot)]
]

y llámalo el Matriz jacobiana de (f ) en ( vec {p} ).

Nota 1. En el Capítulo 5, §6, no definimos (d f ) como un mapeo. Sin embargo, si (E ^ { prime} = E ^ {1}, ) el valor de la función

[
d f (p; t) = v t = f ^ { prime} (p) Delta x
]

es como en el Capítulo 5, §6.

Además, ( left [f ^ { prime} (p) right] ) es una matriz (1 times 1 ) con un solo término (f ^ { prime} (p). ) ( ¿Por qué?) Esto motivó la Definición 2.

Teorema ( PageIndex {1} )

(unicidad de (df). ) Si (f: E ^ { prime} rightarrow E ) es diferenciable en ( vec {p}, ) entonces el mapa ( phi ) descrito en La definición 1 es única (solo depende de (f ) y ( vec {p} )).

Prueba

Suponga que hay otro mapa lineal (g: E ^ { prime} rightarrow E ) tal que

[
lim _ { vec {t} rightarrow overrightarrow {0}} frac {1} {| vec {t} |} [f ( vec {p} + vec {t}) - f ( vec {p}) - g ( vec {t})] = lim _ { vec {t} rightarrow overrightarrow {0}} frac {1} {| vec {t} |} [ Delta fg ( vec {t})] = 0.
]

Sea (h = phi-g. ) Según el Corolario 1 en §2, (h ) es lineal.

Además, según la ley del triángulo,

[
| h ( vec {t}) | = | phi ( vec {t}) - g ( vec {t}) | leq | Delta f- phi ( vec {t}) | + | Delta f-g ( vec {t}) |.
]

Por lo tanto, dividiendo por (| vec {t} | ),

[
left | h left ( frac { vec {t}} {| vec {t} |} right) right | = frac {1} {| vec {t} |} | h ( vec {t}) | leq frac {1} {| vec {t} |} | Delta f- phi ( vec {t}) | + frac {1} {| vec {t} |} | Delta fg ( vec {t}) |.
]

Por ((3) ) y ((2), ) las expresiones del lado derecho tienden a 0 como ( vec {t} rightarrow overrightarrow {0}. ) Así

[
lim _ { vec {t} rightarrow overrightarrow {0}} h left ( frac { vec {t}} {| vec {t} |} right) = 0.
]

Esto sigue siendo válido también si ( vec {t} rightarrow overrightarrow {0} ) sobre cualquier línea a través de ( overrightarrow {0}, ) de modo que ( vec {t} / | vec {t } | ) permanece constante, digamos ( vec {t} / | vec {t} | = vec {u}, ) donde ( vec {u} ) es una unidad arbitraria (pero fija) vector.

Luego

[
h left ( frac { vec {t}} {| vec {t} |} right) = h ( vec {u})
]

es constante por lo que puede tender a (0 ) solo si es igual a (0, ) entonces (h ( vec {u}) = 0 ) para cualquier vector unitario ( vec {u}. )

Dado que cualquier ( vec {x} en E ^ { prime} ) se puede escribir como ( vec {x} = | vec {x} | vec {u}, ) la linealidad produce

[
h ( vec {x}) = | vec {x} | h ( vec {u}) = 0.
]

Así (h = phi-g = 0 ) en (E ^ { prime}, ) y así ( phi = g ) después de todo, demostrando la unicidad de ( phi. Square )

Teorema ( PageIndex {2} )

Si (f ) es diferenciable en ( vec {p}, ) entonces

(i) (f ) es continua en ( vec {p} );

(ii) para cualquier ( vec {u} neq overrightarrow {0}, ) tiene la ( vec {u} ) - derivada dirigida

[
D _ { vec {u}} f ( vec {p}) = d f ( vec {p}; vec {u}).
]

Prueba

Por supuesto, la fórmula ((2) ) es válida para ( phi = d f ( vec {p}; cdot) ).

Por lo tanto, dado ( varepsilon> 0, ) hay ( delta> 0 ) tal que, configurando ( Delta f = f ( vec {p} + vec {t}) - f ( vec {p}) ) tenemos

[
frac {1} {| vec {t} |} | Delta f- phi ( vec {t}) | < varepsilon text {siempre que} 0 <| vec {t} | < delta;
]

o, por la ley del triángulo,

[
| Delta f | leq | Delta f- phi ( vec {t}) | + | phi ( vec {t}) | leq varepsilon | vec {t} | + | phi ( vec {t}) |, quad 0 <| vec {t} | < delta.
]

Ahora, por Definición (1, phi ) es lineal y continua; entonces

[
lim _ { vec {t} rightarrow overrightarrow {0}} | phi ( vec {t}) | = | phi ( overrightarrow {0}) | = 0.
]

Por lo tanto, haciendo ( vec {t} rightarrow overrightarrow {0} ) en ((5), ) con ( varepsilon ) fijo, obtenemos

[
lim _ { vec {t} rightarrow overrightarrow {0}} | Delta f | = 0.
]

Como ( vec {t} ) es solo otra notación para ( Delta vec {x} = vec {x} - vec {p}, ) esto prueba la afirmación (i).

A continuación, corrija cualquier ( vec {u} neq overrightarrow {0} ) en (E ^ { prime}, ) y sustituya (t vec {u} ) por ( vec { t} ) en ((4) ).

En otras palabras, (t ) es una variable real, (0

Multiplicando por (| vec {u} |, ) usamos la linealidad de ( phi ) para obtener

[
varepsilon | vec {u} |> left | frac { Delta f} {t} - frac { phi (t vec {u})} {t} right | = left | frac { Delta f} {t} - phi ( vec {u}) right | = left | frac {f ( vec {p} + t vec {u}) - f ( vec {p })} {t} - phi ( vec {u}) right |.
]

Como ( varepsilon ) es arbitrario, tenemos

[
phi ( vec {u}) = lim _ {t rightarrow 0} frac {1} {t} [f ( vec {p} + t vec {u}) - f ( vec {p })].
]

Pero esto es simplemente (D _ { vec {u}} f ( vec {p}), ) según la Definición 1 en §1.

Por lo tanto, (D _ { vec {u}} f ( vec {p}) = phi ( vec {u}) = df ( vec {p}; vec {u}), ) demostrando ( ( mathrm {ii}). cuadrado )

Nota 2. Si (E ^ { prime} = E ^ {n} (C ^ {n}), ) El teorema 2 (iii) muestra que si (f ) es diferenciable en ( vec {p}, ) tiene los (n ) parciales

[D_ {k} f ( vec {p}) = df left ( vec {p}; vec {e} _ {k} right), quad k = 1, ldots, n. ]

Pero lo contrario falla: la existencia de (D_ {k} f ( vec {p}) ) ni siquiera implica continuidad, y mucho menos diferenciabilidad (ver §1). Además, tenemos el siguiente resultado.

Corolario ( PageIndex {1} )

Si (E ^ { prime} = E ^ {n} left (C ^ {n} right) ) y si (f: E ^ { prime} rightarrow E ) es diferenciable en ( vec {p}, ) entonces

[df ( vec {p}; vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) = sum_ {k = 1} ^ {n} t_ {k} frac { parcial} { parcial x_ {k}} f ( vec {p}), ]

donde ( vec {t} = left (t_ {1}, ldots, t_ {n} right) ).

Prueba

Por definición, ( phi = d f ( vec {p}; cdot) ) es un mapa lineal para un ( vec {p} ) fijo.

Si (E ^ { prime} = E ^ {n} ) o (C ^ {n}, ) podemos usar la fórmula (3) de §2, reemplazando (f ) y ( vec {x} ) por ( phi ) y ( vec {t}, ) y obtén

[ phi ( vec {t}) = df ( vec {p}; vec {t}) = sum_ {k = 1} ^ {n} t_ {k} df left ( vec {p }; vec {e} _ {k} right) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) ]

por Nota 2. ( quad square )

Nota 3. En notación clásica, se escribe ( Delta x_ {k} ) o (d x_ {k} ) para (t_ {k} ) en (6). Por lo tanto, omitir ( vec {p} ) y ( vec {t}, ) fórmula (6) a menudo se escribe como

[df = frac { parcial f} { parcial x_ {1}} d x_ {1} + frac { parcial f} { parcial x_ {2}} d x_ {2} + cdots + frac { parcial f} { parcial x_ {n}} d x_ {n}. ]

En particular, si (n = 3, ) escribimos (x, y, z ) para (x_ {1}, x_ {2}, x_ {3}. ) Esto produce

[d f = frac { f parcial} { x parcial} d x + frac { f parcial} { y parcial} d y + frac { f parcial} { z parcial} d z ]

(una fórmula de cálculo familiar).

Nota 4. Si el espacio de rango (E ) en el Corolario 1 es (E ^ {1} (C), ) entonces (D_ {k} f ( vec {p}) ) forma una (n ) -tupla de escalares, es decir, un vector en (E ^ {n} (C ^ {n}). )

En el caso de (f: E ^ {n} rightarrow E ^ {1}, ) lo denotamos por

[ nabla f ( vec {p}) = left (D_ {1} f ( vec {p}), ldots, D_ {n} f ( vec {p}) right) = sum_ {k = 1} ^ {n} vec {e} _ {k} D_ {k} f ( vec {p}). ]

En el caso de (f: C ^ {n} rightarrow C, ) reemplazamos (D_ {k} f ( vec {p}) ) por sus conjugados ( overline {D_ {k} f ( vec {p})} ) y establecer

[ nabla f ( vec {p}) = sum_ {k = 1} ^ {n} vec {e} _ {k} overline {D_ {k} f ( vec {p})}. ]

El vector ( nabla f ( vec {p}) ) se llama gradiente de (f ) ("grad (f )") en ( vec {p} ).

De (6) obtenemos

[df ( vec {p}; vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) = vec {t} cdot nabla f ( vec {p}) ]

(producto escalar de ( vec {t} ) por ( nabla f ( vec {p}))), ) proporcionado (f: E ^ {n} rightarrow E ^ {1} ) ( o (f: C ^ {n} rightarrow C) ) es diferenciable en ( vec {p} ).

Esto nos lleva al siguiente resultado.

Corolario ( PageIndex {2} )

Una función (f: E ^ {n} rightarrow E ^ {1} ) (o (f: C ^ {n} rightarrow C )) es diferenciable en ( vec {p} ) iff

[ lim _ { vec {t} rightarrow overline {0}} frac {1} {| vec {t} |} | f ( vec {p} + vec {t}) - f ( vec {p}) - vec {t} cdot vec {v} | = 0 ]

para algunos ( vec {v} en E ^ {n} (C ^ {n}) ).

En este caso, necesariamente ( vec {v} = nabla f ( vec {p}) ) y ( vec {t} cdot vec {v} = df ( vec {p}; vec {t}), vec {t} en E ^ {n} (C ^ {n}) ).

Prueba

Si (f ) es diferenciable en ( vec {p}, ) podemos establecer ( phi = df ( vec {p}; cdot) ) y ( vec {v} = nabla f ( vec {p}) )

Luego por (7),

[ phi ( vec {t}) = d f ( vec {p}; vec {t}) = vec {t} cdot vec {v}; ]

por tanto, según la Definición 1, (8) resulta.

Por el contrario, si algún ( vec {v} ) satisface (8), establezca ( phi ( vec {t}) = vec {t} cdot vec {v}. ) Entonces (8) implica (2), y ( phi ) es lineal y continua.

Así, por definición, (f ) es diferenciable en ( vec {p}; ) por lo que (7) se cumple.

Además, ( phi ) es un funcional lineal en (E ^ {n} (C ^ {n}). ) Según el Teorema 2 (ii) en §2, el ( vec {v} ) en ( phi ( vec {t}) = vec {t} cdot vec {v} ) es único, al igual que ( phi. )

Por tanto, por (7), ( vec {v} = nabla f ( vec {p}) ) necesariamente. ( quad cuadrado )

Corolario ( PageIndex {3} ) (ley de la media)

Si (f: E ^ {n} rightarrow E ^ {1} ) (real) es relativamente continuo en un segmento cerrado (L [ vec {p}, vec {q}], vec {p } neq vec {q}, ) y diferenciable en (L ( vec {p}, vec {q}), ) entonces

[f ( vec {q}) - f ( vec {p}) = ( vec {q} - vec {p}) cdot nabla f ( vec {x} _ {0}) ]

para algunos ( vec {x} _ {0} en L ( vec {p}, vec {q}) ).

Prueba

Dejar

[r = | vec {q} - vec {p} |, quad vec {v} = frac {1} {r} ( vec {q} - vec {p}), text {y} r vec {v} = ( vec {q} - vec {p}). ]

Por (7) y el Teorema 2 (ii),

[D _ { vec {v}} f ( vec {x}) = df ( vec {x}; vec {v}) = vec {v} cdot nabla f ( vec {x} ) ]

para ( vec {x} in L ( vec {p}, vec {q}). ) Así, por la fórmula (3 ') del Corolario 2 en §1,

[f ( vec {q}) - f ( vec {p}) = r D _ { vec {v}} f left ( vec {x} _ {0} right) = r vec { v} cdot nabla f ( vec {x} _ {0}) = ( vec {q} - vec {p}) cdot nabla f ( vec {x} _ {0}) ]

para algunos ( vec {x} _ {0} en L ( vec {p}, vec {q}). quad square )

Como sabemos, la mera existencia de parciales no implica diferenciabilidad. Pero la existencia de parciales continuos sí lo hace. De hecho, tenemos el siguiente teorema.

Teorema ( PageIndex {3} )

Sea (E ^ { prime} = E ^ {n} (C ^ {n}) ).

Si (f: E ^ { prime} rightarrow E ) tiene las derivadas parciales (D_ {k} f (k = 1, ldots, n) ) en todo un conjunto abierto (A subseteq E ^ { prime}, ) y si (D_ {k} f ) son continuas en algún ( vec {p} in A, ) entonces (f ) es diferenciable en ( vec {p} ).

Prueba

Con ( vec {p} ) como arriba, deje

[ phi ( vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) text {con} vec {t} = sum_ {k = 1} ^ {n} t_ {k} vec {e} _ {k} in E ^ { prime}. ]

Entonces ( phi ) es continuo (¡un polinomio!) Y lineal (Corolario 2 en §2).

Por tanto, mediante la Definición 1, queda demostrar que

[ lim _ { vec {t} rightarrow overrightarrow {0} | vec {t} |} | Delta f- phi ( vec {t}) | = 0; ]

es decir;

[ lim _ { vec {t} in overrightarrow {0}} frac {1} {| vec {t} |} left | f ( vec {p} + vec {t}) -f ( vec {p}) - sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) right | = 0. ]

Para hacer esto, corrija ( varepsilon> 0. ) Como (A ) está abierto y (D_ {k} f ) son continuas en ( vec {p} in A ) hay a ( delta> 0 ) tal que (G _ { vec {p}} ( delta) subseteq A ) y simultáneamente (¡explica esto!)

[( forall vec {x} in G _ { vec {p}} ( delta)) quad left | D_ {k} f ( vec {x}) - D_ {k} f ( vec {p}) right | < frac { varepsilon} {n}, k = 1, ldots, n. ]

Por tanto, para cualquier conjunto (I subseteq G _ { vec {p}} ( delta) )

[ sup _ { vec {x} in I} left | D_ {k} f ( vec {x}) - D_ {k} f ( vec {p}) right | leq frac { varepsilon} {n}. quad (¿Por qué?) ]

Ahora arregle cualquier ( vec {t} en E ^ { prime}, 0 <| vec {t} | < delta, ) y deje ( vec {p} _ {0} = vec {pag}),

[ vec {p} _ {k} = vec {p} + sum_ {i = 1} ^ {k} t_ {i} e_ {i}, quad k = 1, ldots, n. ]

Luego

[ vec {p} _ {n} = vec {p} + sum_ {i = 1} ^ {n} t_ {i} vec {e} _ {i} = vec {p} + vec {t}, ]

( left | vec {p} _ {k} - vec {p} _ {k-1} right | = left | t_ {k} right |, ) y todo ( vec { p} _ {k} ) se encuentran en (G _ { vec {p}} ( delta), ) para

[ left | vec {p} _ {k} - vec {p} right | = left | sum_ {i = 1} ^ {k} t_ {i} e_ {i} right | = sqrt { sum_ {i = 1} ^ {k} left | t_ {i} right | ^ {2}} leq sqrt { sum_ {i = 1} ^ {n} left | t_ { i} right | ^ {2}} = | vec {t} | < delta, ]

según sea necesario.

Como (G_ {p} ( delta) ) es convexo (Capítulo 4, §9), los segmentos (I_ {k} = L left [ vec {p} _ {k-1}, vec {p} _ {k} right] ) todos se encuentran en (G _ { vec {p}} ( delta) subseteq A; ) y por supuesto, (f ) tiene todos los parciales allí.

Por tanto, según el Teorema 1 en §1, (f ) es relativamente continua en todo (I_ {k} ).

Todo esto también se aplica a las funciones (g_ {k}, ) definidas por

[ left ( forall vec {x} in E ^ { prime} right) quad g_ {k} ( vec {x}) = f ( vec {x}) - x_ {k} D_ {k} f ( vec {p}), quad k = 1, ldots, n. ]

(Por qué aquí

[D_ {k} g_ {k} ( vec {x}) = D_ {k} f ( vec {x}) - D_ {k} f ( vec {p}). ]

(¿Por qué?)

Así, por el Corolario 2 en §1, y (11) arriba,

[ begin {alineado} left | g_ {k} left ( vec {p} _ {k} right) -g_ {k} left ( vec {p} _ {k-1} right ) derecha | & leq left | vec {p} _ {k} - vec {p} _ {k-1} right | sup _ {x in I_ {k}} left | D_ {k} f ( vec {x}) - D_ {k} f ( vec {p}) right | & leq frac { varepsilon} {n} left | t_ {k} right | leq frac { varepsilon} {n} | vec {t} |, end {alineado} ]

desde

[ left | vec {p} _ {k} - vec {p} _ {k-1} right | = left | t_ {k} vec {e} _ {k} right | leq | vec {t} |, ]

por construcción.

Combine con (12), recordando que las (k ) ésima coordenadas (x_ {k}, ) para ( vec {p} _ {k} ) y ( vec {p} _ {k -1} ) difieren en (t_ {k}; ) por lo que obtenemos

[ begin {alineado} left | g_ {k} left ( vec {p} _ {k} right) -g_ {k} left ( vec {p} _ {k-1} right ) derecha | & = left | f left ( vec {p} _ {k} right) -f left ( vec {p} _ {k-1} right) -t_ {k} D_ {k} f ( vec {p}) right | & leq frac { varepsilon} {n} | vec {t} |. end {alineado} ]

También,

[ begin {alineado} sum_ {k = 1} ^ {n} left [f left ( vec {p} _ {k} right) -f left ( vec {p} _ {k -1} derecha) derecha] & = f izquierda ( vec {p} _ {n} derecha) -f izquierda ( vec {p} _ {0} derecha) & = f ( vec {p} + vec {t}) - f ( vec {p}) = Delta f ( text {ver arriba}). end {alineado} ]

Por lo tanto,

[ begin {alineado} left | Delta f- sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) right | & = left | sum_ {k = 1} ^ {n} left [f left ( vec {p} _ {k} right) -f left ( vec {p} _ {k-1 } derecha) -t_ {k} D_ {k} f ( vec {p}) derecha] derecha | & leq n cdot frac { varepsilon} {n} | vec {t} | = varepsilon | vec {t} |. end {alineado} ]

Como ( varepsilon ) es arbitrario, sigue (10) y todo está probado. ( quad cuadrado )

Teorema ( PageIndex {4} )

Si (f: E ^ {n} rightarrow E ^ {m} ) (o (f: C ^ {n} rightarrow C ^ {m}) ) es diferenciable en ( vec {p} , ) con (f = left (f_ {1}, ldots, f_ {m} right), ) luego ( left [f ^ { prime} ( vec {p}) right ] ) es una matriz (m times n ),

[ left [f ^ { prime} ( vec {p}) right] = left [D_ {k} f_ {i} ( vec {p}) right], quad i = 1, ldots, m, k = 1, ldots, n. ]

Prueba

Por definición, ( left [f ^ { prime} ( vec {p}) right] ) es la matriz del mapa lineal ( phi = df ( vec {p}; cdot), ) ( phi = left ( phi_ {1}, ldots, phi_ {m} right). ) Aquí

[ phi ( vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) ]

por el Corolario 1.

Como (f = left (f_ {1}, ldots, f_ {m} right), ) podemos calcular (D_ {k} f ( vec {p}) ) componentes por el teorema 5 de Capítulo 5, §1, y Nota 2 en §1 para obtener

[ begin {alineado} D_ {k} f ( vec {p}) & = left (D_ {k} f_ {1} ( vec {p}), ldots, D_ {k} f_ {m } ( vec {p}) right) & = sum_ {i = 1} ^ {m} e_ {i} ^ { prime} D_ {k} f_ {i} ( vec {p}) , quad k = 1,2, ldots, n, end {alineado} ]

donde (e_ {i} ^ { prime} ) son los vectores básicos en (E ^ {m} left (C ^ {m} right). ) (Recuerde que ( vec { e} _ {k} ) son los vectores básicos en (E ^ {n} left (C ^ {n} right).) )

Por lo tanto

[ phi ( vec {t}) = sum_ {i = 1} ^ {m} e_ {i} ^ { prime} phi_ {i} ( vec {t}). ]

También,

[ phi ( vec {t}) = sum_ {k = 1} ^ {n} t_ {k} sum_ {i = 1} ^ {m} e_ {i} ^ { prime} D_ {k } f_ {i} ( vec {p}) = sum_ {i = 1} ^ {m} e_ {i} ^ { prime} sum_ {k = 1} ^ {n} t_ {k} D_ { k} f_ {i} ( vec {p}). ]

La unicidad de la descomposición (Teorema 2 en el Capítulo 3, §§1-3) ahora produce

[ phi_ {i} ( vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f_ {i} ( vec {p}), quad i = 1, ldots, m, quad vec {t} in E ^ {n} left (C ^ {n} right). ]

Si aquí ( vec {t} = vec {e} _ {k}, ) entonces (t_ {k} = 1, ) mientras que (t_ {j} = 0 ) para (j neq k. ) Así obtenemos

[ phi_ {i} left ( vec {e} _ {k} right) = D_ {k} f_ {i} ( vec {p}), quad i = 1, ldots, m, k = 1, ldots, n. ]

Por eso,

[ phi left ( vec {e} _ {k} right) = left (v_ {1 k}, v_ {2 k}, ldots, v_ {m k} right), ]

dónde

[v_ {i k} = phi_ {i} left ( vec {e} _ {k} right) = D_ {k} f_ {i} ( vec {p}). ]

Pero según la Nota 3 de §2, (v_ {1 k}, ldots, v_ {mk} ) (escrito verticalmente) es la (k ) ésima columna de la matriz (m times n ) ([ phi] = left [f ^ { prime} ( vec {p}) right]. ) Por lo tanto, la fórmula (14) resulta de hecho. ( quad cuadrado )

En conclusión, enfaticemos nuevamente que mientras (D _ { vec {u}} f ( vec {p}) ) es una constante, para un ( vec {p} fijo, df ( vec {p }; cdot) ) es un mapeo

[ phi in L left (E ^ { prime}, E right), ]

especialmente "adaptado" para ( vec {p} ).

El lector debe estudiar cuidadosamente al menos los problemas "señalados con flechas" a continuación.


STPM Más matemáticas T

En Maths T, ya aprendió a probar si una función es continua. Ahora necesitas conocer la relación entre continuidad y diferenciabilidad.

A función diferenciable tiene que ser continuo, pero no significa que un función continua es diferenciable. Usando proposiciones lógicas, significa que si f (x) es diferenciable, entonces es continuo, pero no a la inversa. Normalmente, la no diferenciabilidad ocurre en gráficos con

1. una esquina 2. una recta tangente vertical

3. una discontinuidad 4. en los puntos finales

Para funciones definidas por partes, es fácil ver si una función es diferenciable en las articulaciones. Si las articulaciones tienen diferentes gradientes para las diferentes subfunciones, definitivamente no es diferenciable. Sin embargo, debería haber una definición formal de diferenciación. Por un numero a en el dominio de la función F, Nosotros decimos eso F es diferenciable en a , o que los derivados de F existe en a Si

Puede continuar demostrando que ambas fórmulas son en realidad la misma cosa. Por supuesto, la diferenciabilidad no se limita solo a los puntos. También podríamos decir que una función es diferenciable en un intervalo (a, b) o diferenciable en todas partes, (-∞, +∞). Yo & # 8217 le daré un ejemplo:

Demuestre que f (x) = | x | no es diferenciable en x = 0.

Entonces, f (x) = | x | no es diferenciable en x = 0. [probado]

Estas 2 fórmulas se pueden usar en diferentes situaciones, así que si una no funciona, use la otra. La diferenciación no es una pregunta común en STPM, pero aún así debería poder hacer uso de esta importante información. & # 9786


6.3: Funciones diferenciables

Количество зарегистрированных учащихся: 38 тыс.

El propósito de este curso es dotar a los estudiantes con conocimientos teóricos y habilidades prácticas, que son necesarios para el análisis de sistemas dinámicos estocásticos en economía, ingeniería y otros campos. Más precisamente, los objetivos son 1. Estudio de los conceptos básicos de la teoría de procesos estocásticos 2. Introducción de los tipos más importantes de procesos estocásticos 3. Estudio de diversas propiedades y características de los procesos 4. Estudio de los métodos para describir y analizar modelos estocásticos complejos. Habilidades prácticas, adquiridas durante el proceso de estudio: 1. Comprensión de los tipos más importantes de procesos estocásticos (procesos de Poisson, Markov, Gaussian, Wiener y otros) y capacidad de encontrar el proceso más apropiado para modelar en situaciones particulares que surgen en economía, ingeniería y otros campos 2. comprensión de las nociones de ergodicidad, estacionariedad, integración estocástica aplicación de estos términos en el contexto de las matemáticas financieras Se supone que los estudiantes están familiarizados con los fundamentos de la teoría de la probabilidad. No se requiere conocimiento de los conceptos básicos de estadística matemática, pero simplifica la comprensión de este curso. El curso proporciona una base teórica necesaria para estudiar otros cursos en estocástica, como matemáticas financieras, finanzas cuantitativas, modelado estocástico y la teoría de procesos tipo salto. ¿Tiene problemas técnicos? Escríbanos: [email protected]

Рецензии

Esto fue útil, pero todavía siento que no entiendo los procesos estocásticos. Las personas que toman este curso deben saber que es bastante difícil, en comparación con la mayoría de los cursos de Coursera.

¡Gran curso! El material temático estaba bien cubierto y me dio las herramientas para abordar el estocástico más avanzado, como la dinámica de la población o las finanzas cuantitativas.

Semana 6: Ergodicidad, diferenciabilidad, continuidad

Al completar esta semana, el alumno podrá determinar si un proceso estocástico dado es diferenciable y aplicar el término de continuidad y ergodicidad a los procesos estocásticos.

Преподаватели

Vladimir Panov

Текст видео

Y ahora, me gustaría introducir la noción de derivada estocástica, que dice que un proceso aleatorio Xt es diferenciable como un punto t igual a t0 si existe la siguiente inclemencia. Entonces, tomamos Xt0 más h menos Xt0 dividimos esta diferencia entre h, y luego consideramos el límite de esta expresión cuando H va a 0 como el sentido coaccionado de medias, y si este límite existe y es igual a alguna variable aleatoria eta, entonces yo diría es que eta es una derivada del proceso Xt como un punto t igual a t0. Y denotaré esta derivada como Xt0 prima. Bueno, supongo que esta definición es bastante clara. Una vez más, estas conversiones significan que la expectativa matemática de Xt0 más H menos Xt0 dividida por H menos eta al cuadrado converge a 0 cuando H va a 0. Y la proposición completa completa, caracteriza esta definición en términos de expectativa matemática como una función de covarianza. . La siguiente proposición es válida. Déjame suponer que el proceso Xt tiene un momento finito. Esta expectativa matemática de Xt al cuadrado es finita. Entonces, este proceso Xt es diferenciable en el momento t igual a t0, si y solo si se cumplen las dos condiciones siguientes. La primera condición es que la expectativa médica sea diferenciable como un momento t igual a t0, y la segunda condición es que exista una derivada mixta de acuerdo con dt y ds de la función de covarianza. Esta derivada mixta debería existir también en el punto t0, t0. Una vez más, la función es diferenciable si y solo si se cumplen ambas condiciones. Permítanme darles un par de ejemplos. En primer lugar, déjeme suponer que el proceso Xt es un estacionario semanal. Esto significa que la expectativa matemática es una constante. Y la función de covarianza es igual a la función de autocovarianza y el momento t menos s. La primera condición de esta proposición se cumple definitivamente porque la constante es una función diferenciable. En cuanto a la segunda, resulta que la segunda derivada de la función K tiene un momento t0, t0 es igual a menos la segunda derivada de la función gamma como un punto cero. Entonces esta condición puede variar de estar relacionada de la siguiente manera. El proceso estacionario semanal es diferenciable si solo si, la segunda derivada de la función de autocovarianza existe como un punto cero. En algunos casos, la segunda derivada existe, en algunos casos, no. Permítanme darles un par de ejemplos. Por ejemplo, existe un proceso Xt tal que su función de autocovarianza es igual al exponente en la potencia menos alfa f, por lo que es el valor de r. Entonces, el proceso Xt no es diferenciable porque la segunda derivada de esta función, así como la primera derivada, es que esta función cero no existe. Entonces, en esta situación, Xt no es diferenciable. Otro ejemplo, si gamma de r es igual al coseno de r. Esta función es diferenciable en cero, y también como existe la segunda derivada. Y por tanto, en este caso, el proceso correspondiente Xt es diferenciable. Quiero decir, aquí es diferenciable en cualquier momento t. Este es el primer ejemplo. Permítanme proporcionar algunos ejemplos adicionales. El segundo ejemplo es el movimiento browniano. Resulta que el movimiento browniano no es diferenciable en ningún momento. ¿Cómo mostrar esto? Como sabe, la función de covarianza o el movimiento browniano es igual al mínimo entre los argumentos. Y por lo tanto, debo demostrar que esta derivada mixta no existe. ¿Cómo se muestra esto? Bueno, esto es simplemente una función de dos argumentos. Y déjame construir lo siguiente. Tomaré la función K en t0 más h, t0 menos K en t0, t0 dividido por h. Este objeto es igual al mínimo entre t0 y t0 más H menos t0 dividido por h. A continuación, esta expresión es igual a cero si h es positivo. Porque en este caso, tienes que el mínimo es igual a t0 y, por lo tanto, t0 menos t0 es igual a cero. Y de lo contrario, si h es menor que cero, entonces tenemos aquí t0 más h menos t0 y obtenemos h y luego lo dividimos por hy obtenemos uno. Entonces, si h se convierte en cero, este límite es igual a cero o uno dependiendo de que h sea menor que cero. Entonces, el límite cuando h llega a cero no existe en absoluto. Bueno. Entonces obtenemos que la función K no es diferenciable en ningún punto t0, t0 y, por lo tanto, el movimiento browniano no existe. Bien, este es un ejemplo muy típico solo por la siguiente situación. En realidad, si Xt es cualquier proceso con incrementos independientes, y que toma el valor cero en cero, entonces la función de covarianza de este proceso es igual a las variantes de X en el momento del tiempo mínimo entre t y s. Por tanto, la mayoría de las propiedades de este tipo no son diferenciables. Por supuesto, se puede construir un contraejemplo cuando se enuncian variaciones como una constante. En este caso, este proceso será diferenciable pero esto es como un caso degenerado. La situación más típica cuando las variantes dependen del mínimo entre t y s. Y por lo tanto, es una función de covarianza no diferenciable. No existe una derivada mixta de la función de covarianza y, por lo tanto, de acuerdo con esta proposición, las correspondencias con el proceso Xt no son diferenciables. Permítanme mostrar por qué se mantiene esta fórmula. Este es un ejercicio muy simple porque una función de covarianza es igual a la covarianza entre Xt y Xs y desafía la adición humana si t es mayor que s puede representar esta covarianza de la siguiente manera. Esta covarianza entre Xt menos Xs y Xs más covarianza entre Xs y Xs. Y como X0 es casi seguro que es igual a cero, podemos imaginar que aquí no tenemos X, sino X menos X0. Y por lo tanto, lo que tenemos aquí básicamente son dos incrementos o el proceso Xt con respecto a intervalos no inter aceptables. Y, por tanto, esta covarianza es igual a cero. Y en cuanto al segundo sumante, esta covarianza entre Xs y Xs, es igual por definición a las variantes de Xs. Y si ahora tiene en cuenta que hemos asumido que t es mayor que s, entonces puede concluir fácilmente que, en el caso general, tendrá aquí variantes de X como un momento mínimo entre t y s. Entonces, esta fórmula es realmente cierta y, por lo tanto, como dije, los procesos de este tipo generalmente no son diferenciables. Y esta es exactamente una de las diferencias esenciales entre los procesos estocásticos y las funciones de valor real. Debido a que la mayoría, déjeme decir, las funciones bien utilizadas o la mayoría de las buenas son diferenciables y es una teoría de los procesos estocásticos, la mayoría de los procesos, así como los procesos de etiquetas antiguas, en este punto parece haber una diferencia esencial entre las funciones valoradas reales y las funciones estocásticas. Procesos. Porque, como sabe, la mayoría de las funciones, funciones [inaudibles] son ​​diferenciables. Permítanme decir que la mayoría de las funciones buenas o más utilizadas son diferenciables. Y en los procesos estocásticos, la mayoría de los procesos, por ejemplo, casi todos los procesos de etiquetado no son diferenciables.


Análisis real interactivo

En nuestro entorno, estas funciones desempeñarán un papel bastante menor y solo repasaremos brevemente los temas principales de esa teoría. Como de costumbre, las demostraciones serán nuestro punto de enfoque, más que las técnicas de diferenciación como lo ha sido en Cálculo.

Primero, comenzaremos con la definición de derivada.

  • Encuentre la derivada de f (x) = x y de f (x) = 1 / x.
  • Encuentra la derivada de
  • Encuentra la derivada de
  • ¿Por qué nuestra definición original de diferenciabilidad no sería adecuada para funciones de, digamos, dos o tres variables reales?
  • Utilice la caracterización de la diferenciabilidad mediante la aproximación mediante funciones lineales para definir el concepto de 'derivada' para funciones de n variables reales.
Teorema 6.5.5: Diferenciable y Continuidad
Si F es diferenciable en un punto C, luego F es continuo en ese punto C. Lo contrario no es cierto.
  • La función f (x) = | x | es continuo en todas partes. ¿También es diferenciable en todas partes?
  • La función f (x) = x sin (1 / x) es continua en todas partes excepto en x = 0, donde tiene una discontinuidad removible. Si la función se amplía adecuadamente para que sea continua en x = 0, ¿es entonces diferenciable en x = 0?
  • La función f (x) = x 2 sen (1 / x) tiene una discontinuidad removible en x = 0. Si la función se extiende apropiadamente para ser continua en x = 0, ¿es entonces diferenciable en x = 0?
  • Regla de la suma: si f y g son diferenciables en x = c, entonces f (x) + g (x) es diferenciable en x = c, y
    • (f (x) + g (x)) = f '(x) + g' (x)
    • (f (x) g (x)) = f '(x) g (x) + f (x) g' (x)
    • (f (x) / g (x)) =
    • f (g (x)) = f '(g (x)) g' (x)
    Teorema 6.5.8: Teorema de Rolle
    Si F es continuo en [a, b] y diferenciable en (a, b), y f (a) = f (b) = 0, entonces existe un número X en (a, b) tal que f '(x) = 0.

    Si F y gramo son continuos [a, b] y diferenciable en (a, b) y g '(x) # 0 en (a, b) entonces existe un numero C en (a, b) tal que

    • ¿Se aplica el teorema de Rolle a definido en (-3, 3)? Si es así, encuentre el número garantizado por el teorema.
    • Demuestre que si f es derivable en R y | f '(x) | M para todo x, entonces | f (x) - f (y) | M | x - y | para todos los números x, y. Las funciones que satisfacen tal desigualdad se denominan funciones de Lipschitz.
    • Utilice el teorema del valor medio para demostrar que
    1. Si existe una vecindad U de c con f (c) f (x) para todo x en U, entonces f (c) se llama un máximo local para la función f que ocurre en x = c.
    2. Si existe una vecindad U de c con f (c) f (x) para todo x en U, entonces f (c) se llama mínimo local para la función f que ocurre en x = c.
    3. Si f (x) tiene un mínimo local o un máximo local en x = c, entonces f (c) se llama extremo local de la función f.
    • Si f es derivable en (a, b), yf tiene un extremo local en x = c, entonces f '(c) = 0.
    • Si f '(x) & gt 0 en (a, b) entonces f aumenta en (a, b).
    • Si f '(x) & lt 0 en (a, b) entonces f es decreciente en (a, b).
      Loc. Max
      intervalo(a, c)(c, b)
      signo de f '(x)+-
      dir. de f (x)arribaabajo
      Loc. Min
      intervalo(a, c)(c, b)
      signo de f '(x)-+
      dir. de f (x)abajoarriba
      No Extremum
      intervalo(a, c)(c, b)
      signo de f '(x)++
      dir. de f (x)arribaarriba
      No Extremum
      intervalo(a, c)(c, b)
      signo de f '(x)--
      dir. de f (x)abajoabajo
    1. Si f '(c) = 0 y f' (x) & gt 0 en (a, x) y f '(x) & lt 0 en (x, b), entonces f (c) es un máximo local.
    2. Si f '(c) = 0 y f' (x) & lt 0 en (a, x) y f '(x) & gt 0 en (x, b), entonces f (c) es un mínimo local.
    • Si f (x) = x 3 -2 x 2, entonces encuentre todos los extremos locales.
    • Si f (x) = | 1 - x 2 |, luego encuentre todos los extremos relativos.

    There are other situations where l'Hospital's rule may apply, but often expressions can be rewritten so that one of these two cases will apply.


    Teaching Calculus

    Jean Gaston Darboux
    1842 – 1917

    Jean Gaston Darboux was a French mathematician who lived from 1842 to 1917. Of his several important theorems the one we will consider says that the derivative of a function has the Intermediate Value Theorem property – that is, the derivative takes on all the values between the values of the derivative at the endpoints of the interval under consideration.

    Darboux’s Theorem is easy to understand and prove, but is not usually included in a first-year calculus course (and is not included on the AP exams). Its use is in the more detailed study of functions in a real analysis course.

    You may want to use this as enrichment topic in your calculus course, or a topic for a little deeper investigation. The ideas here are certainly within the range of what first-year calculus students should be able to follow. They relate closely to the Mean Value Theorem (MVT). I will suggest some ideas (in blue) to consider along the way.

    More precisely Darboux’s theorem says that

    Si F is differentiable on the closed interval [a, b] and r is any number between f ’ (a) and f ’ (B), then there exists a number C in the open interval (a, b) tal que F ‘ (C) = r.

    Differentiable on a closed interval?

    Most theorems in beginning calculus require only that the function be differentiable on an open interval. Here, obviously, we need a closed interval so that there will be values of the derivative for r to be between.

    The limit definition of derivative requires a regular two-sided limit to exist at the endpoint of an interval there is only one side. For most theorems this is enough. Here the definition of derivative must be extended to allow one-sided limits as X approaches the endpoint values from inside the interval. Also note that if a function is differentiable on (a, b), then it is differentiable on any closed sub-interval of (a, b) that does not include a o B.

    Geometric proof [1]

    Consider the diagram below, which shows a function in blue. At each endpoint draw a line with the slope of r. Notice that these two lines have a slope less than that of the function at the left end and greater than the slope at the right end. At least one of these lines must intersect the function at an interior point of the interval. Before reading on, see if you and your students can complete the proof from here. (Hint: What theorem does the top half of the figure remind you of?)

    On the interval between the intersection point and the end point we can apply the Mean Value Theorem and determine the value of C where the tangent line will be parallel to the line through the endpoint. At this point F ‘(c) = r. Q.E.D.

    Analytic Proof [2]

    Consider the function . Desde F(X) is differentiable, it is continuous is also continuous and differentiable. Por lo tanto, h(X) is continuous and differentiable on [a, B]. By the Extreme Value Theorem, there must be a point, X = C, in the open interval (a, B) where h(X) has an extreme value. At this point h’ (C) = 0.

    Before reading on see if you can complete the proof from here.

    Exercise: Compare and contrast the two proofs.

    1. In the geometric proof, what does represent? Where does it show up in the diagram?
    2. How do both proofs relate to the Mean Value Theorem (or Rolle’s Theorem).

    The function represents the vertical distance from F(X) to . In the diagram, this is a vertical segment connecting F(X) to .This expression may be positive, negative, or zero. In the diagram, at the point(s) where the line through the right endpoint intersects the curve and at the endpoint h(X) = 0. Therefore, h(X) meets the hypotheses of Rolle’s Theorem (and the MVT), and the result follows.

    The line through the right endpoint will have equation the This makes . When differentiated and the result will be the same expression as in the analytic proof.

    Also, you may move this line upwards parallel to its original position and eventually it will be tangent to the graph of the function. (See my posts on MVT 1 and especially MVT 2).

    1. On the interval [1,3] what values of the derivative of F are guaranteed by Darboux’s Theorem? .
    2. Does Darboux’s theorem guarantee any value on the interval ? ¿Por qué o por qué no?
    1. F ‘(X) = cos(X). F ‘ (1) = 0.54030 and F ‘ (3) = -0.98999. So the guaranteed values are from -0.98999 to 0.54030.
    2. No. F ‘ (x) = 1 at both endpoints, so there are no values between one and one.

    Another interesting aspect of Darboux’s Theorem is that there is no requirement that the derivative F ‘(X) be continuous!

    The common example of such a function is

    This function (which has appeared on the AP exams) is differentiable (and therefore continuous).There is an oscillating discontinuity at the origin. The derivative is not continuous at the origin. Yet, every interval containing the origin as an interior point meets the conditions of Darboux’s Theorem, so the derivative while not continuous has the intermediate value property.

    AP exam question 1999 AB3/BC3 part c:

    Finally, what inspired this post was a recent discussion on the AP Calculus Community bulletin board about the AP exam question 1999 AB3/BC3 part c. This question gave a table of values for the rate, R, at which water was flowing out of a pipe as a differentiable function of time t. The question asked if there was a time when R’ (t) = 0. It was expected that students would use Rolle’s Theorem or the MVT. There was a discussion about using Darboux’s theorem, or saying something like the derivative increased (or was positive), then decreased (was negative) so somewhere the derivative must be zero (implying that derivative had the intermediate value property). Luckily, no one tried this approach so it was a moot point.

    Take a look at the problem with your students and see if you can use Darboux’s theorem. Be sure the hypotheses are met.

    Answer (try it yourself before reading on):

    The function is not differentiable at the endpoints. But consider an interval like [0,3]. Using the given values in the table, by the MVT there is a time t = c dónde R‘(C) = 0.8/3 > 0, and there is a time t = d on the interval [21, 24] where R‘(D) = -0.6/3 < 0. The function is differentiable on the closed interval [c, d] so by Darboux’s Theorem there must exist a time when R’(t) = 0. Admittedly, this is a bit of overkill.


    Problem 6: Table of Derivatives

    Two functions, F(X) and g (x), are continuous and differentiable for all real numbers. Some values of the functions and their derivatives are given in the following table.

    Based on that glorious table, calculate the following:

    Solución:

    (a) Take the derivative of each function separately (the derivative of a sum is equal to sum of its derivatives) and plug in 4 to each to get your answer. Reference the chart for the values of f ‘(4) andg(4).

    (b) This time you have to use the Product Rule, because F(X) and g(X) are multiplied. Once again, after you apply the derivative rule, just nab the needed function and derivative values from the chart.

    (c) This time it’s the Quotient Rule that has to be applied.

    (d) How about a big, warm welcome for the Chain Rule! Remember, you apply the Chain Rule when one function is composed with (inside of) another. To differentiate, take the derivative of the outer functionF(X) while leaving g(X) alone inside F(X). Then multiply by the derivative of g(X).


    6 . 5 Using lookup-tables

    The result of an [language=Python]interpolant call is a CasADi Function object that is differentiable, and can be embedded into CasADi computational graphs by calling with MX arguments. Furthermore, C code generation is fully supported for such graphs.

    Currently, two plugins exist for [language=Python]interpolant: 'linear' and 'bspline' . They are intended to behave simiarly to MATLAB/Octave's interpn with the method set to 'linear' or 'spline' - corresponding to a multilinear interpolation and a (by default cubic) spline interpolation with not-a-knot boundary conditions.

    In the case of bspline , coefficients will be sought at construction time that fit the provided data. Alternatively, you may also use the more low-level Function.bspline to supply the coefficients yourself. The default degree of the bspline is 3 in each dimension. You may deviate from this default by passing a degree option.

    We will walk through the syntax of interpolant for the 1D and 2D versions, but the syntax in fact generalizes to an arbitrary number of dimensions.

    In MATLAB/Octave, the corresponding code reads:

    Note in particular that the [language=Python]grid and [language=Python]values arguments to interpolant must be numerical in nature.

    or, in MATLAB/Octave compared to the built-in functions:

    In particular note how the values argument had to be flatten to a one-dimensional array.


    Mathematical methods for economic theory

    Consider, for example, a firm that can produce output with a single input using the production function F. The standard theory is that the firm chooses the amount X of the input to maximize its profit pagF(X) − wX, dónde pag is the price of output and w is the price of the input. Denote by X*(w, pag) the optimal amount of the input when the prices are w y pag. An economically interesting question is: how does the firm's maximal lucro pagF(X*(w, pag)) − wX*(w, pag) depend upon pag?

    We have already answered this question in an earlier example. To do so, we used the chain rule to differentiate pagF(X*(w, pag)) − wX*(w, pag) with respect to pag, yielding

    That is, the fact that the value of the variable satisfies the first-order condition allows us to dramatically simplify the expression for the derivative of the firm's maximal profit. On this page I describe results that generalize this observation to an arbitrary maximization problem.

    Unconstrained problems

    = (X*(r)) r1r2X*(r)
    = (r1/r2) r1/(1 − r1) − r2(r1/r2) 1/(1 − r1) .

    Given the first-order conditions, this expression simplifies to

    The next two examples illustrate how the result simplifies the calculation of the derivatives of the value function.

    Also by the envelope theorem the derivative of the firm's maximal profit with respect to w es

    A consequence of Hotelling's Lemma is that we can easily find the firm's input demand function X* if we know the firm's profit function, even if we do not know the firm's production function: we have X*(pag, w) = −π*w'(pag, w) for all (pag, w), so we may obtain the input demand function by simply differentiating the profit function.

    If you approach this problem directly, by calculating the value function explicitly and then differentiating it, rather than using the envelope theorem, you are faced with the task of differentiating

    Here is an example in which F has a unique maximizer, but this maximizer is not a differentiable function of r.

    Constrained problems

    We want to calculate the derivatives F*h'(r) por h = 1, . k of the function F*. Si X* is differentiable, then using the chain rule we have


    Related rules

    Similar rules in single variable calculus

    • Differentiation is linear: The derivative of the sum is the sum of the derivatives, and scalars can be pulled out of differentiation.
    • Chain rule for differentiation
    • Product rule for higher derivatives
    • Chain rule for higher derivatives
    • Logarithmic differentiation is a version of the product rule for differentiation that is useful for differentiating lengthy products.
    • Product rule for differentiation of formal power series

    Similar rules in multivariable calculus


    Ejemplos de

    Sanity checks

    We first consider examples where the chain rule for differentiation confirms something we already knew by other means:

    Case on Case on Direct justification, without using the chain rule Justification using the chain rule, i.e., by computing
    a constant function any differentiable function función cero is a constant function, so its derivative is the zero function. By the chain rule, . being constant forces to be zero everywhere, hence the product is also zero everywhere. Por lo tanto, is also zero everywhere.
    any differentiable function a constant function with value función cero is a constant function with value , so its derivative is the zero function. By the chain rule, . being constant forces that everywhere, hence the product is also zero everywhere. Por lo tanto, is also zero everywhere.
    the identity function, i.e., the function any differentiable function , so . . Desde es la funcion , its derivative is the function . Plugging this in, we get that is also the constant function , so .
    any differentiable function the identity function , so . . Desde is the identity function, es la funcion . También, . Por lo tanto, .
    the square function any differentiable function and hence its derivative can be computed using the product rule for differentiation. It comes out as . . is the derivative of the square function, and therefore is . Por lo tanto, . We thus get .
    a one-one differentiable function the inverse function of 1 for all , so the derivative is the function 1. . By the inverse function theorem, we know that , so plugging in, we get .

    Nontrivial examples

    The chain rule is necessary for computing the derivatives of functions whose definition requires one to compose functions. The chain rule still isn't the only option: one can always compute the derivative as a limit of a difference quotient. But it does offer the only option if one restricts oneself to operating within the family of differentiation rules.

    Some examples of functions for which the chain rule needs to be used include:

    • A trigonometric function applied to a nonlinear algebraic function
    • An exponential function applied to a nonlinear algebraic function
    • A composite of two trigonometric functions, two exponential functions, or an exponential and a trigonometric function

    Sine of square function

    .

    We use the chain rule for differentiation viewing the function as the composite of the square function on the inside and the sine function on the outside:


    Ver el vídeo: AlgSupI: relaciones y funciones (Septiembre 2021).