Im Fall der totalen Differenzierbarkeit werden Abbildungen einer offenen Teilmenge des \mathbb{R}^n in den \mathbb{R}^m betrachtet. Wie man die totale Differenzierbarkeit besser aufzeigen kann, erklären wir dir am Ende mit zwei Beispielen.

Totale Differenzierbarkeit – total schwierig? Überhaupt nicht! in unserem Video verstehst du das Thema in unter 4 Minuten!

Inhaltsübersicht

Motivation und Vorüberlegungen zur totalen Differenzierbarkeit

Eine reellwertige Funktion einer Variablen f:\ \mathbb{R}\rightarrow\mathbb{R} ist an der Stelle x_0 bekanntlich genau dann differenzierbar, falls der Grenzwert

f^\prime\left(x_0\right)=\lim\limits_{x\rightarrow x_0}{\frac{f\left(x\right)-f\left(x_0\right)}{x-x_0}}=\lim\limits_{h\rightarrow0}{\frac{f\left(x_0+h\right)-f\left(x_0\right)}{h}}

existiert. Der Grenzwert wird als Differentialquotient bzw. Ableitung von f an der Stelle x_0 bezeichnet. Dieser Differenzierbarkeitsbegriff lässt sich allerdings nicht gut auf mehrdimensionale Funktionen f:\ \mathbb{R}^n\rightarrow\mathbb{R}^m übertragen. Daher wird hierfür eine andere mögliche Definition der Differenzierbarkeit für reellwertige Funktionen einer Variablen betrachtet.

Merke
Ist f in x_0 differenzierbar, so lässt sich die Funktion durch eine affin lineare Funktion g nähern. Man spricht dabei von Linearisierung  bzw. Linearer Approximation.

Die affin lineare Näherungsfunktion g beschreibt dabei die Tangente an den Funktionsgraphen von f an der Stelle x_0. Diese Tangente besitzt bekanntlich gerade die Steigung f^\prime\left(x_0\right). Die Näherungsfunktion g lauter demnach:

g\left(x\right)=f\left(x_0\right)+f^\prime\left(x_0\right)\cdot \left(x-x_0\right)

Für die Restfunktion r\left(x\right)=f\left(x\right)-g\left(x\right), welche die Differenz zwischen f\left(x\right) und g\left(x\right) beschreibt, gilt dann:

\lim\limits_{x\rightarrow x_0}\frac{r\left(x\right)}{x-x_0}=\lim\limits_{x\rightarrow x_0}\frac{f\left(x\right)-g\left(x\right)}{x-x_0}=\lim\limits_{x\rightarrow x_0}\frac{f\left(x\right)-f\left(x_0\right)-f^\prime\left(x_0\right)\cdot \left(x-x_0\right)}{x-x_0}

= \underbrace{\lim\limits_{x\rightarrow x_0}\frac{f\left(x\right)-f\left(x_0\right)}{x-x_0}}}\limits_{=\ f^\prime\left(x_0\right)}-f^\prime\left(x_0\right) =0

Die Idee der linearen Approximierbarkeit differenzierbarer Funktionen wird nun auf mehrdimensionale Funktionen übertragen.

Definition: Totale Differenzierbarkeit 

Sei U \subset \mathbb{R}^n offen und f:\ U\rightarrow\mathbb{R}^m eine Funktion. f heißt an der Stelle x_0 \in U total differenzierbar, falls eine lineare Abbildung A:\mathbb{R}^n\longrightarrow\mathbb{R}^m existiert, sodass in einer Umgebung von x_0 gilt:

  1. f\left(x\right)=f\left(x_0\right)+A\left(x-x_0\right)+r(x-x_0)
  2. \lim\limits_{x\rightarrow x_0}\frac{r\left(x\right)}{\left|x-x_0\right|}=\lim\limits_{x\rightarrow x_0}\frac{f\left(x\right)-f\left(x_0\right)-A\left(x-x_0\right)}{\left|x-x_0\right|}=0

Dabei muss die Funktion r in einer Umgebung von 0 \in \mathbb{R}^n definiert sein.

Totale Ableitung

Die lineare Abbildung A kann durch eine m \times n – Matrix beschrieben werden, welche als totale Ableitung, totales DifferentialFunktionalmatrix oder Jacobi-Matrix bezeichnet wird:

A\left(x-x_0\right)=\left(\begin{matrix}a_{11}&\cdots&a_{1n}\\\vdots&\ddots&\vdots\\a_{m1}&\cdots&a_{mn}\\\end{matrix}\right) \left(\begin{array}{c} {x_1 - x_{0_1}} \\ \vdots \\ x_n-x_{0_n} \end{array} \right)

Wird x durch x_0 + h ersetzt, so wird der Grenzübergang x \rightarrow x_0 zu h \rightarrow 0 und eine äquivalente Formulierung der beiden obigen Bedingungen lautet:

  1. f\left(x_0+h\right)=f\left(x_0\right)+A\left(h\right)+r(h)
  2. \lim\limits_{h\rightarrow0\ }\frac{r\left(h\right)}{\left|h\right|}=\lim\limits_{h\rightarrow0\ }\frac{f\left(x_0+h\right)-f\left(x_0\right)-A\left(h\right)}{\left|h\right|}=0

Eine Funktion f ist im Allgemeinen also dann in x_0 total differenzierbar, wenn sie sich gut durch eine affin lineare Funktion g\left(x\right) approximieren lässt.

  1. f: \mathbb{R} \rightarrow \mathbb{R}
  2. \ f^\prime\left(x_0\right) \longrightarrow Konstante („Ableitung“)
  3. f^\prime\left(x_0\right)\cdot \left(x-x_0\right) \longrightarrow Lineare Abbildung
  4. g\left(x\right)=f\left(x_0\right)+f^\prime\left(x_0\right)\cdot\left(x-x_0\right) \longrightarrow Lineare Approximation
  5. r\left(x\right)=f\left(x\right)-g\left(x\right) \longrightarrow Restfunktion f ist differenzierbar in x_0, wenn gilt:

\lim\limits_{x\rightarrow x_0}\frac{r\left(x\right)}{x-x_0}=0

  1. f: \mathbb{R}^n \rightarrow \mathbb{R}^m
  2. A \longrightarrow n \times m-Matrix (Totale Ableitung)
  3. A\cdot\left(x-x_0\right) \longrightarrow Lineare Abbildung
  4. g\left(x\right)=f\left(x_0\right)+A\cdot\left(x-x_0\right) \longrightarrow Lineare Approximation
  5. r\left(x\right)=f\left(x\right)-g\left(x\right) \longrightarrow Restfunktion f ist total differenzierbar in x_0, wenn gilt:

\lim\limits_{x\rightarrow x_0}\frac{r\left(x\right)}{\left|x-x_0\right|}=0

Totale Differenzierbarkeit, Mehrdimensionale Differenzierbarkeit, Totale Ableitung, Lineare Näherungsfunktion, Restfunktion
direkt ins Video springen
Totale Differenzierbarkeit

Totale Differenzierbarkeit und Stetigkeit 

Ist eine Funktion f in x_0 total differenzierbar, so ist sie dort auch stetig. Dies lässt sich ganz einfach zeigen: Da f nämlich in x_0 total differenzierbar ist, gilt:

f\left(x\right)=f\left(x_0\right)+A\left(x-x_0\right)+r(x-x_0).

Außerdem gilt:

\lim\limits_{x\rightarrow x_0}A\left(x-x_0\right)=0 und \lim\limits_{x\rightarrow x_0}r(x-x_0)=0.

Somit ergibt sich:

\lim \limits_{x\rightarrow x_0}f\left(x\right)=\ f\left(x_0\right),

was bedeutet, dass f in x_0 stetig ist.

Totale Differenzierbarkeit und partielle Differenzierbarkeit 

Jacobi-Matrix berechnen

Sei die Funktion \ f:\mathbb{R}^n\supset\ U\rightarrow\mathbb{R}^m in x_0 total differenzierbar und es gelte f\left(x_0+h\right)=f\left(x_0\right)+A\cdot\ h+r(h) mit der Matrix A=\left(a_{ij}\right) und dem Vektor h = \left(\begin{array}{c} h_1 \\ \vdots \\ h_n \end{array} \right), dann sind alle Komponenten f_i: U \rightarrow \mathbb{R} (mit 1\le\ i\le\ m) der Funktion f in x_0 partiell differenzierbar und es gilt:

\frac{\partial f_i}{\partial x_j}=a_{ij}.

Um dies zu zeigen, wird zunächst die i-te Komponente von f\left(x_0+h\right) betrachtet:

f_i\left(x_0+h\right)=f_i\left(x_0\right)+\sum_{k=1}^{n}{a_{ij}\cdot}h_k+r_j\left(h\right)

Damit gilt mit dem j-ten Einheitsvektor e_j und der j-ten Komponente h_j des Vektors h:

f_i{(x}_0+h_je_j)=f_i\left(x_0\right)+a_{ij}\cdot\ h_j+r_j\left(h_je_j\right)

Und es gilt:

\frac{\partial f_i}{\partial x_j}(x_0)=\lim\limits_{h_j\rightarrow0}\frac{f_i{(x}_0+h_je_j)-f_i\left(x_0\right)}{h_j}=a_{ij}+\lim\limits_{h_j\rightarrow0}\frac{r_j\left(h_je_j\right)}{h_j}=a_{ij}

Die Einträge der Jacobi-Matrix sind also die partiellen Ableitungen der einzelnen Komponenten von f.

Totale Differenzierbarkeit reellwertiger Funktionen

Für reellwertige Funktionen lässt sich außerdemn folgendes zeigen: Sei f:\mathbb{R}^n\supset\ U\rightarrow \mathbb{R} auf der offenen Menge U partiell differenzierbar und alle partiellen Ableitungen seien x_0\in\ U stetig. Dann ist f in x_0 total differenzierbar.

Schaubild der Implikationen

Zusammenfassend gelten die folgenden Implikationen:

Stetig partiell differenzierbar (für reellwertige Funktionen)

\Downarrow

Total differenzierbar \rightarrow stetig

\Downarrow

Partiell differenzierbar

Die Umkehrungen dieser Aussagen gelten im Allgemeinen allerdings nicht.

Totale Differenzierbarkeit zeigen Beispiele

Um die totale Differenzierbarkeit einer Funktion f an der Stelle x_0 zu zeigen, ist folgendes Vorgehen ratsam. Zunächst einmal sind die Stetigkeit und die partielle Differenzierbarkeit der Funktion in x_0 zu überprüfen. Denn wie gezeigt, sind diese notwendige Voraussetzungen für die totale Differenzierbarkeit. Anschließend kann mithilfe der partiellen Ableitungen die Funktionalmatrix A bestimmt werden und mit ihrer Hilfe überprüft werden, ob folgende Bedingung gilt:

\lim\limits_{x\rightarrow x_0}\frac{f\left(x\right)-f\left(x_0\right)-A\cdot\left(x-x_0\right)}{\left|x-x_0\right|}=0

Eine alternative Formulierung dieser Bedingung lautet:

\lim \limits_{h\rightarrow0\ }\frac{f\left(x_0+h\right)-f\left(x_0\right)-A\cdot h}{\left|h\right|}=0

Ist diese Bedingung erfüllt, so ist f an der Stelle x_0 tatsächlich total differenzierbar.

Beispiel 1: Totale Differenzierbarkeit zeigen

Wie die totale Differenzierbarkeit gezeigt werden kann, soll für folgende Funktion illustriert werden:

f:\ \mathbb{R}^2\rightarrow\mathbb{R}

f\left(x,y\right)=4x^2+5y^4

Da es sich um eine reellwertige Funktion handelt, kann überprüft werden, ob die partiellen Ableitungen alle stetig sind. Diese lauten:

\frac{\partial f\left(x,y\right)}{\partial x}=8x

\frac{\partial f\left(x,y\right)}{\partial y}=20y^3

Da beide Funktionen für alle \left(x,y\right)\in\mathbb{R}^2 stetig sind, ist die Funktion f überall total differenzierbar. Dies lässt sich auch mithilfe der Bedingung

\lim \limits_{h\rightarrow0\ }\frac{f\left(x_0+h\right)-f\left(x_0\right)-A\cdot h}{\left|h\right|}=0

zeigen, wobei A=(\frac{\partial f\left(x,y\right)}{\partial x},\ \frac{\partial f\left(x,y\right)}{\partial y})=(\ 8x,\ 20y^3) gilt.

Beispiel 2: Totale Differenzierbarkeit zeigen

Im folgenden Beispiel soll die totale Differenzierbarkeit im Nullpunkt \left(x,y\right)=\left(0,\ 0\right) betrachtet werden:

f:\ \mathbb{R}^2\rightarrow\mathbb{R}

f \left(x,y \right) = \begin{cases} \frac{x^3y^3}{x^2+y^2}, (x,y) \neq (0,0) \\ 0, (x,y) = (0,0) \endcases

Es gilt:

\frac{\partial f}{\partial x}\left(0,0\right)=\lim \limits_{h\rightarrow0\ }\frac{f\left(h,0\right)-f\left(0,\ 0\right)}{h}=\lim \limits_{h\rightarrow0\ }\frac{0}{h}=0

\frac{\partial f}{\partial y}\left(0,0\right)=\lim\limits_{h\rightarrow0\ }\frac{f\left(0,\ h\right)-f\left(0,\ 0\right)}{h}=\lim \limits_{h\rightarrow0\ }\frac{0}{h}=0

Das bedeutet, dass die Funktion im Nullpunkt partiell differenzierbar ist. Weiterhin gilt:

\lim \limits_{\left(h_1,\ h_2\right) \rightarrow\left(0, 0\right)} \frac{f\left(h_1,\ h_2\right)-f\left(0,\ 0\right)-\left(\frac{\partial f}{\partial x}\left(0,0\right),\frac{\partial f}{\partial y}\left(0,0\right)\right) \cdot \left(\begin{array}{c} h_1 \\ h_2 \end{array} \right)}{{(h_1^2+h_2^2)}^\frac{1}{2}}

=\lim \limits_{\left(h_1,\ h_2\right)\rightarrow\left(0,\ 0\right)\ }\frac{x^3y^3}{{{(x^2+y^2)\cdot (h}_1^2+h_2^2)}^\frac{1}{2}}=\lim \limits_{\left(h_1,\ h_2\right)\rightarrow\left(0,\ 0\right)\ }\frac{x^3y^3}{{{(h}_1^2+h_2^2)}^\frac{3}{2}} \\ =\lim \limits_{\left(h_1,\ h_2\right)\rightarrow\left(0,\ 0\right)\ }\frac{1}{{(\frac{1}{h_1^2}+\frac{1}{h_2^2})}^\frac{3}{2}}=0

Somit ist die Funktion im Nullpunkt \left(x,y\right)=\left(0,\ 0\right) total differenzierbar.

Hallo, leider nutzt du einen AdBlocker.

Auf Studyflix bieten wir dir kostenlos hochwertige Bildung an. Dies können wir nur durch die Unterstützung unserer Werbepartner tun.

Schalte bitte deinen Adblocker für Studyflix aus oder füge uns zu deinen Ausnahmen hinzu. Das tut dir nicht weh und hilft uns weiter.

Danke!
Dein Studyflix-Team

Wenn du nicht weißt, wie du deinen Adblocker deaktivierst oder Studyflix zu den Ausnahmen hinzufügst, findest du hier eine kurze Anleitung. Bitte .