Nullstellen der Ableitung < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 16:34 Di 22.11.2011 | Autor: | pirad |
Aufgabe | Beweisen Sie, dass die Eigenwerte der Matrix M die Nullstellen der Ableitung des Polynoms [mm] f=(x-x_1)(x-x_2)\ldots(x-x_n) [/mm] sind.
[mm] M=diag(x_2,\ldots,x_n)-ev^T/n [/mm] mit [mm] e=(1,1,\ldots,1), v=(x_2-x_1,x_3-x_1,\ldots,x_n-x_1) [/mm] |
In dem Paper wird in Kapitel 3 behauptet, dass diese Aussage gilt. Mir ist aber nicht klar warum.
Die Matrix M muss ähnlich sein zu der Begleitmatrix der Ableitung, mit dem Satz von Vieta (allgemeine Form) kann man auch die Koeffizienten in Abhängigkeit der Nullstellen von f schreiben. Dann komme ich nicht weiter, bzw. es wird sehr unschön und ich hoffe es gibt einen schöneren Weg als das dann umzuformen. Ich kann leider auch mit google keinen Beweis finden.
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:21 Do 24.11.2011 | Autor: | pirad |
Ich habe mir den verlinkten Artikel noch mal angeschaut. Da wird aus der Gleichung für Eigenwerte die Formel [mm] x_i=\bruch{d}{z_i-\xi} [/mm] hergeleitet. Dann wird behauptet mit der Gleichung, wie d definiert ist kommt man auf die Gleichung [mm] 0=\frac{1}{\xi-z_1}+\ldots+\frac{1}{\xi-z_n}. [/mm] Den Schritt jedoch kann ich nicht nachvollziehen. Ich komme auf
[mm] d=d\sum_{i=1}^{n-1}\frac{z_{i+1}-z_1}{n(z_{i+1}-\xi)}
[/mm]
und
[mm] 0=\sum_{i=1}^{n-1}\frac{(n-1)z_{n+1}-n\xi-z_1}{n(z_{i+1}-\xi}
[/mm]
und ab da nicht weiter.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:25 So 25.12.2011 | Autor: | felixf |
Moin!
> Beweisen Sie, dass die Eigenwerte der Matrix M die
> Nullstellen der Ableitung des Polynoms
> [mm]f=(x-x_1)(x-x_2)\ldots(x-x_n)[/mm] sind.
> [mm]M=diag(x_2,\ldots,x_n)-ev^T/n[/mm] mit [mm]e=(1,1,\ldots,1), v=(x_2-x_1,x_3-x_1,\ldots,x_n-x_1)[/mm]
In dem Fall ist [mm] $f'(\lambda) [/mm] = [mm] \sum_{i=1}^n \prod_{j \neq i} (\lambda [/mm] - [mm] x_j)$; [/mm] der Leitterm davon ist $n [mm] \lambda^{n-1}$, [/mm] womit man es mit [mm] $\frac{1}{n}$ [/mm] multiplizieren muss um ein normiertes Polynom zu erhalten.
Laut dieser Seite (die gerade nicht bei mir geht, aber gluecklicherweise hatte ich mir das mal aufgeschrieben; ansonsten findet sich das noch im google-Cache) gilt [mm] $\det(D [/mm] + u [mm] v^T) [/mm] = [mm] \det [/mm] D + [mm] v^T D^\# [/mm] u$ fuer alle $D [mm] \in K^{n \times n}$, [/mm] $u, v [mm] \in K^n$, [/mm] wobei $K$ ein beliebiger Koerper ist und [mm] $D^\#$ [/mm] die komplementaere Matrix zu $D$ ist.
Damit ist [mm] $\det(\lambda E_n [/mm] - M) = [mm] (-1)^{n-1} \det(D [/mm] - e/n [mm] \cdot v^T)$ [/mm] mit $D = [mm] diag(x_1 [/mm] - [mm] \lambda, \dots, x_{n-1} [/mm] - [mm] \lambda)$, [/mm] $e/n = (1/n, [mm] \dots, [/mm] 1/n)$ und $v = [mm] (x_1-x_0, \dots, x_{n-1}-x_0)$. [/mm] (Ich hab die Indices mal verschoben.) Damit ist hier [mm] $D^\#$ [/mm] die Diagonalmatrix, deren $i$-ter Eintrag gleich [mm] $\prod_{j=1 \atop j \neq i}^{n-1} (x_j [/mm] - [mm] \lambda)$ [/mm] ist, $1 [mm] \le [/mm] i [mm] \le [/mm] n-1$. Und damit die Aussage stimmt, muss $n [mm] \det(\lambda E_n [/mm] - M) = [mm] f'(\lambda)$ [/mm] sein. (Wobei [mm] $f'(\lambda) [/mm] = [mm] \sum_{i=0}^{n-1} \prod_{j=0 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j)$ [/mm] ist, mit der passenden Verschiebung der Indices.)
Folglich ist mit der Formel $n [mm] \det(\lambda E_n [/mm] - M) = n [mm] (-1)^{n-1} (\det [/mm] M - [mm] v^T D^\# [/mm] (e/n)) = n [mm] \prod_{i=1}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} (x_i [/mm] - [mm] x_0) \cdot \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] = [mm] \prod_{i=1}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} \biggl( (x_i [/mm] - [mm] x_0) \cdot \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] + [mm] (\lambda [/mm] - [mm] x_i) \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) \biggr) [/mm] = [mm] \prod_{i=1}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} (x_i [/mm] - [mm] x_0 [/mm] + [mm] \lambda [/mm] - [mm] x_i) \cdot \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] = [mm] \prod_{i=0 \atop i \neq 0}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} (\lambda [/mm] - [mm] x_0) \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] = [mm] \prod_{i=0 \atop i \neq 0}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} \prod_{j=0 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] = [mm] f'(\lambda)$.
[/mm]
Damit hast du jetzt einen schoenen formalen Beweis der Aussage, der nicht mehr so wischi-waschi ist wie der aus dem Preprint...
LG Felix
|
|
|
|