Invertierbare Matrix < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 16:11 Di 24.05.2005 | Autor: | NECO |
Hallo, schon wieder habe ich Beweis Probleme,
Es seien Vektoren [mm] v_{1},......... v_{k} \in \IR^{n} [/mm] gegeben. Wir setzen [mm] a_{ij}=(V_{i}.V_{j}):
[/mm]
Zeigen Sie Dass die Matrix [mm] A=(a_{ij}) \inM(k \times [/mm] k) genau dann invertierbar ist, wenn die Vektoren [mm] v_{1},......... v_{k} [/mm] linearunabhängig sind.
Also das ist mir schon Klar, Dass die Vektoren Linearunabhängig sein sollen, Weil sonst auch die Determinante auch Null ist. Und Determinante muss ungleich Null sein,.
Wie kann ich dass den beweisen? DANKE
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:41 Di 24.05.2005 | Autor: | Nam |
Ich versuchs mal mit Kontradiktion:
[mm](v_1, \ldots, v_k) \; \mbox{ linear abhängig}[/mm]
[mm]\Leftrightarrow \exists \; n \in \{1, \ldots, k\} \; \mbox{ mit } \; v_n = \sum_{i=1, i\not=n}^{k}{a_i v_i}[/mm] (mit Koeffizienten [mm]a_i[/mm])
[mm]\Leftrightarrow v_1 = \sum_{i=2}^{k}{a_i v_i}[/mm] (wir können oBdA [mm]v_1[/mm] nehmen, das Argument ist für jeden Vektor das selbe)
[mm]\Leftrightarrow \det(A) = \det(v_1, v_2, \ldots, v_k) = \det\left(\sum_{i=2}^{k}{a_i v_i}, v_2, \ldots, v_k\right) =[/mm]*[mm]\sum_{i=2}^{k}{a_i \det(v_i, v_2, \ldots, v_k)} =[/mm]**[mm] \sum_{i=2}^{k}{a_i * 0} = 0[/mm]
[mm]\Leftrightarrow \; \mbox{A nicht invertierbar}[/mm]
* = det ist linear in jeder Spalte (1. Eigenschaft der det-Funktion)
** = sind zwei Spalten gleich, so verschwindet die Determinante (2. Eigenschaft der det-Funktion)
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 00:11 So 29.05.2005 | Autor: | NECO |
Hallo zusammen, kann man meine Aufgabe nicht ohne die Determinante einzumischen lösen?
Danke.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 00:43 So 29.05.2005 | Autor: | Marc |
Hallo NECO
> Es seien Vektoren [mm]v_{1},......... v_{k} \in \IR^{n}[/mm]
> gegeben. Wir setzen [mm]a_{ij}=(V_{i}.V_{j}):[/mm]
Wie ist das denn eigentlich gemeint? Die Grossschreibweise der Vs ist wohl ein Irrtum, aber was soll der Punkt? Ist das das Skalarprodukt?
Etwa so:
[mm] $a_{ij}=\langle v_i, v_j \rangle$ [/mm] bzw. [mm] $a_{ij}=v_i \* v_j$
[/mm]
D.h., in der Matrix A stehen alle Skalarprodukte der gegebenen Vektoren?
Ich habe die weitere Aufgabe dann zwar noch nicht weiter durchdacht, aber (siehe deine aktuelle Nachfrage) die Invertierbarkeit von Matrizen läßt sich doch recht bequem mit der Determinate zeigen.
Viele Grüße,
Marc
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 01:27 So 29.05.2005 | Autor: | NECO |
> Hallo NECO
>
> > Es seien Vektoren [mm]v_{1},......... v_{k} \in \IR^{n}[/mm]
> > gegeben. Wir setzen [mm]a_{ij}=(V_{i}.V_{j}):[/mm]
>
> Wie ist das denn eigentlich gemeint? Die Grossschreibweise
> der Vs ist wohl ein Irrtum, aber was soll der Punkt? Ist
> das das Skalarprodukt?
Das weiß ich auch nicht, so steht das in der Aufgabe, Aber das ist ja egal oder?
Das sind kleine v, ich habe da Tipfehler.
> Etwa so:
>
> [mm]a_{ij}=\langle v_i, v_j \rangle[/mm] bzw. [mm]a_{ij}=v_i \* v_j[/mm]
>
> D.h., in der Matrix A stehen alle Skalarprodukte der
> gegebenen Vektoren?
>
> Ich habe die weitere Aufgabe dann zwar noch nicht weiter
> durchdacht, aber (siehe deine aktuelle Nachfrage) die
> Invertierbarkeit von Matrizen läßt sich doch recht bequem
> mit der Determinate zeigen.
>
> Viele Grüße,
> Marc
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 10:22 So 29.05.2005 | Autor: | Marc |
Hallo NECO,
> > > Es seien Vektoren [mm]v_{1},......... v_{k} \in \IR^{n}[/mm]
> > > gegeben. Wir setzen [mm]a_{ij}=(V_{i}.V_{j}):[/mm]
> >
> > Wie ist das denn eigentlich gemeint? Die Grossschreibweise
> > der Vs ist wohl ein Irrtum, aber was soll der Punkt? Ist
> > das das Skalarprodukt?
>
> Das weiß ich auch nicht, so steht das in der Aufgabe, Aber
> das ist ja egal oder?
Das ist natürlich schon wichtig, wie die Matrix überhaupt gebaut wird; z.B. hat Nam deine Schreibweise auch missverstanden.
Als weiteren Tipp gebe ich dir erstmal nur ein Stichwort, wenn ich deine älteren Artikel überfliege, müßtest du eigentlich etwas damit anfangen können:
Orthonormalbasis
Viel Erfolg,
Marc
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:27 So 29.05.2005 | Autor: | NECO |
Ok. Marc. das heißt ja dann, was Nam geschrieben hat ist falsch. Wenn es um Skalarprodukt geht?. ne?
Ich dachte aber es ist egal, weil Das Skalarprodukt ein Sklar ist. Mann kann Die [mm] a_{ij} [/mm] als Zahlen sehen.
Mir fehlt jetz nicht ein. Ich muss es aber morgen abgeben?
kannst du mir helfen bitte, ich lerne gerade die euluersche Funktion, usw. Es wäre nett Wenn du mir eine lösung anbietest.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:52 So 29.05.2005 | Autor: | Stefan |
Hallo NECO!
Stimmt, die Aufgabe wurde zunächst falsch interpretiert, so dass die angebotene Lösung nicht richtig ist.
Du findest aber hier wertvolle Tipps und (schön verteilt ) auch die komplette Lösung.
Viele Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:27 So 29.05.2005 | Autor: | NECO |
Hallo Stefan, Danke erstmal für alles, Ich glaube das hier ist die Lösung:
Wenn die Spalten der Matrix linear abhängig sind, dann gibt es Skalare [mm] $\lambda_1,\ldots,\lambda_k$, [/mm] die nicht alle verschwinden, und für die
[mm] $\lambda_1 \langle v_1,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_1,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_1,v_k\rangle=0$ [/mm]
[mm] $\lambda_1 \langle v_2,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_2,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_2,v_k\rangle=0$ [/mm]
[mm] $\vdots$ [/mm]
[mm] $\lambda_1 \langle v_k,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_k,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_k,v_k\rangle=0$. [/mm]
Wegen der Bilinearität des Skalarprodukts kann man diese Gleichungen kompakt wie folgt schreiben:
(*) [mm] $\langle v_i [/mm] , [mm] \sum\limits_{j=1}^j \lambda_jv_j \rangle [/mm] =0$
für alle [mm] $i=1,\ldots.k$. [/mm]
Setze nun:
$w:= [mm] \sum\limits_{j=1}^k \lambda_jv_j$. [/mm]
Unter der Annahme der linearen Unabhängigkeit der Familie [mm] $(v_1,\ldots,v_k)$ [/mm] und da (siehe oben) nicht alle Skalare [mm] $\lambda_j$ [/mm] verschwinden, gilt:
$w [mm] \ne [/mm] 0$ und offenbar: [mm] $w\in Span(v_1,v_2,\ldots,v_k)$. [/mm]
Damit haben wir mit $w$ einen nichttrivialen Vektor aus [mm] $Span(v_1,v_2,\ldots,v_k)$ [/mm] erzeugt, der gemäß (*) auf allen Vektoren [mm] $v_i$ [/mm] senkrecht steht. Dann wäre aber das Skalarprodukt, eingeschränkt auf [mm] $Span(v_1,v_2,\ldots,v_k)$, [/mm] ausgeartet, was nicht sein kann.
Hier habe ich eine Frage, Warum steht diese Vaktor senkrecht.
Und meine Aufgabe war ja, A ist genau dann invertierbar wenn die Vektoren Linear unabhängig sind. Ist das egal ob Spalten oder Zeilen Linear unabhängig sind?
Und soll ich noch sagen, wenn der Vektor senkrecht auf allenVektoren steht, dann verschwindet eine Zeile der Spalte, wegen Sklarprodukt =0
Daraus folgt ja determinante von A ist Null, also nicht Invertierbar, Das wollte ich noch hinzu fügen. Möchtest du noch was dazu sagen?
Daher muss die Familie [mm] $(v_1,\ldots,v_k)$ [/mm] linear unabhängig sein.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:56 So 29.05.2005 | Autor: | Stefan |
Hallo NECO!
> Hallo Stefan, Danke erstmal für alles, Ich glaube das hier
> ist die Lösung:
Das ist die eine Richtung der Lösung. Die andere findest du aber auch im genannten Thread.
> Wenn die Spalten der Matrix linear abhängig sind, dann
> gibt es Skalare [mm]\lambda_1,\ldots,\lambda_k[/mm], die nicht alle
> verschwinden, und für die
>
> [mm]\lambda_1 \langle v_1,v_1 \rangle + \lambda_2 \langle v_1,v_2 \rangle + \ldots + \lambda_k\langle v_1,v_k\rangle=0[/mm]
> [mm]\lambda_1 \langle v_2,v_1 \rangle + \lambda_2 \langle v_2,v_2 \rangle + \ldots + \lambda_k\langle v_2,v_k\rangle=0[/mm]
> [mm]\vdots[/mm]
> [mm]\lambda_1 \langle v_k,v_1 \rangle + \lambda_2 \langle v_k,v_2 \rangle + \ldots + \lambda_k\langle v_k,v_k\rangle=0[/mm].
>
> Wegen der Bilinearität des Skalarprodukts kann man diese
> Gleichungen kompakt wie folgt schreiben:
>
> (*) [mm]\langle v_i , \sum\limits_{j=1}^j \lambda_jv_j \rangle =0[/mm]
Ich hatte ich mich vertippt. Richtig muss es
(*) [mm]\langle v_i , \sum\limits_{j=1}^k \lambda_jv_j \rangle =0[/mm]
lauten.
> für alle [mm]i=1,\ldots.k[/mm].
>
> Setze nun:
>
> [mm]w:= \sum\limits_{j=1}^k \lambda_jv_j[/mm].
>
> Unter der Annahme der linearen Unabhängigkeit der Familie
> [mm](v_1,\ldots,v_k)[/mm] und da (siehe oben) nicht alle Skalare
> [mm]\lambda_j[/mm] verschwinden, gilt:
>
> [mm]w \ne 0[/mm] und offenbar: [mm]w\in Span(v_1,v_2,\ldots,v_k)[/mm].
>
> Damit haben wir mit [mm]w[/mm] einen nichttrivialen Vektor aus
> [mm]Span(v_1,v_2,\ldots,v_k)[/mm] erzeugt, der gemäß (*) auf allen
> Vektoren [mm]v_i[/mm] senkrecht steht. Dann wäre aber das
> Skalarprodukt, eingeschränkt auf [mm]Span(v_1,v_2,\ldots,v_k)[/mm],
> ausgeartet, was nicht sein kann.
>
> Hier habe ich eine Frage, Warum steht diese Vaktor
> senkrecht.
Naja, das steht doch in (*). Das Skalarprodukt dieses Vektors mit allen Vektoren [mm] $v_1,v_2,\ldots,v_k$ [/mm] ist gleich $0$ und das heißt doch, dass er senkrecht zu diesen steht.
> Und meine Aufgabe war ja, A ist genau dann invertierbar
> wenn die Vektoren Linear unabhängig sind. Ist das egal ob
> Spalten oder Zeilen Linear unabhängig sind?
Ja, das ist egal (wegen Spaltenrang=Zeilenrang).
> Und soll ich noch sagen, wenn der Vektor senkrecht auf
> allenVektoren steht, dann verschwindet eine Zeile der
> Spalte, wegen Sklarprodukt =0
Erstens verstehe ich nicht, was du da zeigen willst und zweitens ist doch schon alles gezeigt.
> Daraus folgt ja determinante von A ist Null, also nicht
> Invertierbar, Das wollte ich noch hinzu fügen. Möchtest du
> noch was dazu sagen?
>
> Daher muss die Familie [mm](v_1,\ldots,v_k)[/mm] linear unabhängig
> sein.
Was soll ich dazu denn noch sagen? Wir haben vorausgesetzt, dass die Spalten (oder Zeilen) der Gramschen Matrix linear abhängig sind. Wir haben dann gezeigt, dass das Skalarprodukt, eingeschränkt auf [mm] $Span(v_1,\ldots,v_k)$, [/mm] ausgeartet wäre, was nur dann wahr sein kann, wenn [mm] $(v_1,\ldots,v_k)$ [/mm] linear abhängig ist. Damit ist diese Richtung des Beweises abgeschlossen. Aber die andere Richtung ist ja dann auch nocht mehr schwierig (außerdem findest du sie im anderen Diskussionsstrang).
Viele Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 20:38 So 29.05.2005 | Autor: | NECO |
danke Stefan,
War echt sehr nett
Ich schaffe aber die andere Richtung nicht. Ich versuche erst dise Richtung zu richtig verstehen. Wenn du Zeit hast kannst du mir für die andere Richtung Helfen? Danke. Wenn nicht ist auch nicht schlimm
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:03 So 29.05.2005 | Autor: | Stefan |
Hallo NECO!
Die andere Richtung habe ich doch hier erläutert.
Was verstehst du daran nicht?
Viele Grüße
Stefan
|
|
|
|