Themenbereiche Themenbereiche Profile Hilfe/Anleitungen Help    
Recent Posts Last 1|3|7 Days Suche Suche Tree Tree View  

Mir fehlt irgendwie die Vorstellungsk...

ZahlReich - Mathematik Hausaufgabenhilfe » ---- Archiv: Universitäts-Niveau » Lineare Algebra » Matrizen » Mir fehlt irgendwie die Vorstellungskraft « Zurück Vor »

Autor Beitrag
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Joachim Steinmetz (Jockel007)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Sonntag, den 09. September, 2001 - 20:54:   Beitrag drucken

Wie kann ich mir das vorstelln ? :

Abbildung f(x) wird durch darstellende Matrix A beschrieben.

In den Spalten steht f(e1...n).

Das sind die abgebildete kanonische Basis.

Eigenwerte sind die Streckfaktoren ?

Eigenvektoren sind die Vektoren die sich nicht ändern bei der Abbildung, also: x=f(x) ?

Was haben die mit dem Kern zu tun ???
Kern = Eigenraumm, oder ?
Der Kern sind doch alle Vektoren, die auf 0 abgebildet werden.
Was ist die 0 ???
Hat Dimension 1 , oder ?
Wär ja dann eine Gerade , oder ?

Wenn man nun A diagonalisiert, ändert man da nicht auch das Bezugssystem ?
Und warum stehen dann da die Eigenwerte drin ?
Beim diagonalisieren benutzt man eine Übergangsmatrix U, dann ist die Diagonalmatrix D = U hoch-1 * A * U oder ?
Und die Spalten von U sind die Eigenvektoren.
Was passiert, wenn ich diese Vektoren orthogonalisiere und dann normalisiere und dann ein anderes U doch habe. Und nun D ausrechne.
Oder : Ich forme U so geschickt um, so daß nur noch 1,0,oder -1 in der Diagonale steht.
Ist D in beiden Fällen wieder eine darstellende Matrix zu der gleichen Abbildung f ?
Muß ja dann wohl ein anderes Bezugssystem sein, oder ?
Dann sind die Koordinatenachsen nicht mehr die Kanonische Basis sondern die Eigenvektoren oder was ?
Gibt es eigentlich lin. abhängige Eigenvektoren ?
Wenn sie zu verschiedenen Eigenwerten gehören, dann sind sie orthogonal und damit lin. unabhängig.
Nun gibts auch Eigenwerte mit größerer Vielfachkeit als 1, sondern z.B.: n .
Da kommen nicht immer n Eigenvektoren raus oder ?
Dann kann man sie nicht mehr diagonalisieren, oder ?
Dann=> JordanNormalForm
Anzahl der JordanBlöcke = Anzahl der FieKetten

Kann man das vorher erkennen, wieviel das sind ?

Wie kann man sich das überhaupt alles vorstellen ?

Bitte helft mir !!!!!!
Muß bald ne Prüfung machen.

MTHX !!!
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Helga
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Montag, den 10. September, 2001 - 07:51:   Beitrag drucken

Hallo Joachim,
Die Aufgabe wurde auch schon hier gestellt:
http://www.mathehotline.de/mathe4u/hausaufgaben/messages/4244/19374.html?1000064808
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

M
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Montag, den 10. September, 2001 - 07:54:   Beitrag drucken

Versuch mal diesen Link:
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Joachim Steinmetz (Jockel007)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Montag, den 10. September, 2001 - 13:09:   Beitrag drucken

Eignetlich hab ich ja gedacht, daß mir jemand ja wirklich helfen kann, aber bisher nur Links.
Was soll ich denn mit Links zu meinem eigenen Beitrag ?
Naja, ich hoffe immernoch, daß mich mal einer hört und mir hilft.

CU jockel
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Schwalbennest
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Montag, den 10. September, 2001 - 13:50:   Beitrag drucken

Hallo Joachim,
Weshalb stellst Du die Frage denn mehrmals?
Die Antworter sollen sich dann dabei zurechtfinden!
Ich hoffe es antwortet Dir niemand!
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Hans (Birdsong)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Montag, den 10. September, 2001 - 14:54:   Beitrag drucken

Joachim :

Man soll sich bei alldem durchaus nicht notwendig
etwas vorstellen (obgleich das manchmal nŸtzlich sein kann). Vielmehr muss man einfach die
Definitionen lernen und durch Uebungsaufgaben
sich zu Eigen machen.

Beispiel: u heisst Eigenvektor (EV) der linearen
Abbildung f : V --> V zum Eigenwert (EW) lambda (kurz: l), wenn u ungleich Nullvektor und f(u)=l*u ist.

Es ist also keine Rede davon, dass sich "u nicht
aendert, also u=f(u)". Unter dem Eigenraum E_l von
l versteht man den Kern der Abbildung
f - l*id (id:= identische Abbildung), und
der hat nicht notwendig die Dimension 1.
Wenn V eine aus EV von f bestehende Basis besitzt
(das ist der Fall, wenn das charakteristische Polynom von f im Grundkoerper n verschiedene Nullstellen besitzt, also etwa, wenn A reell-symmetrischist), so ist A diagonalisierbar, genauer:
U^(-1) A U = D = diag(l_1,...,l_n). BezŸglich dieser Basis wird f durch D dargestellt. Dabei
sind die Spalten von U die EV von f, und diese
bilden keineswegs notwendig eine Orthonormalbasis.
Sie tun dies aber, wenn z.B. A reell-symmetrisch ist, dann ist U orthogonal, d.h. U U^t = E.

Mir scheint, du hast wesentlichen Vorlesungsstoff
noch nicht verstanden. Wenn ich dir einen Rat
geben darf: nimm doch ein gutes Lehrbuch zur Hand
(solche pflegen in der Vorlesung empfohlen zu werden, oder ist das nicht mehr so ?), das ist
schlussendlich das, worauf das Studium hinauslaeuft. Ein Mathe-Board ist kein Ersatz
dafŸr.

mfg

Hans
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Joachim Steinmetz (Jockel007)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Mittwoch, den 12. September, 2001 - 19:19:   Beitrag drucken

Danke für die Antwort !
Jetzt bin ich auch schon ein bisschen weiter mit LA-Lernen und hatte schon eingesehen, daß ich viel Schrott geschrieben habe.
zB.: u=f(u)

Aber einiges hatten wir auch gar nicht in der Vorlesung, z.B. was ist, wenn A reel-symmetrisch ist. Das kann ich noch nicht richtig nachvollziehen.
Warum stehen dann die EV senkrecht ?
Und sind sie dann auch schon normalisiert ?
Bei welchem A sind sie normalisiert ?

Und: Zum Diagonalisieren muß ich nicht zwingend n verschiedene EW haben, es genügt, wenn ich n linear unabhängige EV habe. Oder nicht?

MfG Jockel
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Ferris
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Mittwoch, den 12. September, 2001 - 20:10:   Beitrag drucken

Beim Diagonalisieren stimme ich Dir zu
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Hans (Birdsong)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Freitag, den 14. September, 2001 - 08:12:   Beitrag drucken

Joachim :

Die Aussage Ÿber die Diagonalisierbarkeit von
reell-symmetrischen (allgemeiner : hermiteschen)
Matrizen heisst Spektralsatz und wird durch vollst. Induktion bezgl. der Dimension bewiesen:

Betrachte eine lineare Abb.f : V-->V fŸr welche
die Darstellungsmatrix A reell-symmetrisch ist,
d.h. A^t = A.
Es sei v_1 irgendein EV von A, dann ist
u_1 := v_1/|v_1| ein normierter EV. Ein bekannter Satz (Stichwort: Gram-Schmidt) sagt aus, dass sich u_1 zu einer Orthonormalbasis (ONB) (u_1,u_2,...,u_n) ergaenzen laesst. BezŸglich
dieser wird f durch eine Matrix der Form

[b * ]
[0 B ]

dargestellt, wobei B eine symmetrische (n-1,n-1)
Matrix ist. Wegen der Symmetrie sind auch die
mit * bezeichneten Elemmente gleich Null. Jetzt
betrachtet man die Einschraenkung von f auf den
durch (u_2,...,u_n) aufgespannten zu u_1 ortho-
gonalen Teilraum von V. Dessen Dimension ist n-1,
und man kann die Induktionsannahme anwenden.

Damit eine Matrix diagonalisiert werden kann, ist
notwendig und hinreichend, dass n linear unabh.
EV existieren, wobei die EW nicht notwendig
verschieden sein mŸssen.
Bilde dir selbst Beispiele: Nimm irgendeine
Diagonalmatrix D, eine invertierbare Matrix T
und betrachte A = T D T^(-1)

mfg

Hans
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Joachim Steinmetz (Jockel007)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Mittwoch, den 19. September, 2001 - 12:45:   Beitrag drucken

Danke erstmal für die Antwort !

Und ich hatte schon wieder was falsches geschrieben: Wir hatten das doch, das mit Spektralsatz(komplex), Hauptachsentransformation(reell), Gram-Schmidt,.....

Hab da aber schon wieder nen paar Fragen:
die müßten aber schnell beantwortet sein, falls man die Antwort kennt:

1. Gibt es zu jeder lin. Abb. eine Basis ?
(Basis zu (0) ist die leere Menge, Basis zu einem unendlichem VRaum hat ne unendliche Basis?)

2. Eigenwerte gibts immer(wenn nicht reell, dann komplex), gibt es aber auch immer Eigenvektoren ?
Zu jedem EV gibts einen EW, aber zu jedem EW gibts da auch immer einen EV ?

3. Wenn man die EVen in die Abb. reinsteckt, bekommt man die EVen gestreckt mit dem EW wieder raus. ( f(u)=l*u )
Da die EVen den ER aufspannen, müßte dieser bei der Abbildung die Dimension bebehalten.
Wir haben aber den Begriff "Pfie-invariant" eingeführt und den so definiert, daß die Abbildung jedes ERs eine echte Teilmenge des ERs selber ist. Kenn jemand diesen Begriff ? Kann das überhaupt sein ? Das widerspricht sich doch, oder ?



Vielen Dank Jockel
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Hans (Birdsong)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Mittwoch, den 19. September, 2001 - 16:48:   Beitrag drucken

Joachim,

1. Die Frage ist unverstaendlich. Du meinst wohl:
Besitzt jeder Vektorraum eine Basis ?
Antwort: Ja. Wenn V nicht (0) und endlich erzeugt
ist, so enthaelt jedes Erzeugendensystem eine
Basis. Wenn V nicht endlich erzeugt ist, so
braucht man zum Beweis das Auswahlaxiom.

2. Lies nochmal genau die Definition von EW und
EV. Dann beantwortet sich die Frage von selbst.

3.FŸr eine lineare Abbildung f : V-->V heisst
ein Teilraum W f-invariant, wenn die Implikation
x in W ==> f(x) in W gilt, d.h. wenn
f(W) (nicht notwendig : echte) Teilmenge von W ist.

mfG

Hans
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Joachim Steinmetz (Jockel007)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Freitag, den 21. September, 2001 - 14:26:   Beitrag drucken

Danke Hans !

zu 1: Ist (0) ein Vektorraum ?
Gibt es einen unendlichen Vektorraum ?

zu 2: Definition: f(EV)=EW*EV
Dann müßte es auch immer EVen geben, ja?
Sind folgende Schlußfolgerungen richtig ?
Es gibt immer ein charakteristisches Polynom => dieses zerfällt immer in Linearfaktoren => es gibt immer EWe => es gibt immer EVen => es gibt immer eine JNF

oder wo hakt es noch ?

zu 3: OK, dann ist bei mir ein Fehler im Skript, da steht was von echte Teilmenge.
Mit Implikation x in W meinst du das Bild von x, wobei x aus dem Teilraum W ist, also das Bild vom Teilraum ? Ich denk schon, oder ?

Hab noch ein nettes Thema parat: Dualraum :-))
Warum heißt das Teil so ?
Also erstmal definier ich mal die Abbildungen:
p:= V -> W
f:= V -> K
g:= W -> K
Dabei sind V und W Vektorräume, K ist ein Körper und g = f*p (*=Verknüpfung).
Die duale Abbildung zu p ist dann p*:= (f) -> (g),
also bildet alle Funktionen f auf die Funktionen g ab.
Die Dimension von p und p* sind gleich.
Die Linearformen sind alle Funktionen g, die Bilder bzgl. p* von f sind.
Der x´te Basisvektor der dualen Basis ist die Funktion f, die den x´ten Basisvektor von W auf die 1 abbildet.
Und die darstellende Matrix der dualen Abbildung ist Atransponiert, wenn A die darst. Matrix von p ist.
Der Dualraum besteht aus einer direkten Summe: aus
1.: Einen Teilraum von V und
2.: einen dazu senkrechtstehenden Teilraum aus V*
Den 2. nennt man Annulator, weil die duale Abbildung den 1. Raum auf 0 abbildet.
Also ist ja auch der 1. Teilraum der Kern der dualen Abbildung. Warum jetzt aber diese beiden durch eine innere dierekte Summe zusammengeführt werden dürfen (1 besteht aus Vektoren und 2 aus Funktionen) und daraus sich der Dualraum V* ergibt, der eigentlich der Bildbereich der dualen Abbildung ist und so nur aus Funktionen bestehen dürfte, ist mir verwirrend vorgekommen.
Und warum dieser dann V* heißt ??? Was hat er noch großartig mit V zu tun ?

Naja, ich denk mal, daß diese Sachen für meine mündl. Prüfung am Montag nicht mehr SO WICHTIG sind, aber verstehen möchte ich es schon irgendwann mal..... :-}

MfG Joachim
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Hans (Birdsong)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Freitag, den 21. September, 2001 - 16:22:   Beitrag drucken

Joachim:
1.
Der Nullraum (0) ist ein Vektorraum (VR) (prŸfe
nach, ob die Axiome erfŸllt sind!).

Unendlichdimensionale VR gibt es haufenweise:
z.B.: VR aller unendlichen Folgen (x_1,x_2,...),
VR aller auf [a,b] stetigen Funktionen, etc.

2.
Ob es EW (und damit EV) gibt, haengt vom
Grundkoerper K ab. Z.B. hat eine Drehung von |R^2
keine EV (es gibt keine invariante Richtung,was
geometrisch einleuchtet).Alles haengt davon ab, ob
das char.Pol. in K Nullstellen besitzt oder
sogar in Linearfaktoren zerfaellt (z.B. wenn
K algebraisch abgeschlossen ist).

3.
"Implikation" ist ein Begriff aus der formalen
Logik (eine Aussage A impliziert eine Aussage B,
notiert A==>B, wenn folgendes gilt: immer wenn Awahr ist, so ist auch B wahr). Die Schreibfigur
"x in W ==> f(x) in W" besagt dann also in Worten:
"Das f-Bild jedes x aus W liegt wieder in W".

4.
Dualraum V* von V: Man betrachtet die Menge
der linearen Funktionale f : V --> K, wobei
f(ax + by) = a f(x) + b f(y) fŸr alle x,y in V
und a,b in K. Man definiert

(f+g)(x) := f(x) + g(x) und (k*f)(x) := k*f(x)

fŸr alle x in V und k in K. Dadurch wird V* zu
einem K-VR. Dies ist der Dualraum von V.

Ich wiederhole meine Empfehlung, mal in ein Buch
zu schauen.

mfG

Hans
Seitenanfangvoriger Beitragnächster BeitragSeitenende Link zu diesem Beitrag

Joachim Steinmetz (Jockel007)
Suche alle Beiträge dieser Person in dieser Hauptrubrik
Veröffentlicht am Samstag, den 06. Oktober, 2001 - 21:09:   Beitrag drucken

Danke nochmal an Hans !!!!!!!!!!!!!

Ich hab jetzt meine mündl. Vordiplomprüfung hinter mir :-)
War gar nicht mal so einfach... mitten in der Prüfung dacht ich, das wird nichts.....und dann hab ich doch noch ne 1,3 geschafft *freu*

LA war schon interesant, man kann sich soooo viel vorstellen, *g* , wenn man will.....

hat echt Spaß gemacht, hoffentlich kann ichs noch später mal für andere Fächer gebrauchen.

THX für alles !!!

Beitrag verfassen
Das Senden ist in diesem Themengebiet nicht unterstützt. Kontaktieren Sie den Diskussions-Moderator für weitere Informationen.

ad

Administration Administration Abmelden Abmelden   Previous Page Previous Page Next Page Next Page