Autor |
Beitrag |
Joachim Steinmetz (Jockel007)
| Veröffentlicht am Sonntag, den 09. September, 2001 - 20:54: |
|
Wie kann ich mir das vorstelln ? : Abbildung f(x) wird durch darstellende Matrix A beschrieben. In den Spalten steht f(e1...n). Das sind die abgebildete kanonische Basis. Eigenwerte sind die Streckfaktoren ? Eigenvektoren sind die Vektoren die sich nicht ändern bei der Abbildung, also: x=f(x) ? Was haben die mit dem Kern zu tun ??? Kern = Eigenraumm, oder ? Der Kern sind doch alle Vektoren, die auf 0 abgebildet werden. Was ist die 0 ??? Hat Dimension 1 , oder ? Wär ja dann eine Gerade , oder ? Wenn man nun A diagonalisiert, ändert man da nicht auch das Bezugssystem ? Und warum stehen dann da die Eigenwerte drin ? Beim diagonalisieren benutzt man eine Übergangsmatrix U, dann ist die Diagonalmatrix D = U hoch-1 * A * U oder ? Und die Spalten von U sind die Eigenvektoren. Was passiert, wenn ich diese Vektoren orthogonalisiere und dann normalisiere und dann ein anderes U doch habe. Und nun D ausrechne. Oder : Ich forme U so geschickt um, so daß nur noch 1,0,oder -1 in der Diagonale steht. Ist D in beiden Fällen wieder eine darstellende Matrix zu der gleichen Abbildung f ? Muß ja dann wohl ein anderes Bezugssystem sein, oder ? Dann sind die Koordinatenachsen nicht mehr die Kanonische Basis sondern die Eigenvektoren oder was ? Gibt es eigentlich lin. abhängige Eigenvektoren ? Wenn sie zu verschiedenen Eigenwerten gehören, dann sind sie orthogonal und damit lin. unabhängig. Nun gibts auch Eigenwerte mit größerer Vielfachkeit als 1, sondern z.B.: n . Da kommen nicht immer n Eigenvektoren raus oder ? Dann kann man sie nicht mehr diagonalisieren, oder ? Dann=> JordanNormalForm Anzahl der JordanBlöcke = Anzahl der FieKetten Kann man das vorher erkennen, wieviel das sind ? Wie kann man sich das überhaupt alles vorstellen ? Bitte helft mir !!!!!! Muß bald ne Prüfung machen. MTHX !!! |
Helga
| Veröffentlicht am Montag, den 10. September, 2001 - 07:51: |
|
Hallo Joachim, Die Aufgabe wurde auch schon hier gestellt: http://www.mathehotline.de/mathe4u/hausaufgaben/messages/4244/19374.html?1000064808 |
M
| Veröffentlicht am Montag, den 10. September, 2001 - 07:54: |
|
Versuch mal diesen Link: |
Joachim Steinmetz (Jockel007)
| Veröffentlicht am Montag, den 10. September, 2001 - 13:09: |
|
Eignetlich hab ich ja gedacht, daß mir jemand ja wirklich helfen kann, aber bisher nur Links. Was soll ich denn mit Links zu meinem eigenen Beitrag ? Naja, ich hoffe immernoch, daß mich mal einer hört und mir hilft. CU jockel |
Schwalbennest
| Veröffentlicht am Montag, den 10. September, 2001 - 13:50: |
|
Hallo Joachim, Weshalb stellst Du die Frage denn mehrmals? Die Antworter sollen sich dann dabei zurechtfinden! Ich hoffe es antwortet Dir niemand! |
Hans (Birdsong)
| Veröffentlicht am Montag, den 10. September, 2001 - 14:54: |
|
Joachim : Man soll sich bei alldem durchaus nicht notwendig etwas vorstellen (obgleich das manchmal nŸtzlich sein kann). Vielmehr muss man einfach die Definitionen lernen und durch Uebungsaufgaben sich zu Eigen machen. Beispiel: u heisst Eigenvektor (EV) der linearen Abbildung f : V --> V zum Eigenwert (EW) lambda (kurz: l), wenn u ungleich Nullvektor und f(u)=l*u ist. Es ist also keine Rede davon, dass sich "u nicht aendert, also u=f(u)". Unter dem Eigenraum E_l von l versteht man den Kern der Abbildung f - l*id (id:= identische Abbildung), und der hat nicht notwendig die Dimension 1. Wenn V eine aus EV von f bestehende Basis besitzt (das ist der Fall, wenn das charakteristische Polynom von f im Grundkoerper n verschiedene Nullstellen besitzt, also etwa, wenn A reell-symmetrischist), so ist A diagonalisierbar, genauer: U^(-1) A U = D = diag(l_1,...,l_n). BezŸglich dieser Basis wird f durch D dargestellt. Dabei sind die Spalten von U die EV von f, und diese bilden keineswegs notwendig eine Orthonormalbasis. Sie tun dies aber, wenn z.B. A reell-symmetrisch ist, dann ist U orthogonal, d.h. U U^t = E. Mir scheint, du hast wesentlichen Vorlesungsstoff noch nicht verstanden. Wenn ich dir einen Rat geben darf: nimm doch ein gutes Lehrbuch zur Hand (solche pflegen in der Vorlesung empfohlen zu werden, oder ist das nicht mehr so ?), das ist schlussendlich das, worauf das Studium hinauslaeuft. Ein Mathe-Board ist kein Ersatz dafŸr. mfg Hans |
Joachim Steinmetz (Jockel007)
| Veröffentlicht am Mittwoch, den 12. September, 2001 - 19:19: |
|
Danke für die Antwort ! Jetzt bin ich auch schon ein bisschen weiter mit LA-Lernen und hatte schon eingesehen, daß ich viel Schrott geschrieben habe. zB.: u=f(u) Aber einiges hatten wir auch gar nicht in der Vorlesung, z.B. was ist, wenn A reel-symmetrisch ist. Das kann ich noch nicht richtig nachvollziehen. Warum stehen dann die EV senkrecht ? Und sind sie dann auch schon normalisiert ? Bei welchem A sind sie normalisiert ? Und: Zum Diagonalisieren muß ich nicht zwingend n verschiedene EW haben, es genügt, wenn ich n linear unabhängige EV habe. Oder nicht? MfG Jockel |
Ferris
| Veröffentlicht am Mittwoch, den 12. September, 2001 - 20:10: |
|
Beim Diagonalisieren stimme ich Dir zu |
Hans (Birdsong)
| Veröffentlicht am Freitag, den 14. September, 2001 - 08:12: |
|
Joachim : Die Aussage Ÿber die Diagonalisierbarkeit von reell-symmetrischen (allgemeiner : hermiteschen) Matrizen heisst Spektralsatz und wird durch vollst. Induktion bezgl. der Dimension bewiesen: Betrachte eine lineare Abb.f : V-->V fŸr welche die Darstellungsmatrix A reell-symmetrisch ist, d.h. A^t = A. Es sei v_1 irgendein EV von A, dann ist u_1 := v_1/|v_1| ein normierter EV. Ein bekannter Satz (Stichwort: Gram-Schmidt) sagt aus, dass sich u_1 zu einer Orthonormalbasis (ONB) (u_1,u_2,...,u_n) ergaenzen laesst. BezŸglich dieser wird f durch eine Matrix der Form [b * ] [0 B ] dargestellt, wobei B eine symmetrische (n-1,n-1) Matrix ist. Wegen der Symmetrie sind auch die mit * bezeichneten Elemmente gleich Null. Jetzt betrachtet man die Einschraenkung von f auf den durch (u_2,...,u_n) aufgespannten zu u_1 ortho- gonalen Teilraum von V. Dessen Dimension ist n-1, und man kann die Induktionsannahme anwenden. Damit eine Matrix diagonalisiert werden kann, ist notwendig und hinreichend, dass n linear unabh. EV existieren, wobei die EW nicht notwendig verschieden sein mŸssen. Bilde dir selbst Beispiele: Nimm irgendeine Diagonalmatrix D, eine invertierbare Matrix T und betrachte A = T D T^(-1) mfg Hans |
Joachim Steinmetz (Jockel007)
| Veröffentlicht am Mittwoch, den 19. September, 2001 - 12:45: |
|
Danke erstmal für die Antwort ! Und ich hatte schon wieder was falsches geschrieben: Wir hatten das doch, das mit Spektralsatz(komplex), Hauptachsentransformation(reell), Gram-Schmidt,..... Hab da aber schon wieder nen paar Fragen: die müßten aber schnell beantwortet sein, falls man die Antwort kennt: 1. Gibt es zu jeder lin. Abb. eine Basis ? (Basis zu (0) ist die leere Menge, Basis zu einem unendlichem VRaum hat ne unendliche Basis?) 2. Eigenwerte gibts immer(wenn nicht reell, dann komplex), gibt es aber auch immer Eigenvektoren ? Zu jedem EV gibts einen EW, aber zu jedem EW gibts da auch immer einen EV ? 3. Wenn man die EVen in die Abb. reinsteckt, bekommt man die EVen gestreckt mit dem EW wieder raus. ( f(u)=l*u ) Da die EVen den ER aufspannen, müßte dieser bei der Abbildung die Dimension bebehalten. Wir haben aber den Begriff "Pfie-invariant" eingeführt und den so definiert, daß die Abbildung jedes ERs eine echte Teilmenge des ERs selber ist. Kenn jemand diesen Begriff ? Kann das überhaupt sein ? Das widerspricht sich doch, oder ? Vielen Dank Jockel |
Hans (Birdsong)
| Veröffentlicht am Mittwoch, den 19. September, 2001 - 16:48: |
|
Joachim, 1. Die Frage ist unverstaendlich. Du meinst wohl: Besitzt jeder Vektorraum eine Basis ? Antwort: Ja. Wenn V nicht (0) und endlich erzeugt ist, so enthaelt jedes Erzeugendensystem eine Basis. Wenn V nicht endlich erzeugt ist, so braucht man zum Beweis das Auswahlaxiom. 2. Lies nochmal genau die Definition von EW und EV. Dann beantwortet sich die Frage von selbst. 3.FŸr eine lineare Abbildung f : V-->V heisst ein Teilraum W f-invariant, wenn die Implikation x in W ==> f(x) in W gilt, d.h. wenn f(W) (nicht notwendig : echte) Teilmenge von W ist. mfG Hans |
Joachim Steinmetz (Jockel007)
| Veröffentlicht am Freitag, den 21. September, 2001 - 14:26: |
|
Danke Hans ! zu 1: Ist (0) ein Vektorraum ? Gibt es einen unendlichen Vektorraum ? zu 2: Definition: f(EV)=EW*EV Dann müßte es auch immer EVen geben, ja? Sind folgende Schlußfolgerungen richtig ? Es gibt immer ein charakteristisches Polynom => dieses zerfällt immer in Linearfaktoren => es gibt immer EWe => es gibt immer EVen => es gibt immer eine JNF oder wo hakt es noch ? zu 3: OK, dann ist bei mir ein Fehler im Skript, da steht was von echte Teilmenge. Mit Implikation x in W meinst du das Bild von x, wobei x aus dem Teilraum W ist, also das Bild vom Teilraum ? Ich denk schon, oder ? Hab noch ein nettes Thema parat: Dualraum :-)) Warum heißt das Teil so ? Also erstmal definier ich mal die Abbildungen: p:= V -> W f:= V -> K g:= W -> K Dabei sind V und W Vektorräume, K ist ein Körper und g = f*p (*=Verknüpfung). Die duale Abbildung zu p ist dann p*:= (f) -> (g), also bildet alle Funktionen f auf die Funktionen g ab. Die Dimension von p und p* sind gleich. Die Linearformen sind alle Funktionen g, die Bilder bzgl. p* von f sind. Der x´te Basisvektor der dualen Basis ist die Funktion f, die den x´ten Basisvektor von W auf die 1 abbildet. Und die darstellende Matrix der dualen Abbildung ist Atransponiert, wenn A die darst. Matrix von p ist. Der Dualraum besteht aus einer direkten Summe: aus 1.: Einen Teilraum von V und 2.: einen dazu senkrechtstehenden Teilraum aus V* Den 2. nennt man Annulator, weil die duale Abbildung den 1. Raum auf 0 abbildet. Also ist ja auch der 1. Teilraum der Kern der dualen Abbildung. Warum jetzt aber diese beiden durch eine innere dierekte Summe zusammengeführt werden dürfen (1 besteht aus Vektoren und 2 aus Funktionen) und daraus sich der Dualraum V* ergibt, der eigentlich der Bildbereich der dualen Abbildung ist und so nur aus Funktionen bestehen dürfte, ist mir verwirrend vorgekommen. Und warum dieser dann V* heißt ??? Was hat er noch großartig mit V zu tun ? Naja, ich denk mal, daß diese Sachen für meine mündl. Prüfung am Montag nicht mehr SO WICHTIG sind, aber verstehen möchte ich es schon irgendwann mal..... :-} MfG Joachim |
Hans (Birdsong)
| Veröffentlicht am Freitag, den 21. September, 2001 - 16:22: |
|
Joachim: 1. Der Nullraum (0) ist ein Vektorraum (VR) (prŸfe nach, ob die Axiome erfŸllt sind!). Unendlichdimensionale VR gibt es haufenweise: z.B.: VR aller unendlichen Folgen (x_1,x_2,...), VR aller auf [a,b] stetigen Funktionen, etc. 2. Ob es EW (und damit EV) gibt, haengt vom Grundkoerper K ab. Z.B. hat eine Drehung von |R^2 keine EV (es gibt keine invariante Richtung,was geometrisch einleuchtet).Alles haengt davon ab, ob das char.Pol. in K Nullstellen besitzt oder sogar in Linearfaktoren zerfaellt (z.B. wenn K algebraisch abgeschlossen ist). 3. "Implikation" ist ein Begriff aus der formalen Logik (eine Aussage A impliziert eine Aussage B, notiert A==>B, wenn folgendes gilt: immer wenn Awahr ist, so ist auch B wahr). Die Schreibfigur "x in W ==> f(x) in W" besagt dann also in Worten: "Das f-Bild jedes x aus W liegt wieder in W". 4. Dualraum V* von V: Man betrachtet die Menge der linearen Funktionale f : V --> K, wobei f(ax + by) = a f(x) + b f(y) fŸr alle x,y in V und a,b in K. Man definiert (f+g)(x) := f(x) + g(x) und (k*f)(x) := k*f(x) fŸr alle x in V und k in K. Dadurch wird V* zu einem K-VR. Dies ist der Dualraum von V. Ich wiederhole meine Empfehlung, mal in ein Buch zu schauen. mfG Hans |
Joachim Steinmetz (Jockel007)
| Veröffentlicht am Samstag, den 06. Oktober, 2001 - 21:09: |
|
Danke nochmal an Hans !!!!!!!!!!!!! Ich hab jetzt meine mündl. Vordiplomprüfung hinter mir :-) War gar nicht mal so einfach... mitten in der Prüfung dacht ich, das wird nichts.....und dann hab ich doch noch ne 1,3 geschafft *freu* LA war schon interesant, man kann sich soooo viel vorstellen, *g* , wenn man will..... hat echt Spaß gemacht, hoffentlich kann ichs noch später mal für andere Fächer gebrauchen. THX für alles !!! |
|