Die Inverse einer Matrix ist eine Matrix. Finden der inversen Matrix

Die Matrix $A^(-1)$ heißt Inverse der quadratischen Matrix $A$, wenn $A^(-1)\cdot A=A\cdot A^(-1)=E$, wobei $E $ ist die Einheitsmatrix, deren Ordnung gleich der Ordnung der Matrix $A$ ist.

Eine nichtsinguläre Matrix ist eine Matrix, deren Determinante ungleich Null ist. Dementsprechend ist eine entartete Matrix eine, deren Determinante gleich Null ist.

Die inverse Matrix $A^(-1)$ existiert genau dann, wenn die Matrix $A$ nichtsingulär ist. Wenn die inverse Matrix $A^(-1)$ existiert, dann ist sie eindeutig.

Es gibt mehrere Möglichkeiten, die Inverse einer Matrix zu finden, und wir werden uns zwei davon ansehen. Auf dieser Seite wird die Adjoint-Matrix-Methode besprochen, die in den meisten höheren Mathematikkursen als Standard gilt. Der zweite Weg, um die inverse Matrix zu finden (Methode der elementaren Transformationen), die die Verwendung der Gauß-Methode oder der Gauß-Jordan-Methode beinhaltet, wird im zweiten Teil betrachtet.

Adjungierte (Vereinigungs-) Matrixmethode

Gegeben sei die Matrix $A_(n\times n)$. Um die inverse Matrix $A^(-1)$ zu finden, sind drei Schritte erforderlich:

  1. Finden Sie die Determinante der Matrix $A$ und stellen Sie sicher, dass $\Delta A\neq 0$, d.h. dass die Matrix A nicht ausgeartet ist.
  2. Bilden Sie algebraische Komplemente $A_(ij)$ von jedem Element der Matrix $A$ und schreiben Sie die Matrix $A_(n\times n)^(*)=\left(A_(ij) \right)$ aus dem Gefundenen auf algebraische Ergänzungen.
  3. Schreiben Sie die inverse Matrix unter Berücksichtigung der Formel $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$.

Die Matrix $(A^(*))^T$ wird oft als die adjungierte (gegenseitige, verwandte) Matrix von $A$ bezeichnet.

Wenn die Entscheidung manuell getroffen wird, ist die erste Methode nur für Matrizen relativ kleiner Ordnungen geeignet: second (), Third (), four (). Um die inverse Matrix für eine Matrix höherer Ordnung zu finden, werden andere Verfahren verwendet. Zum Beispiel das Gauß-Verfahren, das im zweiten Teil behandelt wird.

Beispiel 1

Finden Sie die Matrix invers zu Matrix $A=\left(\begin(array) (cccc) 5 & -4 &1 & 0 \\ 12 &-11 &4 & 0 \\ -5 & 58 &4 & 0 \\ 3 & - 1 & -9 & 0 \end(array) \right)$.

Da alle Elemente der vierten Spalte gleich Null sind, ist $\Delta A=0$ (d.h. die Matrix $A$ ist entartet). Da $\Delta A=0$ ist, gibt es keine zu $A$ inverse Matrix.

Antworten: Matrix $A^(-1)$ existiert nicht.

Beispiel #2

Finde die Matrix invers zur Matrix $A=\left(\begin(array) (cc) -5 & 7 \\ 9 & 8 \end(array)\right)$. Führen Sie eine Überprüfung durch.

Wir verwenden die Methode der adjungierten Matrix. Lassen Sie uns zuerst die Determinante der gegebenen Matrix $A$ finden:

$$ \Delta A=\links| \begin(array) (cc) -5 & 7\\ 9 & 8 \end(array)\right|=-5\cdot 8-7\cdot 9=-103. $$

Da $\Delta A \neq 0$ existiert, existiert die inverse Matrix, also setzen wir die Lösung fort. Finden von algebraischen Komplementen

\begin(aligned) & A_(11)=(-1)^2\cdot 8=8; \; A_(12)=(-1)^3\cdot 9=-9;\\ & A_(21)=(-1)^3\cdot 7=-7; \; A_(22)=(-1)^4\cdot (-5)=-5.\\ \end(aligned)

Erstellen Sie eine Matrix aus algebraischen Komplementen: $A^(*)=\left(\begin(array) (cc) 8 & -9\\ -7 & -5 \end(array)\right)$.

Transponieren Sie die resultierende Matrix: $(A^(*))^T=\left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right)$ (das Ergebnis Matrix wird oft als adjungierte oder Vereinigungsmatrix zur Matrix $A$ bezeichnet). Mit der Formel $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$ haben wir:

$$ A^(-1)=\frac(1)(-103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right) =\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array)\right) $$

Also wird die inverse Matrix gefunden: $A^(-1)=\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array) \richtig) $. Um die Wahrheit des Ergebnisses zu überprüfen, genügt es, die Wahrheit einer der Gleichungen zu überprüfen: $A^(-1)\cdot A=E$ oder $A\cdot A^(-1)=E$. Prüfen wir die Gleichheit $A^(-1)\cdot A=E$. Um weniger mit Brüchen zu arbeiten, ersetzen wir die Matrix $A^(-1)$ nicht in der Form $\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \ end(array)\right)$ aber als $-\frac(1)(103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \ end(array)\right)$:

$$ A^(-1)\cdot(A) =-\frac(1)(103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end( array)\right)\cdot\left(\begin(array) (cc) -5 & 7 \\ 9 & 8 \end(array)\right) =-\frac(1)(103)\cdot\left( \begin(array) (cc) -103 & 0 \\ 0 & -103 \end(array)\right) =\left(\begin(array) (cc) 1 & 0 \\ 0 & 1 \end(array )\richtig) =E $$

Antworten: $A^(-1)=\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array)\right)$.

Beispiel #3

Finde die Umkehrung der Matrix $A=\left(\begin(array) (ccc) 1 & 7 & 3 \\ -4 & 9 & 4 \\ 0 & 3 & 2\end(array) \right)$. Führen Sie eine Überprüfung durch.

Beginnen wir mit der Berechnung der Determinante der Matrix $A$. Die Determinante der Matrix $A$ ist also:

$$ \Delta A=\links| \begin(array) (ccc) 1 & 7 & 3 \\ -4 & 9 & 4 \\ 0 & 3 & 2\end(array) \right| = 18-36+56-12=26. $$

Da $\Delta A\neq 0$, dann existiert die inverse Matrix, also setzen wir die Lösung fort. Wir finden die algebraischen Komplemente jedes Elements der gegebenen Matrix:

$$ \begin(aligned) & A_(11)=(-1)^(2)\cdot\left|\begin(array)(cc) 9 & 4\\ 3 & 2\end(array)\right| =6;\; A_(12)=(-1)^(3)\cdot\left|\begin(array)(cc) -4 &4 \\ 0 & 2\end(array)\right|=8;\; A_(13)=(-1)^(4)\cdot\left|\begin(array)(cc) -4 & 9\\ 0 & 3\end(array)\right|=-12;\\ & A_(21)=(-1)^(3)\cdot\left|\begin(array)(cc) 7 & 3\\ 3 & 2\end(array)\right|=-5;\; A_(22)=(-1)^(4)\cdot\left|\begin(array)(cc) 1 & 3\\ 0 & 2\end(array)\right|=2;\; A_(23)=(-1)^(5)\cdot\left|\begin(array)(cc) 1 & 7\\ 0 & 3\end(array)\right|=-3;\\ & A_ (31)=(-1)^(4)\cdot\left|\begin(array)(cc) 7 & 3\\ 9 & 4\end(array)\right|=1;\; A_(32)=(-1)^(5)\cdot\left|\begin(array)(cc) 1 & 3\\ -4 & 4\end(array)\right|=-16;\; A_(33)=(-1)^(6)\cdot\left|\begin(array)(cc) 1 & 7\\ -4 & 9\end(array)\right|=37. \end(aligned) $$

Wir erstellen eine Matrix aus algebraischen Additionen und transponieren sie:

$$ A^*=\left(\begin(array) (ccc) 6 & 8 & -12 \\ -5 & 2 & -3 \\ 1 & -16 & 37\end(array) \right); \; (A^*)^T=\left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right) . $$

Mit der Formel $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$ erhalten wir:

$$ A^(-1)=\frac(1)(26)\cdot \left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & - 3 & 37\end(array) \right)= \left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \ \ -6/13 & -3/26 & 37/26 \end(array) \right) $$

Also $A^(-1)=\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \\ - 6 /13 & -3/26 & 37/26 \end(array) \right)$. Um die Wahrheit des Ergebnisses zu überprüfen, genügt es, die Wahrheit einer der Gleichungen zu überprüfen: $A^(-1)\cdot A=E$ oder $A\cdot A^(-1)=E$. Prüfen wir die Gleichheit $A\cdot A^(-1)=E$. Um weniger mit Brüchen zu arbeiten, ersetzen wir die Matrix $A^(-1)$ nicht in der Form $\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \ \ 4/13 & 1/13 & -8/13 \\ -6/13 & -3/26 & 37/26 \end(array) \right)$, aber als $\frac(1)(26)\ cdot \left( \begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right)$:

$$ A\cdot(A^(-1)) =\left(\begin(array)(ccc) 1 & 7 & 3 \\ -4 & 9 & 4\\ 0 & 3 & 2\end(array) \right)\cdot \frac(1)(26)\cdot \left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\ end(array) \right) =\frac(1)(26)\cdot\left(\begin(array) (ccc) 26 & 0 & 0 \\ 0 & 26 & 0 \\ 0 & 0 & 26\end (array) \right) =\left(\begin(array) (ccc) 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end(array) \right) =E $$

Die Prüfung wurde erfolgreich bestanden, die inverse Matrix $A^(-1)$ wurde korrekt gefunden.

Antworten: $A^(-1)=\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \\ -6 /13 & -3/26 & 37/26 \end(array) \right)$.

Beispiel Nr. 4

Finden Sie die umgekehrte Matrix von $A=\left(\begin(array) (cccc) 6 & -5 & 8 & 4\\ 9 & 7 & 5 & 2 \\ 7 & 5 & 3 & 7\\ -4 & 8 & -8 & -3 \end(array) \right)$.

Für eine Matrix vierter Ordnung ist es etwas schwierig, die inverse Matrix durch algebraische Additionen zu finden. Solche Beispiele finden sich jedoch in den Kontrollarbeiten.

Um die inverse Matrix zu finden, müssen Sie zuerst die Determinante der Matrix $A$ berechnen. Das geht in dieser Situation am besten, indem man die Determinante in einer Zeile (Spalte) erweitert. Wir wählen eine beliebige Zeile oder Spalte aus und finden das algebraische Komplement jedes Elements der ausgewählten Zeile oder Spalte.

Zum Beispiel erhalten wir für die erste Zeile:

$$ A_(11)=\left|\begin(array)(ccc) 7 & 5 & 2\\ 5 & 3 & 7\\ 8 & -8 & -3 \end(array)\right|=556; \; A_(12)=-\left|\begin(array)(ccc) 9 & 5 & 2\\ 7 & 3 & 7 \\ -4 & -8 & -3 \end(array)\right|=-300 ; $$ $$ A_(13)=\left|\begin(array)(ccc) 9 & 7 & 2\\ 7 & 5 & 7\\ -4 & 8 & -3 \end(array)\right|= -536;\; A_(14)=-\left|\begin(array)(ccc) 9 & 7 & 5\\ 7 & 5 & 3\\ -4 & 8 & -8 \end(array)\right|=-112. $$

Die Determinante der Matrix $A$ wird nach folgender Formel berechnet:

$$ \Delta(A)=a_(11)\cdot A_(11)+a_(12)\cdot A_(12)+a_(13)\cdot A_(13)+a_(14)\cdot A_(14 )=6\cdot 556+(-5)\cdot(-300)+8\cdot(-536)+4\cdot(-112)=100. $$

$$ \begin(aligned) & A_(21)=-77;\;A_(22)=50;\;A_(23)=87;\;A_(24)=4;\\ & A_(31) =-93;\;A_(32)=50;\;A_(33)=83;\;A_(34)=36;\\ & A_(41)=473;\;A_(42)=-250 ;\;A_(43)=-463;\;A_(44)=-96. \end(aligned) $$

Algebraische Komplementmatrix: $A^*=\left(\begin(array)(cccc) 556 & -300 & -536 & -112\\ -77 & 50 & 87 & 4 \\ -93 & 50 & 83 & 36 \\ 473 & -250 & -463 & -96\end(array)\right)$.

Angehängte Matrix: $(A^*)^T=\left(\begin(array) (cccc) 556 & -77 & -93 & 473\\ -300 & 50 & 50 & -250 \\ -536 & 87 & 83 & -463\\ -112 & 4 & 36 & -96\end(array)\right)$.

Inverse Matrix:

$$ A^(-1)=\frac(1)(100)\cdot \left(\begin(array) (cccc) 556 & -77 & -93 & 473\\ -300 & 50 & 50 & -250 \\ -536 & 87 & 83 & -463\\ -112 & 4 & 36 & -96 \end(array) \right)= \left(\begin(array) (cccc) 139/25 & -77/100 & -93/100 & 473/100 \\ -3 & 1/2 & 1/2 & -5/2 \\ -134/25 & 87/100 & 83/100 & -463/100 \\ -28/ 25 & 1/25 & 9/25 & -24/25 \end(array) \right) $$

Die Überprüfung kann, falls gewünscht, auf die gleiche Weise wie in den vorherigen Beispielen durchgeführt werden.

Antworten: $A^(-1)=\left(\begin(array) (cccc) 139/25 & -77/100 & -93/100 & 473/100 \\ -3 & 1/2 & 1/2 & -5/2 \\ -134/25 & 87/100 & 83/100 & -463/100 \\ -28/25 & 1/25 & 9/25 & -24/25 \end(array) \right) $.

Im zweiten Teil wird ein anderer Weg zum Auffinden der inversen Matrix betrachtet, der die Verwendung von Transformationen des Gauß-Verfahrens oder des Gauß-Jordan-Verfahrens beinhaltet.

Wir sprechen weiter über Aktionen mit Matrizen. Im Laufe des Studiums dieser Vorlesung werden Sie nämlich lernen, wie man die inverse Matrix findet. Lernen. Auch wenn die Mathematik knapp ist.

Was ist eine inverse Matrix? Hier können wir eine Analogie zu Kehrwerten ziehen: Betrachten Sie zum Beispiel die optimistische Zahl 5 und ihren Kehrwert. Das Produkt dieser Zahlen ist gleich eins: . Dasselbe gilt für Matrizen! Das Produkt einer Matrix und ihrer Inversen ist - Identitätsmatrix, die das Matrixanalogon der numerischen Einheit ist. Aber das Wichtigste zuerst, wir werden ein wichtiges praktisches Problem lösen, nämlich lernen, wie man diese sehr inverse Matrix findet.

Was müssen Sie wissen, um die inverse Matrix finden zu können? Sie müssen sich entscheiden können Determinanten. Sie müssen verstehen, was ist Matrix und in der Lage sein, einige Aktionen mit ihnen auszuführen.

Es gibt zwei Hauptmethoden, um die inverse Matrix zu finden:
mit Hilfe algebraische Additionen und mit elementaren Transformationen.

Heute werden wir den ersten, einfacheren Weg studieren.

Beginnen wir mit dem Schrecklichsten und Unverständlichsten. In Betracht ziehen Quadrat Matrix . Die inverse Matrix kann mit der folgenden Formel gefunden werden:

Wo ist die Determinante der Matrix, ist die transponierte Matrix der algebraischen Komplemente der entsprechenden Elemente der Matrix.

Das Konzept einer inversen Matrix existiert nur für quadratische Matrizen, Matrizen "zwei mal zwei", "drei mal drei" usw.

Notation: Wie Sie wahrscheinlich schon bemerkt haben, wird die Inverse einer Matrix durch ein hochgestelltes Zeichen gekennzeichnet

Beginnen wir mit dem einfachsten Fall – einer Zwei-mal-Zwei-Matrix. Meistens ist natürlich "drei mal drei" erforderlich, aber ich empfehle trotzdem dringend, eine einfachere Aufgabe zu studieren, um das allgemeine Prinzip der Lösung zu lernen.

Beispiel:

Finden Sie die Inverse einer Matrix

Wir entscheiden. Die Abfolge von Aktionen wird bequem in Punkte zerlegt.

1) Zuerst finden wir die Determinante der Matrix.

Wenn das Verständnis dieser Aktion nicht gut ist, lesen Sie das Material Wie berechnet man die Determinante?

Wichtig! Wenn die Determinante der Matrix ist NULL– inverse Matrix EXISTIERT NICHT.

Im betrachteten Beispiel, wie sich herausstellte, , was bedeutet, dass alles in Ordnung ist.

2) Finden Sie die Matrix der Minderjährigen.

Um unser Problem zu lösen, ist es nicht erforderlich zu wissen, was ein Minderjähriger ist, es ist jedoch ratsam, den Artikel zu lesen Wie man die Determinante berechnet.

Die Matrix der Minoren hat die gleichen Dimensionen wie die Matrix , also in diesem Fall .
Der Fall ist klein, es bleiben vier Zahlen zu finden und sie anstelle von Sternchen zu setzen.

Zurück zu unserer Matrix
Schauen wir uns zuerst das obere linke Element an:

So finden Sie es unerheblich?
Und das geht so: Streiche im GEIST die Zeile und Spalte durch, in der sich dieses Element befindet:

Die verbleibende Zahl ist Minor des gegebenen Elements, die wir in unsere Minderjährigenmatrix schreiben:

Betrachten Sie das folgende Matrixelement:

Streichen Sie gedanklich die Zeile und Spalte durch, in der sich dieses Element befindet:

Was bleibt, ist der Moll dieses Elements, den wir in unsere Matrix schreiben:

In ähnlicher Weise betrachten wir die Elemente der zweiten Reihe und finden ihre Minoren:


Bereit.

Das ist einfach. In der Matrix der Minderjährigen brauchen Sie ZEICHEN ÄNDERN für zwei Zahlen:

Es sind diese Zahlen, die ich eingekreist habe!

ist die Matrix der algebraischen Komplemente der entsprechenden Elemente der Matrix.

Und nur etwas …

4) Finden Sie die transponierte Matrix der algebraischen Additionen.

ist die transponierte Matrix algebraischer Komplemente der entsprechenden Elemente der Matrix.

5) Antwort.

Denken Sie an unsere Formel
Alles gefunden!

Die inverse Matrix lautet also:

Es ist am besten, die Antwort so zu lassen, wie sie ist. NICHT NÖTIG Teilen Sie jedes Element der Matrix durch 2, da Bruchzahlen erhalten werden. Diese Nuance wird im selben Artikel ausführlicher besprochen. Aktionen mit Matrizen.

Wie überprüfe ich die Lösung?

Es muss auch eine Matrixmultiplikation durchgeführt werden

Untersuchung:

schon erwähnt Identitätsmatrix ist eine Matrix mit eingeschalteten Einheiten Hauptdiagonale und Nullen an anderer Stelle.

Somit wird die inverse Matrix korrekt gefunden.

Wenn Sie eine Aktion ausführen, ist das Ergebnis ebenfalls eine Identitätsmatrix. Dies ist einer der wenigen Fälle, in denen die Matrixmultiplikation permutierbar ist, weitere Informationen finden Sie im Artikel Eigenschaften von Operationen auf Matrizen. Matrixausdrücke. Beachten Sie auch, dass bei der Prüfung die Konstante (Bruch) vorgezogen und ganz am Ende – nach der Matrixmultiplikation – verarbeitet wird. Dies ist eine Standardaufnahme.

Kommen wir zu einem in der Praxis häufigeren Fall - der Drei-mal-Drei-Matrix:

Beispiel:

Finden Sie die Inverse einer Matrix

Der Algorithmus ist genau derselbe wie für den Zwei-mal-Zwei-Fall.

Wir finden die inverse Matrix durch die Formel: , wobei die transponierte Matrix der algebraischen Komplemente der entsprechenden Elemente der Matrix ist .

1) Finden Sie die Matrixdeterminante.


Hier offenbart sich die Determinante auf der ersten Zeile.

Vergiss das auch nicht, was bedeutet, dass alles in Ordnung ist - inverse Matrix existiert.

2) Finden Sie die Matrix der Minderjährigen.

Die Matrix der Minderjährigen hat die Dimension „drei mal drei“ , und wir müssen neun Zahlen finden.

Ich werde mir ein paar Minderjährige im Detail ansehen:

Betrachten Sie das folgende Matrixelement:

Streichen Sie im Geiste die Zeile und Spalte durch, in der sich dieses Element befindet:

Die restlichen vier Zahlen werden in der Determinante „zwei mal zwei“ geschrieben

Diese Zwei-mal-Zwei-Determinante und ist ein Minor des gegebenen Elements. Es muss gerechnet werden:


Alles, was das Minor findet, schreiben wir in unsere Minor-Matrix:

Wie Sie vielleicht erraten haben, müssen neun zwei mal zwei Determinanten berechnet werden. Der Prozess ist natürlich trostlos, aber der Fall ist nicht der schwierigste, er kann schlimmer sein.

Nun, um zu konsolidieren - einen anderen Minderjährigen in den Bildern zu finden:

Versuchen Sie, den Rest der Minderjährigen selbst zu berechnen.

Endergebnis:
ist die Matrix der Minderjährigen der entsprechenden Elemente der Matrix .

Dass alle Minderjährigen negativ ausgefallen sind, ist reiner Zufall.

3) Finden Sie die Matrix der algebraischen Additionen.

In der Matrix der Minderjährigen ist es notwendig ZEICHEN ÄNDERN ausschließlich für die folgenden Elemente:

In diesem Fall:

Das Finden der inversen Matrix für die Matrix „vier mal vier“ wird nicht berücksichtigt, da nur ein sadistischer Lehrer eine solche Aufgabe stellen kann (damit der Schüler eine Determinante „vier mal vier“ und 16 Determinanten „drei mal drei“ berechnet) . In meiner Praxis gab es nur einen solchen Fall, und der Kunde des Tests bezahlte meine Qual ziemlich teuer =).

In einer Reihe von Lehrbüchern und Handbüchern finden Sie einen etwas anderen Ansatz zum Auffinden der inversen Matrix, aber ich empfehle die Verwendung des obigen Lösungsalgorithmus. Wieso den? Denn die Wahrscheinlichkeit, bei Berechnungen und Vorzeichen durcheinander zu kommen, ist viel geringer.

Dieses Thema ist eines der am meisten gehassten unter Studenten. Schlimmer noch, wahrscheinlich nur Determinanten.

Der Trick besteht darin, dass das eigentliche Konzept des inversen Elements (und ich spreche jetzt nicht nur von Matrizen) uns auf die Operation der Multiplikation verweist. Selbst im Schullehrplan wird die Multiplikation als komplexe Operation betrachtet, und die Matrizenmultiplikation ist im Allgemeinen ein separates Thema, dem ich einen ganzen Absatz und eine Videolektion gewidmet habe.

Auf die Details der Matrizenrechnung gehen wir heute nicht ein. Denken Sie nur daran, wie Matrizen bezeichnet werden, wie sie multipliziert werden und was daraus folgt.

Rezension: Matrixmultiplikation

Zunächst einmal einigen wir uns auf die Notation. Eine Matrix $A$ der Größe $\left[ m\times n \right]$ ist einfach eine Zahlentabelle mit genau $m$ Zeilen und $n$ Spalten:

\=\underbrace(\left[ \begin(matrix) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrix) \right])_(n)\]

Um nicht versehentlich Zeilen und Spalten an einigen Stellen zu verwechseln (glauben Sie mir, in der Prüfung kann man eine mit einer Zwei verwechseln - was sollen wir da zu einigen Zeilen sagen), werfen Sie einfach einen Blick auf das Bild:

Bestimmung von Indizes für Matrixzellen

Was ist los? Wenn wir das Standard-Koordinatensystem $OXY$ in die obere linke Ecke legen und die Achsen so richten, dass sie die gesamte Matrix abdecken, dann kann jede Zelle dieser Matrix eindeutig den Koordinaten $\left(x;y \right) zugeordnet werden. $ - dies ist die Zeilennummer und die Spaltennummer.

Warum ist das Koordinatensystem genau in der oberen linken Ecke platziert? Ja, denn von dort aus beginnen wir alle Texte zu lesen. Es ist sehr leicht zu merken.

Warum zeigt die $x$-Achse nach unten und nicht nach rechts? Auch hier ist es einfach: Nehmen Sie das Standardkoordinatensystem (die $x$-Achse geht nach rechts, die $y$-Achse geht nach oben) und drehen Sie es so, dass es die Matrix umschließt. Dies ist eine Drehung um 90 Grad im Uhrzeigersinn – wir sehen das Ergebnis im Bild.

Im Allgemeinen haben wir herausgefunden, wie die Indizes der Matrixelemente bestimmt werden. Kommen wir nun zur Multiplikation.

Definition. Die Matrizen $A=\left[ m\times n \right]$ und $B=\left[ n\times k \right]$, wenn die Anzahl der Spalten in der ersten mit der Anzahl der Zeilen in der zweiten übereinstimmt, sind konsequent genannt.

Es ist in dieser Reihenfolge. Man kann zweideutig sagen, dass die Matrizen $A$ und $B$ ein geordnetes Paar $\left(A;B \right)$ bilden: Wenn sie in dieser Reihenfolge konsistent sind, dann ist es überhaupt nicht notwendig, dass $B $ und $A$, die. das Paar $\left(B;A \right)$ ist ebenfalls konsistent.

Nur konsistente Matrizen können multipliziert werden.

Definition. Das Produkt der konsistenten Matrizen $A=\left[ m\times n \right]$ und $B=\left[ n\times k \right]$ ist die neue Matrix $C=\left[ m\times k \right ]$ , deren Elemente $((c)_(ij))$ nach folgender Formel berechnet werden:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Mit anderen Worten: Um das Element $((c)_(ij))$ der Matrix $C=A\cdot B$ zu erhalten, müssen Sie die $i$-Zeile der ersten Matrix, die $j$, nehmen -te Spalte der zweiten Matrix, und dann paarweise Elemente aus dieser Zeile und Spalte multiplizieren. Addieren Sie die Ergebnisse.

Ja, das ist eine harte Definition. Daraus ergeben sich unmittelbar mehrere Tatsachen:

  1. Die Matrixmultiplikation ist im Allgemeinen nicht kommutativ: $A\cdot B\ne B\cdot A$;
  2. Die Multiplikation ist jedoch assoziativ: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. Und sogar distributiv: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Und wieder distributiv: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

Die Distributivität der Multiplikation musste wegen der Nichtkommutativität der Multiplikationsoperation für linke und rechte Multiplikatorsumme getrennt beschrieben werden.

Stellt sich dennoch heraus, dass $A\cdot B=B\cdot A$, so heißen solche Matrizen permutierbar.

Unter all den Matrizen, die dort mit etwas multipliziert werden, gibt es spezielle - solche, die, wenn sie mit einer beliebigen Matrix $A$ multipliziert werden, wieder $A$ ergeben:

Definition. Eine Matrix $E$ heißt Identität, wenn $A\cdot E=A$ oder $E\cdot A=A$. Im Fall einer quadratischen Matrix $A$ können wir schreiben:

Die Einheitsmatrix ist ein häufiger Gast beim Lösen von Matrixgleichungen. Und im Allgemeinen ein häufiger Gast in der Welt der Matrizen. :)

Und deswegen $E$ hat sich jemand das ganze Spiel ausgedacht, das als nächstes geschrieben wird.

Was ist eine inverse matrix

Da die Matrizenmultiplikation eine sehr zeitaufwändige Operation ist (Sie müssen eine Reihe von Zeilen und Spalten multiplizieren), ist das Konzept einer inversen Matrix auch nicht das trivialste. Und es braucht eine Erklärung.

Schlüsseldefinition

Nun, es ist Zeit, die Wahrheit zu erfahren.

Definition. Die Matrix $B$ heißt die Inverse der Matrix $A$ wenn

Die inverse Matrix wird mit $((A)^(-1))$ bezeichnet (nicht zu verwechseln mit dem Grad!), die Definition lässt sich also folgendermaßen umschreiben:

Es scheint, dass alles sehr einfach und klar ist. Bei der Analyse einer solchen Definition stellen sich jedoch sofort mehrere Fragen:

  1. Existiert immer eine inverse Matrix? Und wenn nicht immer, wie kann man dann feststellen, wann es existiert und wann nicht?
  2. Und wer hat gesagt, dass eine solche Matrix genau eine ist? Was ist, wenn es für eine ursprüngliche Matrix $A$ eine ganze Menge Inverser gibt?
  3. Wie sehen all diese "Umkehrungen" aus? Und wie zählt man sie eigentlich?

Was die Berechnungsalgorithmen betrifft - wir werden etwas später darüber sprechen. Aber den Rest der Fragen werden wir gleich beantworten. Ordnen wir sie in Form von separaten Assertions-Lemmata an.

Grundeigenschaften

Beginnen wir damit, wie die Matrix $A$ aussehen sollte, damit sie $((A)^(-1))$ hat. Jetzt stellen wir sicher, dass diese beiden Matrizen quadratisch und gleich groß sein müssen: $\left[ n\times n \right]$.

Lemma 1. Gegeben sei eine Matrix $A$ und ihre Inverse $((A)^(-1))$. Dann sind diese beiden Matrizen quadratisch und haben dieselbe Ordnung $n$.

Nachweisen. Alles ist einfach. Sei die Matrix $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Da das Produkt $A\cdot ((A)^(-1))=E$ per Definition existiert, sind die Matrizen $A$ und $((A)^(-1))$ in dieser Reihenfolge konsistent:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( ausrichten)\]

Dies ist eine direkte Folge des Matrixmultiplikationsalgorithmus: Die Koeffizienten $n$ und $a$ sind "transit" und müssen gleich sein.

Gleichzeitig ist auch die inverse Multiplikation definiert: $((A)^(-1))\cdot A=E$, also die Matrizen $((A)^(-1))$ und $A$ auch konsistent in dieser Reihenfolge:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( ausrichten)\]

Daher können wir ohne Beschränkung der Allgemeinheit annehmen, dass $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. Allerdings sind nach der Definition von $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$ die Dimensionen der Matrizen exakt gleich:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Es stellt sich also heraus, dass alle drei Matrizen - $A$, $((A)^(-1))$ und $E$ - quadratisch sind $\left[ n\times n \right]$. Das Lemma ist bewiesen.

Nun, das ist schon gut. Wir sehen, dass nur quadratische Matrizen invertierbar sind. Stellen wir nun sicher, dass die inverse Matrix immer gleich ist.

Lemma 2. Gegeben sei eine Matrix $A$ und ihre Inverse $((A)^(-1))$. Dann ist diese inverse Matrix eindeutig.

Nachweisen. Beginnen wir mit dem Gegenteil: Die Matrix $A$ soll mindestens zwei Instanzen von Inversen haben – $B$ und $C$. Dann gelten laut Definition die folgenden Gleichungen:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(align)\]

Aus Lemma 1 schließen wir, dass alle vier Matrizen $A$, $B$, $C$ und $E$ Quadrate der gleichen Ordnung sind: $\left[ n\times n \right]$. Daher ist das Produkt definiert:

Da die Matrizenmultiplikation assoziativ (aber nicht kommutativ!) ist, können wir schreiben:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Rechtspfeil B=C. \\ \end(align)\]

Wir haben die einzig mögliche Option: Zwei Kopien der inversen Matrix sind gleich. Das Lemma ist bewiesen.

Die obige Argumentation wiederholt fast wörtlich den Beweis der Eindeutigkeit des inversen Elements für alle reellen Zahlen $b\ne 0$. Die einzige wesentliche Ergänzung ist die Berücksichtigung der Dimension von Matrizen.

Wir wissen jedoch immer noch nichts darüber, ob eine quadratische Matrix invertierbar ist. Hier kommt uns die Determinante zu Hilfe – sie ist ein wesentliches Merkmal aller quadratischen Matrizen.

Lemma 3 . Gegeben sei eine Matrix $A$. Wenn die dazu inverse Matrix $((A)^(-1))$ existiert, dann ist die Determinante der ursprünglichen Matrix ungleich Null:

\[\links| A \right|\ne 0\]

Nachweisen. Wir wissen bereits, dass $A$ und $((A)^(-1))$ quadratische Matrizen der Größe $\left[ n\times n \right]$ sind. Daher ist es möglich, für jede von ihnen die Determinante zu berechnen: $\left| Ein \right|$ und $\left| ((A)^(-1)) \right|$. Die Determinante des Produkts ist jedoch gleich dem Produkt der Determinanten:

\[\links| A\cdot B \right|=\left| Ein \right|\cdot \left| B \rechts|\Rechtspfeil \links| A\cdot ((A)^(-1)) \right|=\left| Ein \right|\cdot \left| ((A)^(-1)) \right|\]

Aber nach der Definition von $A\cdot ((A)^(-1))=E$, und die Determinante von $E$ ist immer gleich 1, also

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \links| A\cdot ((A)^(-1)) \right|=\left| E\right|; \\ & \links| Ein \right|\cdot \left| ((A)^(-1)) \right|=1. \\ \end(align)\]

Das Produkt zweier Zahlen ist nur dann gleich eins, wenn jede dieser Zahlen von Null verschieden ist:

\[\links| A \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Es stellt sich also heraus, dass $\left| Ein \right|\ne 0$. Das Lemma ist bewiesen.

Eigentlich ist diese Forderung ganz logisch. Wir analysieren nun den Algorithmus zum Auffinden der inversen Matrix – und es wird völlig klar, warum es im Prinzip keine inverse Matrix mit Nulldeterminante geben kann.

Aber zuerst formulieren wir eine „Hilfs“-Definition:

Definition. Eine entartete Matrix ist eine quadratische Matrix der Größe $\left[ n\times n \right]$, deren Determinante Null ist.

Somit können wir behaupten, dass jede invertierbare Matrix nicht entartet ist.

So finden Sie die inverse Matrix

Nun betrachten wir einen universellen Algorithmus zum Auffinden inverser Matrizen. Im Allgemeinen gibt es zwei allgemein akzeptierte Algorithmen, und wir werden heute auch den zweiten betrachten.

Die jetzt betrachtete ist sehr effizient für Matrizen der Größe $\left[ 2\times 2 \right]$ und - teilweise - der Größe $\left[ 3\times 3 \right]$. Aber ab der Größe $\left[ 4\times 4 \right]$ sollte man besser darauf verzichten. Warum - jetzt werden Sie alles verstehen.

Algebraische Additionen

Sich fertig machen. Jetzt wird es Schmerzen geben. Nein, keine Sorge: Eine schöne Krankenschwester in einem Rock, Strümpfe mit Spitze kommt nicht zu Ihnen und wird Ihnen keine Spritze in den Po geben. Alles ist viel prosaischer: Algebraische Additionen und Ihre Majestät die "Union Matrix" kommen zu Ihnen.

Beginnen wir mit dem wichtigsten. Gegeben sei eine quadratische Matrix der Größe $A=\left[ n\times n \right]$, deren Elemente $((a)_(ij))$ heißen. Dann kann man für jedes solche Element ein algebraisches Komplement definieren:

Definition. Algebraisches Komplement $((A)_(ij))$ zum Element $((a)_(ij))$ in der $i$-ten Zeile und $j$-ten Spalte der Matrix $A=\left [ n \times n \right]$ ist eine Konstruktion der Form

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Wobei $M_(ij)^(*)$ die Determinante der Matrix ist, die aus dem ursprünglichen $A$ durch Löschen derselben $i$-ten Zeile und $j$-ten Spalte erhalten wird.

Noch einmal. Das algebraische Komplement zum Matrixelement mit den Koordinaten $\left(i;j \right)$ wird mit $((A)_(ij))$ bezeichnet und nach folgendem Schema berechnet:

  1. Zuerst löschen wir die $i$-Zeile und die $j$-te Spalte aus der ursprünglichen Matrix. Wir erhalten eine neue quadratische Matrix und bezeichnen ihre Determinante als $M_(ij)^(*)$.
  2. Dann multiplizieren wir diese Determinante mit $((\left(-1 \right))^(i+j))$ - dieser Ausdruck mag zunächst umwerfend erscheinen, aber tatsächlich finden wir nur das Vorzeichen vor $ heraus M_(ij)^(*) $.
  3. Wir zählen - wir bekommen eine bestimmte Zahl. Diese. die algebraische Addition ist nur eine Zahl, keine neue Matrix und so weiter.

Die Matrix $M_(ij)^(*)$ selbst heißt komplementärer Minor zum Element $((a)_(ij))$. Und in diesem Sinne ist die obige Definition eines algebraischen Komplements ein Spezialfall einer komplexeren Definition – derjenigen, die wir in der Lektion über die Determinante betrachtet haben.

Wichtiger Hinweis. Tatsächlich werden in der "erwachsenen" Mathematik algebraische Additionen wie folgt definiert:

  1. Wir nehmen $k$ Zeilen und $k$ Spalten in einer quadratischen Matrix. An ihrem Schnittpunkt erhalten wir eine Matrix der Größe $\left[ k\times k \right]$ — ihre Determinante heißt Minor der Ordnung $k$ und wird mit $((M)_(k))$ bezeichnet.
  2. Dann streichen wir diese "ausgewählten" $k$-Zeilen und $k$-Spalten durch. Wieder erhalten wir eine quadratische Matrix - ihre Determinante heißt komplementärer Minor und wird mit $M_(k)^(*)$ bezeichnet.
  3. Multiplizieren Sie $M_(k)^(*)$ mit $((\left(-1 \right))^(t))$, wobei $t$ (Achtung jetzt!) die Summe der Zahlen aller ausgewählten Zeilen ist und Spalten. Dies wird die algebraische Addition sein.

Schauen Sie sich den dritten Schritt an: Es gibt tatsächlich eine Summe von 2.000 $ Begriffen! Eine andere Sache ist, dass wir für $k=1$ nur 2 Terme bekommen - das sind die gleichen $i+j$ - die "Koordinaten" des Elements $((a)_(ij))$, für das wir sind Suche nach einem algebraischen Komplement.

Deshalb verwenden wir heute eine leicht vereinfachte Definition. Aber wie wir später sehen werden, wird es mehr als genug sein. Viel wichtiger ist folgendes:

Definition. Die Vereinigungsmatrix $S$ zur quadratischen Matrix $A=\left[ n\times n \right]$ ist eine neue Matrix der Größe $\left[ n\times n \right]$, die aus $A$ gewonnen wird durch Ersetzen von $((a)_(ij))$ durch algebraische Komplemente $((A)_(ij))$:

\\Rightarrow S=\left[ \begin(matrix) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matrix) \right]\]

Der erste Gedanke, der beim Erkennen dieser Definition aufkommt, ist „so viel muss man insgesamt zählen!“ Entspannen Sie sich: Sie müssen zählen, aber nicht so viel. :)

Nun, das ist alles sehr schön, aber warum ist es notwendig? Aber wieso.

Hauptsatz

Gehen wir ein wenig zurück. Denken Sie daran, Lemma 3 besagt, dass eine invertierbare Matrix $A$ immer nichtsingulär ist (das heißt, ihre Determinante ist nicht Null: $\left| A \right|\ne 0$).

Also gilt auch die Umkehrung: Wenn die Matrix $A$ nicht entartet ist, dann ist sie immer invertierbar. Und es gibt sogar ein Suchschema $((A)^(-1))$. Hör zu:

Inverser Matrixsatz. Gegeben sei eine quadratische Matrix $A=\left[ n\times n \right]$, deren Determinante nicht Null ist: $\left| Ein \right|\ne 0$. Dann existiert die inverse Matrix $((A)^(-1))$ und wird nach folgender Formel berechnet:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))\]

Und jetzt - egal, aber in lesbarer Handschrift. Um die inverse Matrix zu finden, benötigen Sie:

  1. Berechnen Sie die Determinante $\left| Ein \right|$ und stellen Sie sicher, dass es nicht Null ist.
  2. Kompilieren Sie die Vereinigungsmatrix $S$, d.h. zähle 100500 algebraische Additionen $((A)_(ij))$ und setze sie ein $((a)_(ij))$.
  3. Transponiere diese Matrix $S$ und multipliziere sie dann mit einer Zahl $q=(1)/(\left| A \right|)\;$.

Und alle! Die inverse Matrix $((A)^(-1))$ wird gefunden. Schauen wir uns Beispiele an:

\[\left[ \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right]\]

Lösung. Prüfen wir die Reversibilität. Lassen Sie uns die Determinante berechnen:

\[\links| A \rechts|=\links| \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right|=3\cdot 2-1\cdot 5=6-5=1\]

Die Determinante ist von Null verschieden. Die Matrix ist also invertierbar. Lassen Sie uns eine Vereinigungsmatrix erstellen:

Lassen Sie uns die algebraischen Additionen berechnen:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2\right|=2; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5\right|=-5; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \right|=-1; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\rechts|=3. \\ \end(align)\]

Achtung: Determinanten |2|, |5|, |1| und |3| sind die Determinanten von Matrizen der Größe $\left[ 1\times 1 \right]$, nicht von Modulen. Diese. Wenn es negative Zahlen in den Determinanten gab, ist es nicht notwendig, das "Minus" zu entfernen.

Insgesamt sieht unsere Gewerkschaftsmatrix so aus:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]\]

OK, jetzt ist alles vorbei. Problem gelöst.

Antworten. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Eine Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Lösung. Wieder betrachten wir die Determinante:

\[\begin(align) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrix ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrix)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

Die Determinante ist von Null verschieden – die Matrix ist invertierbar. Aber jetzt wird es am blechernsten: Sie müssen bis zu 9 (neun, verdammt noch mal!) algebraische Additionen zählen. Und jeder von ihnen enthält den Qualifizierer $\left[ 2\times 2 \right]$. Geflogen:

\[\begin(matrix) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matrix) 2 & -1 \\ 0 & 1 \\\end(matrix) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matrix) 0 & -1 \\ 1 & 1 \\\end(matrix) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matrix) 0 & 2 \\ 1 & 0 \\\end(matrix) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matrix) 1 & -1 \\ 0 & 2 \\\end(matrix) \right|=2; \\ \end(matrix)\]

Kurz gesagt, die Vereinigungsmatrix sieht folgendermaßen aus:

Daher lautet die inverse Matrix:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matrix) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrix) \right]=\left[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \ 2 & 1 & -2 \\\end(array) \right]\]

Nun, das ist alles. Hier ist die Antwort.

Antworten. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Wie Sie sehen können, haben wir am Ende jedes Beispiels eine Überprüfung durchgeführt. In diesem Zusammenhang ein wichtiger Hinweis:

Seien Sie nicht faul, dies zu überprüfen. Multiplizieren Sie die ursprüngliche Matrix mit der gefundenen Inversen - Sie sollten $E$ erhalten.

Diese Überprüfung ist viel einfacher und schneller durchzuführen, als in weiteren Berechnungen nach einem Fehler zu suchen, wenn Sie beispielsweise eine Matrixgleichung lösen.

Alternativer Weg

Wie gesagt, der inverse Matrixsatz funktioniert gut für die Größen $\left[ 2\times 2 \right]$ und $\left[ 3\times 3 \right]$ (im letzteren Fall ist es nicht so "schön" mehr). “), aber für große Matrizen beginnt die Traurigkeit.

Aber keine Sorge: Es gibt einen alternativen Algorithmus, mit dem man auch für die $\left[ 10\times 10 \right]$-Matrix ruhig die Inverse finden kann. Aber wie es oft der Fall ist, um diesen Algorithmus zu betrachten, brauchen wir ein wenig theoretischen Hintergrund.

Elementare Transformationen

Unter den verschiedenen Transformationen der Matrix gibt es einige spezielle - sie werden elementar genannt. Es gibt genau drei solche Transformationen:

  1. Multiplikation. Sie können die $i$-te Zeile (Spalte) nehmen und mit einer beliebigen Zahl $k\ne 0$ multiplizieren;
  2. Zusatz. Addieren Sie zur $i$-ten Zeile (Spalte) eine beliebige andere $j$-te Zeile (Spalte) multipliziert mit einer beliebigen Zahl $k\ne 0$ (natürlich ist auch $k=0$ möglich, aber was soll das? Daran wird sich nichts ändern).
  3. Permutation. Nehmen Sie die $i$-ten und $j$-ten Zeilen (Spalten) und vertauschen Sie sie.

Warum diese Transformationen elementar genannt werden (bei großen Matrizen sehen sie nicht so elementar aus) und warum es nur drei davon gibt – diese Fragen sprengen den Rahmen der heutigen Lektion. Daher gehen wir nicht ins Detail.

Eine andere Sache ist wichtig: Wir müssen all diese Perversionen auf der zugehörigen Matrix durchführen. Ja, ja, Sie haben richtig gehört. Jetzt wird es eine weitere Definition geben – die letzte in der heutigen Lektion.

Angehängte Matrix

Sicherlich hast du in der Schule Gleichungssysteme mit der Additionsmethode gelöst. Also, subtrahieren Sie eine weitere Zeile von einer Zeile, multiplizieren Sie eine Zeile mit einer Zahl - das ist alles.

Also: jetzt wird alles beim Alten, aber schon „auf erwachsene Art“. Bereit?

Definition. Gegeben sei die Matrix $A=\left[ n\times n \right]$ und die Einheitsmatrix $E$ gleicher Größe $n$. Dann die zugehörige Matrix $\left[ A\left| E\richtig. \right]$ ist eine neue $\left[ n\times 2n \right]$-Matrix, die so aussieht:

\[\links[ A\links| E\richtig. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Kurz gesagt, wir nehmen die Matrix $A$, rechts weisen wir ihr die Identitätsmatrix $E$ der erforderlichen Größe zu, wir trennen sie mit einem vertikalen Balken für die Schönheit - hier ist der Anhang. :)

Was ist der Haken? Und hier ist was:

Satz. Die Matrix $A$ sei invertierbar. Betrachten Sie die adjungierte Matrix $\left[ A\left| E\richtig. \rechts]$. Bei Verwendung elementare Zeichenfolgentransformationen bringen Sie es in die Form $\left[ E\left| Hell. \right]$, d.h. durch Multiplizieren, Subtrahieren und Neuanordnen von Zeilen, um aus $A$ die Matrix $E$ rechts zu erhalten, dann ist die links erhaltene Matrix $B$ die Inverse von $A$:

\[\links[ A\links| E\richtig. \right]\nach \left[ E\left| Hell. \right]\Rightarrow B=((A)^(-1))\]

So einfach ist das! Kurz gesagt, der Algorithmus zum Finden der inversen Matrix sieht folgendermaßen aus:

  1. Schreiben Sie die zugehörige Matrix $\left[ A\left| E\richtig. \right]$;
  2. Führen Sie elementare String-Konvertierungen durch, bis anstelle von $A$ rechts $E$ erscheint;
  3. Natürlich erscheint auch links etwas - eine bestimmte Matrix $B$. Dies wird umgekehrt sein;
  4. PROFITE! :)

Natürlich viel leichter gesagt als getan. Schauen wir uns also ein paar Beispiele an: für die Größen $\left[ 3\times 3 \right]$ und $\left[ 4\times 4 \right]$.

Eine Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Lösung. Wir erstellen die beigefügte Matrix:

\[\left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Da die letzte Spalte der ursprünglichen Matrix mit Einsen gefüllt ist, subtrahieren Sie die erste Zeile vom Rest:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Außer der ersten Zeile gibt es keine Einheiten mehr. Aber wir berühren es nicht, sonst beginnen sich die neu entfernten Einheiten in der dritten Spalte zu "vermehren".

Aber wir können die zweite Zeile zweimal von der letzten subtrahieren - wir erhalten eine Einheit in der unteren linken Ecke:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Jetzt können wir die letzte Zeile von der ersten und zweimal von der zweiten subtrahieren – auf diese Weise „nullen“ wir die erste Spalte:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ bis \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplizieren Sie die zweite Zeile mit −1 und subtrahieren Sie sie dann 6 Mal von der ersten und addieren Sie 1 Mal zur letzten:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (Matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Es bleibt nur, die Zeilen 1 und 3 zu vertauschen:

\[\left[ \begin(array)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Bereit! Rechts ist die benötigte inverse Matrix.

Antworten. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Eine Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(matrix) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matrix) \right]\]

Lösung. Wieder verfassen wir das beigefügte:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Lassen Sie uns ein wenig leihen, uns Gedanken darüber machen, wie viel wir jetzt zählen müssen ... und anfangen zu zählen. Zunächst „nullen“ wir die erste Spalte, indem wir Zeile 1 von den Zeilen 2 und 3 subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Wir beobachten zu viele "Minuspunkte" in den Zeilen 2-4. Multiplizieren Sie alle drei Zeilen mit −1 und brennen Sie dann die dritte Spalte aus, indem Sie Zeile 3 vom Rest subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \links| \cdot \left(-1 \right) \right. \\ \links| \cdot \left(-1 \right) \right. \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (array) \right]\begin(matrix) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrix)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Jetzt ist es Zeit, die letzte Spalte der ursprünglichen Matrix zu "braten": Subtrahieren Sie Zeile 4 vom Rest:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrix) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Letzter Wurf: "brennen" Sie die zweite Spalte aus, indem Sie Zeile 2 von Zeile 1 und 3 subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( array) \right]\begin(matrix) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Und wieder die Identitätsmatrix links, also die Inverse rechts. :)

Antworten. $\left[ \begin(matrix) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matrix) \right]$

OK, jetzt ist alles vorbei. Mach den Check selbst - ich bin verschrottet. :)

Betrachten Sie eine quadratische Matrix. Bezeichnen Sie mit Δ = det A seine Determinante. Ein Quadrat B ist (OM) für ein Quadrat A derselben Ordnung, wenn ihr Produkt A*B = B*A = E ist, wobei E die Identitätsmatrix derselben Ordnung wie A und B ist.

Ein Quadrat A heißt nicht entartet oder nicht singulär, wenn seine Determinante nicht Null ist, und entartet oder speziell, wenn Δ = 0.

Satz. Damit A eine Inverse hat, ist es notwendig und ausreichend, dass seine Determinante von Null verschieden ist.

(OM) A, bezeichnet mit A -1, so dass B \u003d A -1 und nach der Formel berechnet wird

, (1)

wo А i j - algebraische Komplemente der Elemente a i j , Δ = detA.

Die Berechnung von A –1 nach Formel (1) für Matrizen höherer Ordnung ist sehr mühsam, daher ist es in der Praxis bequem, A –1 unter Verwendung der Methode der elementaren Transformationen (EP) zu finden. Jedes nicht-singuläre A mittels EP von nur Spalten (oder nur Zeilen) kann auf Einheit E reduziert werden. Wenn EPs, die über der Matrix A durchgeführt werden, in der gleichen Reihenfolge auf Einheit E angewendet werden, dann ist das Ergebnis A –1 . Es ist praktisch, einen EP gleichzeitig auf A und E zu spielen, indem Sie beide nebeneinander durch die Linie A|E schreiben. Wenn Sie A -1 finden möchten, sollten Sie nur Zeilen oder nur Spalten in Ihren Konvertierungen verwenden.

Finden der inversen Matrix mit algebraischen Komplementen

Beispiel 1. Zum Finden Sie A -1 .

Lösung. Wir finden zuerst die Determinante A
daher existiert (OM) und wir können es durch die Formel finden: , wobei A i j (i,j=1,2,3) - algebraische Komplemente der Elemente a i j des ursprünglichen A.

Das algebraische Komplement des Elements a ij ist die Determinante oder der Moll M ij . Es wird durch Löschen von Spalte i und Zeile j erhalten. Der Moll wird dann mit (-1) i+j multipliziert, d.h. Aij = (-1)i+jMij

wo .

Finden der inversen Matrix mit elementaren Transformationen

Beispiel 2. Finden Sie mit der Methode der elementaren Transformationen A -1 für: A \u003d.

Lösung. Wir schreiben dem ursprünglichen A rechts eine Einheit derselben Ordnung zu: . Mit Hilfe elementarer Spaltentransformationen reduzieren wir die linke „Hälfte“ auf die Einheit Eins und führen gleichzeitig genau solche Transformationen auf der rechten „Hälfte“ durch.
Vertauschen Sie dazu die erste und zweite Spalte: ~. Wir addieren die erste zur dritten Spalte und die erste multipliziert mit -2 zur zweiten: . Von der ersten Spalte subtrahieren wir die doppelte Sekunde und von der dritten - die zweite multipliziert mit 6; . Fügen wir die dritte Spalte zur ersten und zweiten hinzu: . Multiplizieren Sie die letzte Spalte mit -1: . Die rechts vom vertikalen Balken erhaltene quadratische Tabelle ist das Inverse von A -1. So,
.

Eine inverse Matrix für eine gegebene ist eine solche Matrix, deren Multiplikation mit der ursprünglichen eine Identitätsmatrix ergibt: Eine zwingende und hinreichende Bedingung für das Vorhandensein einer inversen Matrix ist die Ungleichheit der Determinante der ursprünglichen (die impliziert wiederum, dass die Matrix quadratisch sein muss). Wenn die Determinante einer Matrix gleich Null ist, dann heißt sie entartet und eine solche Matrix hat keine Inverse. In der höheren Mathematik sind inverse Matrizen wichtig und werden zur Lösung einer Reihe von Problemen verwendet. Zum Beispiel auf Finden der inversen Matrix ein Matrixverfahren zum Lösen von Gleichungssystemen wird konstruiert. Unsere Serviceseite ermöglicht Matrix inverse online berechnen zwei Methoden: die Gauß-Jordan-Methode und die Verwendung der Matrix algebraischer Additionen. Die erste impliziert eine große Anzahl elementarer Transformationen innerhalb der Matrix, die zweite - die Berechnung der Determinanten und algebraischen Additionen zu allen Elementen. Um die Determinante einer Matrix online zu berechnen, können Sie unseren anderen Service nutzen - Die Determinante einer Matrix online berechnen

.

Finden Sie die inverse Matrix auf der Website

Webseite ermöglicht es Ihnen, zu finden Inverse Matrix online schnell und kostenlos. Auf der Website werden Berechnungen von unserem Service durchgeführt und ein Ergebnis mit einer detaillierten Lösung zum Finden angezeigt inverse Matrix. Der Server gibt immer nur die genaue und richtige Antwort. Per Definition in Aufgaben Inverse Matrix online, ist es notwendig, dass die Determinante Matrizen anders als Null war, sonst Webseite wird die Unmöglichkeit melden, die inverse Matrix zu finden, da die Determinante der ursprünglichen Matrix gleich Null ist. Aufgabe finden inverse Matrix findet sich in vielen Zweigen der Mathematik und ist eines der grundlegendsten Konzepte der Algebra und ein mathematisches Werkzeug in angewandten Problemen. Unabhängig Definition der inversen Matrix erfordert erheblichen Aufwand, viel Zeit, Berechnungen und große Sorgfalt, um nicht einen Ausrutscher oder einen kleinen Fehler in den Berechnungen zu machen. Daher unser Service finden Sie die inverse Matrix online wird Ihre Aufgabe erheblich erleichtern und zu einem unverzichtbaren Werkzeug zur Lösung mathematischer Probleme werden. Sogar, wenn du Inverse Matrix finden selbst, wir empfehlen Ihnen, Ihre Lösung auf unserem Server zu überprüfen. Geben Sie Ihre ursprüngliche Matrix in unserem Calculate Inverse Matrix Online ein und überprüfen Sie Ihre Antwort. Unser System irrt nie und findet inverse Matrix gegebene Dimension im Modus online sofort! Auf der Seite Webseite Zeicheneingaben sind in Elementen erlaubt Matrizen, in diesem Fall Inverse Matrix online wird in allgemeiner symbolischer Form dargestellt.