Metodo di eliminazione di Gauss
Cos’è il metodo di eliminazione di Gauss?
Il metodo di eliminazione di Gauss serve principalmente a ridurre a scalini una matrice di qualsiasi dimensione. Cos’è una matrice a scalini? Una matrice si definisce a scalini quando il primo termine non nullo di una riga sta più a destra del primo termine non nullo della riga precedente; questi “primi termini” vengono definiti pivot. Per rendere meglio l’idea, basta immaginare una matrice con soli termini nulli al di sotto della diagonale principale. Lo scopo del metodo è quello di calcolare più facilmente il determinante (nel caso di matrice quadrata di grandi dimensioni), di valutare in maniera semplice la dipendenza lineare (o l’indipendenza) delle righe di una matrice o di calcolare le soluzioni di un sistema lineare. Vediamo in cosa consiste.
Sia data una matrice di dimensioni m x n. Il metodo di eliminazione si divide in tre passi:
- Se il primo elemento della prima riga è nullo bisogna scambiarla con una riga che ha il primo elemento non nullo. Se tutte le righe hanno il primo elemento nullo, si procede dal passo 3;
- Considerata ogni riga con primo elemento diverso da zero (fatta eccezione per la prima) si moltiplica la prima riga per un coefficiente tale che la somma tra la prima riga (moltiplicata per il coefficiente trovato) e la riga in esame abbia primo elemento nullo (il coefficiente è quindi − A_i1 / A_11, dove i1 e 11 sono gli indici di riga e colonna); quindi si sostituisce la riga in esame con quella ricavata dalla somma.
- Tutte le righe, tranne eventualmente la prima, hanno primo elemento nullo; si considera dunque la sottomatrice che si ottiene cancellando prima riga e prima colonna e si riparte dal punto 1 finché non si esauriscono tutte le righe.
Facciamo un esempio. Sia…
\begin{equation}
A=
\begin{array}{cccc}
2 & 5 & 5 & 4 \\
2 & 3 & 2 & 2 \\
3 & 5 & 4 & 3
\end{array}
\overset{R_{2} = R_{2} – R_{1}}{\rightarrow}
\begin{array}{cccc}
2 & 5 & 5 & 4 \\
0 & -2 & -3 & -2 \\
3 & 5 & 4 & 3
\end{array}
\end{equation}
\begin{equation}
\overset{R_{3} = R_{3} – \frac{3}{2} R_{1}}{\rightarrow}
\begin{array}{cccc}
2 & 5 & 5 & 4 \\
0 & -2 & -3 & -2 \\
0 & -\frac{5}{2} & -\frac{7}{2} & -3
\end{array}
\end{equation}
A questo punto si passa al punto tre. Non essendoci altre righe con primo termine non nullo il pivot diventa -2 nella seconda riga e si ripete l’algoritmo per le righe sottostanti (solo la terza in questo caso). Pertanto…
\begin{equation}
\begin{array}{cccc}
2 & 5 & 5 & 4 \\
0 & -2 & -3 & -2 \\
0 & -\frac{5}{2} & -\frac{7}{2} & -3
\end{array}
\overset{R_{3} = R_{3} – \frac{5}{4} R_{2}}{\rightarrow}
\begin{array}{cccc}
2 & 5 & 5 & 4 \\
0 & -2 & -3 & -2 \\
0 & 0 & \frac{1}{4} & -\frac{1}{2}
\end{array}
\end{equation}
A questo punto l’algoritmo finisce in quanto non vi sono altre righe al di sotto dell’ultimo pivot. Vediamo alcuni utilizzi del metodo:
1. nel caso in cui si voglia studiare la dipendenza lineare tra le righe, ossia tra i vettori che hanno come componenti i coefficienti nelle righe, se si ottiene una riga completamente nulla le righe sono dipendenti, altrimenti indipendenti;
2. se si vuole calcolare il determinante di una matrice quadrata, finito l’algoritmo, basta moltiplicare soltanto i numeri sulla diagonale; bisogna però tenere in mente che ogni cambio di riga equivale ad una moltiplicazione per -1 del risultato finale, per cui il risultato finale va moltiplicato per -1 elevato al numero di cambi fatto.
Immagine via commons.wikimedia.org