2.2. Matrisler

Kayıt Tarihi:

Son Güncelleme:

Özet:

Bu derste matris kavramını tanımlayacağız, daha sonra bu nesneler ile lineer dönüşümlerin nasıl temsil edileceğini tartışacağız. Lineer dönüşümler seçilen baza bağlı olarak bir matris ile temsil edilir.

Anahtar Kelimeler: esas köşegen · köşegen matris · matris · rank · satır rankı · sıfırlık sayısı · sütun rankı

Tanım 2.2.1 (Matris)
Bir $F$ cisminin bir bazı skalerinin \begin{equation} \label{eq:lint:2} \tag{2.2.1} A:=\left[\begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{array}\right] \end{equation} biçiminde dikdörtgensel bir dizisine $F$ üzerinde bir matris denir. $m$ tane satır ve $n$ tane sütundan oluşan böyle bir matris $m\times n$ boyutlu bir matris olarak adlandırılır, $n\times n$ boyutlu bir matrise $n-$inci mertebeden bir kare matris denir. \eqref{eq:lint:2} gibi bir matrisi kısaca $A:=\left[a_{ij}\right]$ olarak gösterilebilir, buradaki $a_{ij}$ ifadesi $i-$nci satır ve $j-$inci sütundaki skaleri gösterir ve bu skalerlere matrisin elemanları denir. Tüm elemanları 0 olan matrise sıfır matris denir ve $0$ ile gösterilir. $t:=\min\{m,n\}$ olmak üzere $\{a_{11}, a_{22},\ldots,a_{tt} \}$ elemanlarına matrisin esas köşegen elemanları denir, esas köşegeni dışındaki tüm elemanları sıfır olan kare matrislere köşegen matris denir.

Uyarı 2.2.2
$U$ ve $V$ aynı $F$ cismi üzerinde sırasıyla $n$ ve $m$ boyutlu iki vektör uzayı, $A:=\{ \alpha_1,\ldots,\alpha_n \}$ ve $B:=\{ \beta_1,\ldots,\beta_m \}$ kümeleri bu uzayların birer bazı olmak üzere $U$'dan $V$'ye tanımlı bir $\sigma$ lineer dönüşümünü ele alalım. Her $\sigma(\alpha_j)\in V$ vektörü \begin{equation} \label{eq:lint:3} \tag{2.2.2} \sigma(\alpha_j) = \sum_{i=1}^{m}a_{ij}\beta_i \end{equation} olarak ifade edilebilir. Buradaki $a_{ij}$ skalerlerinin oluşturduğu $A:=\left[a_{ij}\right]$ matrisine $A$ ve $B$ bazlarına göre $\sigma:A\to B$ dönüşümünü temsil eden matris denir.

Uyarı 2.2.3
Lineer dönüşümler ile matrisler arasındaki Uyarı 2.2.2 ile tarif edilen eşleşme bire bir ve örten bir eşleşmedir, şimdi bunu gösterelim. Bir $\sigma$ lineer dönüşümü verildiğinde $B$ kümesi $V$'yi gerdiğinden \eqref{eq:lint:3} eşitliğindeki $a_{ij}$ katsayıları her zaman vardır, ayrıca $B$ lineer bağımsız olduğundan bu katsayılar tek türlüdür. Sonuç olarak verilen her dönüşüm için tek bir matris karşılık gelir. Diğer yandan $m\times n$ boyutlu bir $A:=\left[a_{ij} \right]$ matrisi verilmiş olsun ve her $\alpha_i\in A$ için $\sigma(\alpha_i):=\sum_{j=1}^{m}a_{ij}\beta_j$ olacak şekilde bir $\sigma$ dönüşümü tanımlansın. Eğer $\xi\in U$ ise ve $\xi=\sum_{j=1}^nx_j\alpha_j$ açılımına sahip ise \begin{equation} \label{eq:lint:4} \tag{2.2.3} \sigma\left(\xi\right) =\sigma\left(\sum_{j=1}^nx_j\alpha_j\right) =\sum_{j=1}^nx_j\sigma(\alpha_j) =\sum_{j=1}^{n}x_j\left(\sum_{i=1}^{m}a_{ij}\beta_i\right) =\sum_{i=1}^{m}\left(\sum_{j=1}^{n}a_{ij}x_j\right)\beta_j \end{equation} olur ve $A$ kümesi $U$ için baz olduğundan buradaki $x_j$ katsayıları tek türlü olur ve bu $\sigma$ lineer dönüşümü tüm $U$ kümesinde tanımlı olacak şekilde genişletilmiş olur. Sonuç olarak verilen her matris için tek bir lineer dönüşüm karşılık gelir.

Örnek 2.2.4
$U=V=\mathbb{R}^2$ ve $A=B=\{(1, 0), (0, 1)\}$ olsun. Saatin tersi yönünde $90^\circ$ döndürme ile $(1,0)$ vektörü $(0,1)$ vektörüne, $(0,1)$ vektörü de $(-1,0)$ vektörüne dönüşür. Şimdi bu işi yapan $\sigma$ lineer dönüşümünü bu bazlara göre temsil eden matrisi belirleyelim. $$\sigma\left((1,0)\right)=(0,1)=0\cdot(1,0)+1\cdot(0,1)\quad\text{ve}\quad\sigma\left((1,0)\right)=(-1,0)=(-1)\cdot(1,0)+0\cdot(0,1)$$ olduklarından bu matris $$\left[\begin{array}{lr}0&-1\\1&0\end{array}\right]$$ olarak bulunur. Dikkat edilirse her bir bazın görüntüsünün koordinatları ayrı bir sütunda belirmektedir.

Daha genel olarak bir vektörü saatin tersi yönünde $\theta$ açısı kadar döndüren bir dönüşüm $(1,0)$ vektörünü $(\cos\theta, \sin\theta)$ vektörüne, $(0,1)$ vektörünü de $(-\sin\theta, \cos\theta)$ vektörüne dönüştürür. Dolayısıyla $$\sigma\left((1,0)\right)=(\cos\theta, \sin\theta)=\cos\theta\cdot(1,0) + \sin\theta\cdot(0,1)$$ ve $$\sigma\left((0,1)\right)=(-\sin\theta, \cos\theta)=-\sin\theta\cdot(1,0)+\cos\theta\cdot(0,1)$$ olup bu dönüşümü bu bazlara göre temsil eden matris $$\left[\begin{array}{lr}\cos\theta&-\sin\theta\\ \sin\theta&\cos\theta\end{array}\right]$$ olur.

Tanım 2.2.5
$U$ ile $V$ uzayları arasında $\sigma$ ve $\tau$ lineer dönüşümleri tanımlı olsun ve bunlar sırasıyla $A:=\left[a_{ij}\right]$ ve $B:=\left[b_{ij}\right]$ matrisleri ile temsil edilsin. $\sigma+\tau$ dönüşümünü temsil eden matris $A$ ile $B$ matrislerinin toplamı olarak adlandırılır ve $A+B$ ile gösterilir. $\sigma+\tau$ dönüşümü için $$(\sigma+\tau)(\alpha_j)=\sigma(\alpha_j)+\tau(\alpha_j)=\sum_{i=1}^{m}a_{ij}\beta_i+\sum_{i=1}^{m}b_{ij}\beta_i=\sum_{i=1}^{m}\left(a_{ij}+b_{ij} \right)\beta_i$$ eşitliği sağlandığından tanım gereği $$A+B:=\left[a_{ij}+b_{ij}\right]$$ olduğu açıktır. İki matrisin toplamının tanımlı olması için bunların satır ve sütun sayılarının, yani boyutlarının, aynı olması gerekir.

Tanım 2.2.6
$a\in F$ bir skaler ve $\sigma$ da $A:=\left[a_{ij}\right]$ matrisi ile temsil edilen bir lineer dönüşüm olsun. Bu durumda $a\sigma$ dönüşümünü temsil eden matris $aA$ ile gösterilir ve $A$ matrisi ile $a$ skalerinin skaler çarpımı olarak adlandırılır. $$(a\sigma)(\alpha_j)=a\sigma(\alpha_j)=\sum_{i=1}^{m}a_{ij}\beta_i=\sum_{i=1}^{m}(aa_{ij})\beta_i$$ olduğundan bu tanım gereği $$aA:=\left[aa_{ij}\right]$$ olur.

Tanım 2.2.7
$F$ cismi üzerinde üçüncü bir $W$ vektör uzayı $r-$boyutlu olsun, ayrıca $C:=\{\gamma_1,\ldots,\gamma_r \}\subset W$ kümesi herhangi bir baz olsun. $U$'dan $V$'ye tanımlı $\sigma$ dönüşümü $m\times n$ boyutlu $A:=\left[a_{ij} \right]$ matrisi ile, $V$'den $W$'ye tanımlı $\tau$ dönüşümü de $r\times m$ boyutlu $B:=\left[b_{ij} \right]$ matrisi ile temsil edilsin. Bu durumda $U$'dan $W$'ye tanımlı olan $\tau\sigma$ dönüşümünü temsil eden matris $B$ ile $A$ matrisinin çarpımı olarak adlandırılır ve $BA$ ile gösterilir. \begin{eqnarray} (\tau\sigma)(\alpha_j) &=& \tau\left(\sigma\left(\alpha_j\right) \right)\notag\\ &=& \tau\left(\sum_{i=1}^{m}a_{ij}\beta_i \right)\notag\\ &=& \sum_{i=1}^{m}a_{ij}\tau\left(\beta_i\right)\notag\\ &=& \sum_{i=1}^{m}a_{ij}\left(\sum_{k=1}^r b_{ki}\gamma_k \right)\notag\\ &=& \sum_{k=1}^{r}\left(\sum_{i=1}^m b_{ki}a_{ij} \right)\gamma_k\label{eq:lint:5}\tag{2.2.4} \end{eqnarray} olduğundan $c_{kj}:=\sum_{i=1}^{m}b_{ki}a_{ij}$ olmak üzere $C:=BA=\left[c_{kj}\right]$ eşitliği sağlanır.

Örnek 2.2.8
Aşağıdaki matris çarpımlarının doğrulanması okuyucuya bırakılmıştır.
  1. $\left[\begin{array}{rrrr}1&4&-1&2\\0&2&1&3\\-2&1&-2&2\end{array}\right]\left[\begin{array}{rr}1&-1\\0&2\\2&1\\3&-2\end{array}\right] = \left[\begin{array}{rr}5&2\\11&-1\\0&-2\end{array}\right]$
  2. $\left[\begin{array}{rrr}3&1&-2\\-5&2&3\end{array}\right]\left[\begin{array}{rrr}2&1&-3\\-1&6&1\\1&0&-2\end{array}\right]=\left[\begin{array}{rrr}3&9&-4\\-9&7&11\end{array}\right]$

Uyarı 2.2.9
Aşağıdakilerin sağlandığı lineer dönüşümlerin özellikleri gereği açıktır (bk. Uyarı 2.1.12). Bu eşitliklerde terimlerin tanımlı olmasını varsayıyoruz, örneğin bazı matrislerin toplanabilir olması için aynı boyutlu olduğunu varsayıyoruz.
  1. $0\cdot A=0$, burada soldaki sıfır bir skaler fakat sağdaki matristir.
  2. $1\cdot A=A$
  3. $A(B+C)=AB+AC$
  4. $(A+B)C=AC+BC$
  5. $A(BC)=(AB)C$

Tanım 2.2.10
Bir $A$ matrisinin rankı ve sıfırlığı kavramları, temsil ettiği lineer dönüşümün rankı ve sıfırlığı olarak tanımlanır. Bunlar sırasıyla $\rho(A)$ ve $\nu(A)$ ile gösterilir.

Teorem 2.2.11
$m\times n$ boyutlu bir $A$ matrisinin rankı ile sıfırlığının toplamı $n$'dir. $BA$ çarpımının rankı hem $B$'nin hem de $A$'nın rankından küçük eşittir.

İspat: Bu teorem daha onda dönüşümler için elde edilen Teorem 2.1.22 ve Teorem 2.1.30 sonuçlarının yeniden ifadesidir.$$\tag*{$\blacksquare$}$$

Uyarı 2.2.12
$\sigma$ dönüşümünün rankı $V$'nin $\im(\sigma)$ alt uzayının boyutudur. $\im(\sigma)$ kümesi $\{\sigma(\alpha_1),\ldots,\sigma(\alpha_n) \}$ kümesi tarafından gerildiği için aslında $\rho(\sigma)$ sayısı $\{\sigma(\alpha_1),\ldots,\sigma(\alpha_n) \}$ kümesinin lineer bağımsız bir maksimal alt kümesinin eleman sayısıdır. Her $j=1,\ldots,m$ için $\sigma(\alpha_j)=\sum_{i=1}^{m}a_{ij}\beta_i$ vektörü $\left(a_{1j},a_{2j},\ldots,a_{mj} \right)$ sıralı $m-$lisi ile temsil edilir, bu ise $A=\left[a_{ij}\right]$ matrisinin $j-$inci sütunudur. Sonuç olarak bir matrisin rankı onun lineer bağımsız sütun sayısına eşit olur ve bu genellikle matrisin sütun rankı olarak adlandırılır. Buna benzer olarak bir matrisin lineer bağımsız satır sayısı da o matrisin satır rankı olarak adlandırılır, bunun sütun rankına eşit olduğunu daha sonra göstereceğiz.

Uyarı 2.2.13
Daha önce \eqref{eq:lint:4} ile görüldüğü gibi eğer bir $\xi\in U$ vektörü $(x_1,\ldots,x_n)$ ile temsil ediliyorsa ve $U$'dan $V$'ye tanımlı bir $\sigma$ dönüşümü $A:=\left[a_{ij}\right]$ matrisi ile temsil ediliyorsa, bu durumda $\sigma(\xi)\in V$ vektörü de \begin{equation} \label{eq:lint:6} \tag{2.2.5} y_i=\sum_{j=1}^{n}a_{ij}x_j,\qquad i=1,\ldots,m \end{equation} olmak üzere $(y_1,\ldots,y_m)$ ile temsil edilir. Bu da \eqref{eq:lint:5} ile verilen matris çarpımı tanımı gereği $$Y:=\left[\begin{array}{c}y_1\\ \vdots\\ y_m \end{array}\right]\qquad\text{ve}\qquad X:= \left[\begin{array}{c}x_1\\ \vdots\\x_n \end{array}\right]$$ olmak üzere \begin{equation} \label{eq:lint:7} \tag{2.2.6} Y=AX \end{equation} olarak yazılabilir.

Dikkat edilirse daha önce $\xi$ vektörünü $(x_1,\ldots,x_n)$ sıralı $n-$lisi ile temsil ettiğimiz gibi \eqref{eq:lint:7} eşitliğinde bu vektörü bir sütun matris ile temsil ettik. Pratik yazılış açısından bundan sonra sedece $\xi$ vektörünü değil ayrıca onun $X$ sütun matrisini de $(x_1,\ldots,x_n)$ terimi ile göstereceğiz.

Alıştırmalar

  1. Aşağıdaki matrisler için $AB$ ve $BA$ matrislerini hesaplayın.%nering-exe-p42 $$A:=\left[\begin{array}{rrrr}1&0&0&1\\0&1&1&0\\1&0&1&0\\0&1&0&1\end{array}\right],\qquad B:=\left[\begin{array}{rrrr}1&2&3&4\\5&6&7&8\\-1&-2&-3&-4\\-5&-6&-7&-8\end{array}\right]$$
  2. $\mathbb{R}^2$'den $\mathbb{R}^2$'ye tanımlı $\sigma$ lineer dönüşümü $(1,0)$'ı $(3,-1)$'e ve $(0,1)$'i $(-1,2)$'ye dönüştürsün. Bu dönüşümün $A=B=\{(1,0), (0,1) \}$ bazlarına göre matris temsilini hesaplayın.
  3. $\mathbb{R}^2$'den $\mathbb{R}^2$'ye tanımlı $\sigma$ lineer dönüşümü $(1,1)$'i $(2,-3)$'e ve $(1,-1)$'i $(4,-7)$'ye dönüştürsün. Bu dönüşümün $A=B=\{(1,0), (0,1) \}$ bazlarına göre matris temsilini hesaplayın. İp ucu: $(1,0)=\frac{1}{2}(1,1)+\frac{1}{2}(1,-1)$ olduğunu ve dönüşümün linerliğini kullanarak $(1,0)$ ve $(0,1)$'in görüntülerini tespit edin.
  4. $U:=\mathbb{R}^2$ ve $V:=\mathbb{R}^3$ olmak üzere $\sigma$ dönüşümü $(1,1)$'i $(0,1,2)$'ye ve $(-1,1)$'i $(2,1,0)$'a dönüştürsün. Bu dönüşümün $A:=\{(1,0), (0,1) \}$ ve $B:=\{(1,0,0), (0,1,0), (0,0,1) \}$ bazlarına göre matris temsilini hesaplayın. İp ucu: $\frac{1}{2}(1,1)-\frac{1}{2}(-1,1)=(1,0)$
  5. Her $a_j$ ve her $b_j$ sıfır değilse $A:=\left[a_ib_j\right]$ matrisinin rankı 1'dir, gösterin. İp ucu: Teorem 2.1.30 sonucunu kullanın.
Önceki Ders Notu:
2.1. Lineer Dönüşümler
Dersin Ana Sayfası:
Lineer Cebire Giriş
Sonraki Ders Notu:
2.3. Tersinir Matrisler