Em matemática, matriz congruente é uma relação de equivalência no conjuntos das matrizes reais quadradas. Duas matriz
e
são congruentes, se existe uma matriz invertível
, do mesmo tipo, tal que
.[1][2]
Definição
Uma matriz real quadrada
é congruente à matriz real quadrada
quando existe uma matriz
invertível tal que
.[1][2]
Observamos que esta definição exige que
seja uma matriz quadrada de mesma ordem de
e
.
Relação de equivalência
A relação de congruência define uma relação de equivalência no conjunto das matrizes reais quadradas
, i.e.:[1]
- (reflexividade) toda matriz
é congruente a si mesma; - (simetria) se
é congruente a
, então
é congruente a
; - (transitividade) se
é congruente a
e
é congruente a
, então
é congruente a
.
Da relação de simetria, vemos que está bem definido dizer que duas matrizes são congruentes (como exposto na introdução).
- Demonstração
- Basta observar que
, onde
é a matriz identidade em
. - Se
é congruente a
, então, por definição, existe
invertível tal que
. Escolhendo
, vemos que
, i.e.
é congruente a
. - Se
é congruente a
e
é congruente a
, então existem
tais que
e
. Mas, então, temos
, i.e.
é congruente a
.
Aplicações
Matrizes de uma forma bilinear
Seja
uma forma bilinear, onde
é um espaço euclidiano de dimensão finita
. Seja, ainda,
e
duas bases para
. Então, são congruentes as matrizes
e
da forma bilinear nas bases
e
, respectivamente.[1]
- Demonstração
Sejam
e suas representações nas bases
e
:
![{\displaystyle \mathbf {u} =\sum _{i=1}^{n}c_{i}\mathbf {u} _{i}=\sum _{i=1}^{n}c'_{i}\mathbf {v} _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fa5849439c44cc403789c3cf698a7423d1d6dd82)
.
Seja, agora,
a matriz de mudança da base
para a base
, i.e.:
![{\displaystyle \mathbf {c} =P\mathbf {c} '\quad {\text{e}}\quad \mathbf {d} =P\mathbf {d} '\quad }](https://wikimedia.org/api/rest_v1/media/math/render/svg/cba441ac1147db36688e5b66b7eec5731d88dfd0)
onde,
e notação análoga para
,
e
.
Além disso, temos:
![{\displaystyle f(\mathbf {u} ,\mathbf {v} )=f\left(\sum _{i=1}^{n}c_{i}\mathbf {u} _{i},\sum _{j=1}^{n}d_{j}\mathbf {u} _{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{n}c_{i}f(\mathbf {u} _{i},\mathbf {u} _{j})d_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e6bb2a1aff73e680e8dbd810c3b046304d81f2c4)
e
![{\displaystyle f(\mathbf {u} ,\mathbf {v} )=f\left(\sum _{i=1}^{n}c'_{i}\mathbf {v} _{i},\sum _{j=1}^{n}d'_{j}\mathbf {v} _{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{n}c'_{i}f(\mathbf {v} _{i},\mathbf {v} _{j})d'i}](https://wikimedia.org/api/rest_v1/media/math/render/svg/97daeab009c29d687b625c69da4216cf61e225db)
donde,
. O que, por sua vez, implica:
.
Como os vetores
e
são arbitrários, temos
, i.e.,
e
são matrizes congruentes. Isso completa a prova.
Matrizes ortogonalmente diagonalizáveis
Se a matriz
é ortogonalmente diagonalizável, então exite uma matriz diagonal
congruente a
.[3]
- Demonstração
Com efeito, uma matriz
é ortogonalmente diagonalizável se, e somente se, existe uma matriz diagonal
tal que:
![{\displaystyle D=P^{-1}AP}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1dfe3bf798161296d8f5b76700c807218528de74)
onde,
é uma matriz ortogonal, i.e.
. Isto é dizer,
, o que conclui a demonstração.
Ver também
Referências
- ↑ a b c d CALLIOLI, C.A.; Álgebra linear e aplicações, ed. 6, 1990.
- ↑ a b LIPSCHUTZ, S.; Lipson, M.; Álgebra linear, Coleção Schaum, Bookman, 2011.
- ↑ Kolman, B. (2013). Álgebra linear com aplicações 9 ed. [S.l.]: LTC. ISBN 9788521622086