Vídeo: Matrizes Inversas, Espaço das Colunas e Núcleo

Grant Sanderson • 3Blue1Brown • Boclips

Matrizes Inversas, Espaço das Colunas e Núcleo

12:08

Transcrição do vídeo

Como já poderá saber, a maior parte desta série de vídeos está em entender as operações com matriz e vetores através desta lente mais visual das transformações lineares. Este vídeo não é uma exceção, descrevendo os conceitos de matrizes inversas, espaço das colunas, característica e núcleo através desta lente. Um aviso, no entanto, não vou falar sobre os métodos para calculá-los, e alguns poderão dizer que isso é muito importante. Há muitos recursos e muito bons para aprender esses métodos fora desta série, as palavras-chave “Eliminação de Gauss” e “Matriz em Forma de Escada”.

Eu acho que a maior parte do valor que eu pretendo adicionar aqui é em relação à intuição. Além disso, na prática, geralmente obtemos um software para calcular estas coisas por nós de qualquer maneira. Primeiro, algumas palavras sobre a utilidade da álgebra linear. Até agora, já tem uma ideia de como é utilizada na descrição da manipulação de espaço, o que é útil para coisas como computação gráfica e robótica. Mas uma das principais razões pelas quais a álgebra linear é mais amplamente aplicável, e necessária para qualquer disciplina técnica, é que nos permite resolver certos sistemas de equações. Quando digo sistema de equações, quero dizer que tem uma lista de variáveis, coisas de que não sabe o valor e uma lista de equações que as relacionam. Em muitas situações, essas equações podem ficar muito complicadas, mas, se tiver sorte, podem assumir uma certa forma especial: dentro de cada equação, a única coisa que acontece a cada variável é que é multiplicada por alguma constante, e a única coisa que acontece com cada uma dessas variáveis ​​é que são adicionadas umas às outras. Portanto, sem expoentes ou funções sofisticadas, ou multiplicações de duas variáveis, coisas assim.

A maneira típica de organizar este tipo de sistema especial de equações é colocar todas as variáveis ​​à esquerda e colocar quaisquer constantes restantes à direita. Também é bom alinhar verticalmente as variáveis ​​comuns. E para o fazer, pode precisar de acrescentar alguns coeficientes nulos sempre que a variável não estiver presente numa das equações. A isto se chama de sistema linear de equações. Notará que se parece muito com a multiplicação vetorial de matrizes. De facto, pode agrupar todas as equações numa única equação vetorial, onde tem a matriz que contém todos os coeficientes constantes e um vetor que contém todas as variáveis ​​e o seu produto vetor-matriz é igual a um vetor de constantes diferente. Vamos designar esta matriz de constantes 𝐴, denotar o vetor que contém as variáveis ​​com um 𝐱 a negrito e designar o vetor de constantes no segundo membro 𝐯. Isto é mais do que apenas um truque de notação para obter o nosso sistema de equações escrito numa linha. Dá luz a uma interpretação geométrica muito interessante para o problema.

A matriz 𝐴 corresponde a uma transformação linear, portanto, resolver 𝐴𝐱 igual a 𝐯 significa que estamos à procura de um vetor 𝐱 que, após aplicar a transformação, se torna 𝐯. Pense no que está aqui a acontecer por um momento. Pode conceber na sua mente esta ideia realmente complicada de múltiplas variáveis, todas misturadas, pensando apenas em espalmar e transformar o espaço e tentar descobrir que vetor se transforma noutro. Interessante, certo?! Para começar de forma simples, digamos que tenha um sistema com duas equações e duas incógnitas. Isto significa que a matriz 𝐴 é uma matriz dois por dois, e 𝐯 e 𝐱 são vetores bidimensionais. Agora, a maneira como pensamos sobre as soluções para esta equação, depende se a transformação associada a 𝐴 espalma todo o espaço numa dimensão menor, como uma reta ou um ponto, ou se mantém tudo a abranger todo o espaço bidimensional de onde começou.

Na linguagem do último vídeo, nós subdividimos no caso em que 𝐴 tem determinante zero e no caso em que 𝐴 tem determinante diferente de zero. Vamos começar com o caso mais provável, em que o determinante é diferente de zero, o que significa que o espaço não é espalmado numa região de área zero. Neste caso, haverá sempre um e apenas um vetor que cai em 𝐯, e pode encontrá-lo reproduzindo a transformação em sentido contrário. Observando para onde vai 𝐯 enquanto rebobinamos a fita assim, encontrará o vetor 𝐱 tal que 𝐴 vezes 𝐱 é igual a 𝐯. Quando realiza a transformação em sentido contrário, na verdade corresponde a uma outra transformação linear, comummente designada por inversa de 𝐴, denotada 𝐴 elevada a menos um. Por exemplo, se 𝐴 for uma rotação em sentido anti-horário de 90 graus, então a inversa de 𝐴 será uma rotação em sentido horário de 90 graus. Se 𝐴 foi um cisalhamento para a direita que empurra 𝑗-chapéu uma unidade para a direita, a inversa de 𝐴 será um cisalhamento para a esquerda que empurra 𝑗-chapéu uma unidade para a esquerda. Em geral, a inversa de 𝐴 é a única transformação com a propriedade de que, se aplicar primeiro 𝐴, seguida da transformação inversa de 𝐴, regressa ao início.

A aplicação de uma transformação seguida de outra é capturada algebricamente com a multiplicação de matrizes, de modo que a propriedade central desta transformação inversa de 𝐴 é que inversa de 𝐴 vezes 𝐴 é igual à matriz que corresponde a não fazer nada. A transformação que não faz nada é chamada de transformação identidade. Deixa 𝑖-chapéu e 𝑗-chapéu onde estão, imóveis, pelo que as suas colunas são um, zero e zero, um. Uma vez que determine esta inversa, o que na prática o faz com um computador, pode resolver a sua equação multiplicando esta matriz inversa por 𝐯. E, novamente, o que isto significa, geometricamente, é que está a fazer a transformação em sentido contrário e seguindo 𝐯. Este caso do determinante diferente de zero, que para matriz selecionada ao acaso é de longe a mais provável, corresponde à ideia de que, se tiver duas incógnitas e duas equações, é quase certo que tenha uma única solução. Esta ideia também faz sentido em dimensões superiores, quando o número de equações é igual ao número de incógnitas. Novamente, o sistema de equações pode ser traduzido para a interpretação geométrica em que tem uma transformação, 𝐴, e um vetor, 𝐯, e está à procura do vetor 𝐱 que cai em 𝐯. Para uma transformação 𝐴 que não espalma o espaço numa dimensão menor, ou seja, o seu determinante é diferente de zero, haverá uma transformação inversa, a inversa de 𝐴, com a propriedade de que se aplicar primeiro 𝐴, seguida da inversa de 𝐴, é o mesmo que não fazer nada. E para resolver a sua equação, basta multiplicar esta matriz de transformação inversa pelo vetor 𝐯.

Mas quando o determinante é zero e a transformação associada a este sistema de equações reduz o espaço a uma dimensão menor, não existe inversa. Não consegue “despalmar” uma reta para transformá-la num plano; pelo menos, isso não é algo que uma função possa fazer. Exigiria transformar cada vetor individual numa reta cheia de vetores. Mas as funções só podem levar um único objeto a uma única imagem. Da mesma forma, para três equações em três incógnitas, não existirá inversa se a transformação correspondente espalmar o espaço 3D no plano, ou mesmo que o espalme numa reta ou num ponto. Todos correspondem a um determinante zero, já que qualquer região é espalmada em algo com volume zero. Ainda assim é possível que exista uma solução mesmo quando não haja inversa. É só que, quando a sua transformação espalma o espaço para, digamos, uma reta, tem que ter a sorte de o vetor 𝐯 viver nalgum lugar dessa reta. Notará que alguns destes casos para o determinante nulo se sentem muito mais restritivos do que outros. Dada uma matriz três por três, por exemplo, parece muito mais difícil que exista uma solução quando o espaço é espalmado numa reta, comparado a quando espalma as coisas num plano, mesmo que ambos sejam de determinante nulo.

Temos um termo que é um pouco mais específico do que apenas dizer “determinante zero”. Quando a imagem de uma transformação é uma reta, o que significa que é unidimensional, dizemos que a transformação tem de “característica” um. Se todos os vetores aterrassem nalgum plano bidimensional, dizemos que a transformação tem característica dois. Então, a palavra característica significa o número de dimensões na imagem de uma transformação. Por exemplo, no caso de matrizes dois por dois, característica dois é o melhor que pode ser. Significa que os vetores da base continuam a abranger as duas dimensões do espaço, e o determinante é diferente de zero. No entanto, para matrizes três por três, a característica dois significa que entramos em colapso, mas não tanto quanto teria entrado em colapso para uma situação de característica um. Se uma transformação 3D tiver um determinante diferente de zero e a sua imagem preencher todo o espaço 3D, terá de característica três. Esse conjunto de todas as imagens possíveis para sua matriz, seja uma reta, um plano, o espaço 3D, seja o que for, é designado por “espaço das colunas” da matriz. Provavelmente poderá adivinhar de onde vem este nome. As colunas da matriz informam onde os vetores da base aterram e o span destes vetores da base transformado fornece todas as imagens possíveis. Por outras palavras, o espaço das colunas é o span das colunas da sua matriz. Assim, uma definição mais precisa de característica será o número de dimensões no espaço das colunas.

Quando esta classificação é tão alta quanto possível, significando que é igual ao número de colunas, dizemos que a matriz é de “característica completa”. Observe que o vetor zero estará sempre incluído no espaço das colunas, uma vez que as transformações lineares devem manter a origem fixada. Para uma transformação de característica completa, o único vetor que chega à origem é o próprio vetor zero, mas para matrizes que não são de característica completa, que diminuem para uma dimensão menor, pode ter vários vetores que chegam ao zero. Se uma transformação 2D espalmar o espaço numa reta, por exemplo, há uma outra reta numa direção diferente, cheia de vetores que são espalmados na origem. Se uma transformação 3D espalmar o espaço num plano, também haverá uma reta repleta de vetores que aterrarão na origem. Se uma transformação em 3D acumular todo o espaço numa reta, haverá um plano cheio de vetores que chegam à origem. Este conjunto de vetores que aterra na origem é designado por “núcleo” ou “kernel” da sua matriz. É o espaço de todos os vetores que se tornam nulos no sentido de que aterram no vetor zero. Em termos do sistema linear de equações, quando 𝐯 é o vetor zero, o núcleo fornece todas as soluções possíveis para a equação.

Esta é uma visão geral de alto nível de como pensar em sistemas lineares de equações geometricamente. Cada sistema tem algum tipo de transformação linear a ele associada e, quando essa transformação admite uma inversa, pode utilizar essa inversa para resolver o seu sistema. Caso contrário, a ideia de espaço das colunas permite-nos entender quando uma solução existe, e a ideia de um núcleo ajuda-nos a entender como o conjunto de todas as soluções possíveis se pode parecer. Mais uma vez, há muita coisa que eu não considerei aqui, principalmente como calcular estas coisas. Eu também tive que limitar meu âmbito a exemplos onde o número de equações é igual ao número de incógnitas. Mas o objetivo aqui não é tentar ensinar tudo; é que saia com uma forte intuição sobre matrizes inversas, espaço das colunas e núcleo, e que estas intuições tornem qualquer aprendizagem futura mais proveitosa.

O próximo vídeo, por solicitação das pessoas, será uma breve nota de rodapé sobre matrizes não quadradas. E, depois disso, vou dar-lhe minha visão sobre o produto interno, e algo muito interessante que acontece quando os vê à luz de transformações lineares. Até lá!

A Nagwa usa cookies para garantir que você tenha a melhor experiência em nosso site. Saiba mais sobre nossa Política de privacidade.