Vídeo: Vetores Próprios e Valores Próprios

Grant Sanderson • 3Blue1Brown • Boclips

Vetores Próprios e Valores Próprios

17:15

Transcrição do vídeo

Vetores próprios e valores próprios é um desses tópicos que muitos estudantes consideram particularmente não intuitivo. Questões como “Por que estamos a fazer isto?” E “O que isto realmente significa?” São muitas vezes deixadas a flutuar num mar de cálculos sem resposta.

E enquanto eu colocava os vídeos desta série, muitos de vocês comentaram sobre a expetativa de ver este tópico em particular. Eu suspeito que a razão para isso não seja tanto que as coisas próprias sejam particularmente complicadas ou mal explicadas. Na verdade, é relativamente simples e acho que a maioria dos livros faz um bom trabalho a explica-los.

A questão é que só faz sentido se tiver uma compreensão visual sólida para muitos dos tópicos que o precedem. O mais importante aqui é que saiba como pensar em matrizes como transformações lineares, mas também precisa de se sentir à vontade com coisas como determinantes, sistemas lineares de equações e mudança de base.

A confusão sobre coisas próprias geralmente tem mais a ver com a base instável num destes tópicos do que com vetores próprios e valores próprios.

Para começar, considere algumas transformações lineares em duas dimensões, como a apresentada aqui. Move o vetor da base 𝑖-chapéu para as coordenadas três, zero e 𝑗-chapéu para um, dois. Assim, é representado com uma matriz cujas colunas são três, zero e um, dois.

Concentre-se no que faz num vetor em particular, e pense sobre o span deste vetor, a reta que passa pela sua origem e pela sua seta. A maioria dos vetores vai ser derrubada durante a transformação. Quero dizer, parece muita coincidência se o local onde o vetor aterrou também estivesse nalgum lugar naquela reta. Mas alguns vetores especiais permanecem no seu próprio span, o que significa que o efeito que a matriz tem sobre esse vetor é apenas esticá-lo ou encolhê-lo num escalar.

Para este exemplo específico, o vetor de base 𝑖-chapéu é um desses vetores especiais. O span do 𝑖-chapéu é o eixo O𝑥. E a partir da primeira coluna da matriz, podemos ver que o 𝑖-chapéu se move três vezes ele próprio, permanecendo neste eixo O𝑥.

Além disso, devido ao modo como as transformações lineares funcionam, qualquer outro vetor no eixo O𝑥 também é esticado apenas por um fator de três e, portanto, permanece no seu próprio span. Um vetor ligeiramente sorrateiro que permanece no seu próprio span durante esta transformação é menos um, um. Acaba por ser esticado por um fator de dois.

E novamente, a linearidade implicará que qualquer outro vetor na reta diagonal daquele será esticado por um fator de dois. E para esta transformação, estes são todos os vetores com essa propriedade especial de permanecer no seu span, aqueles no eixo O𝑥, sendo esticados por um fator de três, e aqueles nesta reta diagonal, sendo esticados por um fator de dois.

Qualquer outro vetor será rodado um pouco durante a transformação, sendo derrubado da reta que é seu span. Como já deve ter adivinhado, estes vetores especiais são chamados de vetores próprios da transformação, e cada vetor próprio tem associado a si o que é chamado de valor próprio, que é apenas o fator pelo qual é esticado ou encolhido durante a transformação.

É claro que não há nada de especial sobre esticar versus encolher ou o facto de estes valores próprios serem positivos. Noutro exemplo, poderia ter um vetor próprio com um valor próprio menos um meio, significando que o vetor é invertido e encolhido por um fator de um meio. Mas a parte importante aqui é que permanece na reta que é seu span sem ser rodado para fora dela.

Para um vislumbre do porque é que isto pode ser uma coisa útil para se pensar, considere uma rotação tridimensional. Se puder encontrar um vetor próprio para esta rotação, um vetor que permanece no seu próprio span, o que determinou foi o eixo de rotação. E é muito mais fácil pensar numa rotação 3D em termos de um eixo de rotação e um ângulo no qual ela está rodar em vez de pensar na matriz completa três por três associada a essa transformação.

Neste caso, a propósito, o valor próprio correspondente teria que ser um, já que as rotações nunca esticam ou encolhem nada. Então, o comprimento do vetor permaneceria o mesmo. Este padrão aparece muito na álgebra linear.

Com qualquer transformação linear descrita por uma matriz, pode entender o que está a fazer ao ler as colunas desta matriz como pontos de chegada para vetores da base. Mas muitas vezes, uma maneira melhor de chegar ao cerne do que a transformação linear realmente faz, sem dependente do seu sistema de coordenadas particular, é determinar os vetores próprios e os valores próprios.

Não abordarei todos os detalhes sobre métodos de cálculo de vetores próprios e valores próprios aqui, mas tentarei fornecer uma visão geral das ideias computacionais mais importantes para um entendimento conceptual.

Simbolicamente, aqui está a aparência de um vetor próprio. 𝐴 é a matriz que representa uma transformação, com 𝐯 como vetor próprio e 𝜆 é um número, a saber, o valor próprio correspondente. O que esta expressão está a dizer é que o produto vetor-matriz, 𝐴 vezes 𝐯, dá o mesmo resultado que multiplicar o vetor próprio 𝐯 por algum valor 𝜆.

Assim, determinar os vetores próprios e os seus valores próprios da matriz 𝐴 resume-se a determinar os valores de 𝐯 e 𝜆 que tornam esta expressão verdadeira. É um pouco complicado trabalhar inicialmente porque o primeiro membro representa a multiplicação vetor-matriz, mas o segundo membro aqui é a multiplicação vetor-escalar.

Então, vamos começar por reescrever o segundo membro como um tipo de multiplicação vetor-matriz, utilizando uma matriz que tem o efeito de escalar qualquer vetor por um fator de 𝜆. As colunas dessa matriz representarão o que acontece com cada vetor da base, e cada vetor da base é simplesmente multiplicado por 𝜆, portanto, esta matriz terá o número 𝜆 na diagonal, com zeros em tudo o resto.

A maneira comum de escrever este sujeito é fatorizar 𝜆 e escrevê-lo como 𝜆 vezes 𝐼, onde 𝐼 é a matriz de identidade com as que estão na diagonal. Com ambos os membros a parecerem-se com a multiplicação vetor-matriz, podemos subtrair este primeiro membro e fatorizar o 𝐯.

Então, o que temos agora é uma nova matriz 𝐴 menos 𝜆 vezes a identidade, e estamos à procura de um vetor 𝐯 tal que a nova matriz vezes 𝐯 forneça o vetor nulo. Agora, isto será sempre verdade se 𝐯 em si é o vetor nulo, mas é chato. O que queremos é um vetor próprio diferente de zero. E, se assistiu aos Capítulos 5 e 6, saberá que a única maneira de o produto de uma matriz com um vetor diferente de zero tornar-se zero é se a transformação associada a essa matriz espalmar o espaço numa dimensão inferior. E essa “espalmação” corresponde a um determinante nulo para a matriz.

Para ser concreto, digamos que a sua matriz 𝐴 tenha colunas dois, um e dois, três e pensa em subtrair um valor variável 𝜆 a cada entrada da diagonal. Agora imagine beliscar 𝜆, girando um botão para mudar o seu valor. À medida que esse valor de 𝜆 muda, a própria matriz muda e, portanto, o determinante da matriz muda.

O objetivo aqui é determinar um valor de 𝜆 que torne esse determinante zero, significando que a transformação ajustada torna o espaço uma dimensão menor. Neste caso, o ponto ideal vem quando 𝜆 é igual a um. Claro, se escolhermos uma outra matriz, o valor próprio pode não ser necessariamente um. O ponto ideal pode ser atingido por um outro valor de 𝜆.

Então isso é muito, mas vamos desvendar o que isto está a dizer. Quando 𝜆 é igual a um, a matriz 𝐴 menos 𝜆 vezes a identidade espalma o espaço numa reta. Isso significa que há um vetor diferente de zero 𝐯 tal que 𝐴 menos 𝜆 vezes a identidade vezes 𝐯 é igual ao vetor nulo. E lembre-se, a razão pela qual nos preocupamos com isto é porque significa 𝐴 vezes 𝐯 é igual a 𝜆 vezes 𝐯, o que pode ler dizendo que o vetor 𝐯 é um vetor próprio de 𝐴 que permanece no seu próprio span durante a transformação 𝐴.

Neste exemplo, o valor próprio correspondente é um. Então, na verdade, 𝐯 ficaria fixo no lugar. Pause e pondere se precisa de ter certeza de que esta linha de raciocínio é boa.

Esse é o tipo de coisa que mencionei na introdução. Se não tivesse uma compreensão sólida dos determinantes e por que se relacionam com sistemas lineares de equações com soluções diferentes de zero, uma expressão como esta pareceria completamente inesperada. Para ver isto em ação, vamos revisitar o exemplo desde o início.

Com a matriz cujas colunas são três, zero e um, dois, para descobrir se um valor 𝜆 é um valor próprio, subtraia-o das diagonais dessa matriz e calcule o determinante. Fazendo isto, obtemos um certo polinómio do segundo grau em 𝜆: três menos 𝜆 vezes dois menos 𝜆.

Como 𝜆 só pode ser um valor próprio, se este determinante for zero, pode concluir que os únicos valores próprios possíveis são 𝜆 igual a dois e 𝜆 igual a três. Para descobrir quais são os vetores próprios que realmente possuem um destes valores próprios, digamos, 𝜆 igual a dois, insira este valor de 𝜆 na matriz e, em seguida, resolva para que vetores esta matriz diagonalmente alterada o manda para zero. Se calculasse isto da mesma forma que faria com qualquer outro sistema linear, veria que as soluções são todos os vetores na reta diagonal ocupados por menos um, um.

Isto corresponde ao facto de que a matriz inalterada três, zero, um, dois tem o efeito de esticar todos estes vetores um fator de dois. Agora, uma transformação 2D não precisa ter vetores próprios. Por exemplo, considere uma rotação de 90 graus. Não tem nenhum vetor próprio, já que ele roda cada vetor fora do seu próprio span.

Se realmente tentar calcular os valores próprios de uma rotação como esta, observe o que acontece. A sua matriz possui colunas zero, um e menos um, zero. Subtraia 𝜆 às entradas da diagonal e calcule quando o determinante é zero.

Neste caso, obtém o polinómio 𝜆 ao quadrado mais um. As únicas raízes deste polinómio são os números imaginários 𝑖 e menos 𝑖. O facto que não existirem soluções numéricas reais indica que não existem vetores próprios.

Outro exemplo bastante interessante, que vale a pena guardar no fundo da sua mente, é um cisalhamento. Isto fixa 𝑖-chapéu no mesmo lugar e move 𝑗-chapéu. Portanto, a sua matriz tem colunas um, zero e um, um.

Todos os vetores no eixo O𝑥 são vetores próprios com valor próprio um, uma vez que permanecem fixos no lugar. Na verdade, estes são os únicos vetores próprios. Quando subtrai 𝜆 das diagonais e calcula o determinante, o que obtém é um menos 𝜆 ao quadrado, e a única raiz desta expressão é 𝜆 igual a um.

Isto alinha-se com o que vemos geometricamente, que todos os vetores próprios têm valor próprio um. No entanto, tenha em mente que também é possível ter apenas um valor próprio, mas com mais do que apenas uma reta cheia de vetores próprios. Um exemplo simples é uma matriz que multiplica tudo por dois. O único valor próprio é dois. Mas todo vetor no plano chega a ser um vetor próprio com esse valor próprio.

Agora é um bom momento para fazer uma pausa e refletir sobre isto antes de passar para o último tópico.

Eu quero terminar aqui com a ideia de uma base própria, que depende muito de ideias do último vídeo. Veja o que acontece. Se nossos vetores da base apenas acontecessem ser vetores próprios.

Por exemplo, talvez o 𝑖-chapéu seja multiplicado por menos um e 𝑗-chapéu seja multiplicado por dois. Escrevendo as suas novas coordenadas como as colunas de uma matriz, observe que os múltiplos escalares, menos um e dois, que são os valores próprios de 𝑖-chapéu e 𝑗-chapéu, ficam na diagonal da nossa matriz, e todas as outras entradas são zero.

Sempre que uma matriz tem zeros em qualquer lugar que não seja a diagonal, é chamada, razoavelmente, de uma matriz diagonal. E a maneira de interpretar isto é que todos os vetores da base são vetores próprios, com as entradas na diagonal dessa matriz sendo os seus valores próprios.

Há muitas coisas que tornam as matrizes diagonais muito mais agradáveis ​​de se trabalhar. Uma das principais é que é mais fácil calcular o que acontecerá se multiplicar esta matriz por si um monte de vezes. Como todas estas matrizes o que fazem é multiplicar cada vetor da base por um valor próprio, aplicando esta matriz muitas vezes, digamos 100 vezes, vai corresponder apenas a multiplicar cada vetor da base pela centésima potência do valor próprio correspondente.

Em contraste, tente calcular a centésima potência de uma matriz não diagonal. Tente mesmo por um momento. É um pesadelo. Naturalmente, raramente terá a sorte de ter os seus vetores da base também como vetores próprios. Mas se a sua transformação tiver muitos vetores próprios, como a do início deste vídeo, o suficiente para que possa escolher um conjunto que abranja todo o espaço, então pode alterar o seu sistema de coordenadas para que esses vetores próprios sejam os seus vetores da base.

Eu falei sobre mudança de base no último vídeo, mas eu vou relembrar rapidamente aqui como escrever a transformação atualmente escrita no nosso sistema de coordenadas num sistema diferente.

Considere as coordenadas dos vetores que deseja utilizar como uma nova base, que, neste caso, significa os nossos dois vetores próprios. Em seguida, faça estas coordenadas as colunas de uma matriz, conhecida como a matriz de mudança de base. Quando insere a transformação original, colocando a matriz de mudança de base à sua direita e a inversa da matriz de mudança de base à sua esquerda, o resultado será uma matriz que representa esta mesma transformação, mas na perspetiva do novo sistema de coordenadas da base de vetores.

O objetivo de fazer isto com vetores próprios é que esta nova matriz é garantida ser diagonal, com os seus valores próprios correspondentes abaixo da diagonal. Isto ocorre porque representa o trabalho num sistema de coordenadas em que o que acontece com os vetores da base é que são redimensionados durante a transformação.

Um conjunto de vetores da base, que também são vetores próprios, é chamado, novamente e razoavelmente, de uma base própria. Então, se, por exemplo, precisasse de calcular a centésima potência desta matriz, seria muito mais fácil mudar para uma base própria, calcular a centésima potência neste sistema e depois converter de novo para o nosso sistema padrão.

Não pode fazer isso com todas as transformações. Um cisalhamento, por exemplo, não possui vetores próprios suficientes para ocupar todo o espaço. Mas se puder determinar uma base própria, esta tornará as operações com matrizes realmente adoráveis.

Para aqueles de vocês dispostos a trabalhar num quebra-cabeça bem organizado para ver como isto é em ação e como pode ser utilizado para produzir resultados surpreendentes, deixo uma mensagem aqui na tela. Dá um pouco mais de trabalho, mas acho que vai gostar.

O próximo e último vídeo desta série será sobre espaços vetoriais abstratos. Até lá.

A Nagwa usa cookies para garantir que você tenha a melhor experiência em nosso site. Saiba mais sobre nossa Política de privacidade.