Vídeo: Multiplicação de Matrizes como Composição

Grant Sanderson • 3Blue1Brown • Boclips

Multiplicação de Matrizes como Composição

10:03

Transcrição do vídeo

Olá pessoal! De onde paramos da última vez, apresentei as transformações lineares e como representá-las utilizando matrizes. Vale a pena uma rápida recapitulação porque é muito importante. Mas, claro, se isso parecer mais do que uma simples recapitulação, volte e assista ao vídeo completo.

Tecnicamente falando, transformações lineares são funções, com vetores como objeto e vetores como imagem. Mas, da última vez, mostrei como podemos pensar nelas visualmente como se utilizassem o espaço de tal forma que as linhas da grelha permanecessem paralelas e uniformemente espaçadas, de modo que a origem permanecesse fixa.

O principal argumento foi que uma transformação linear é completamente determinada por onde são tomados os vetores da base do espaço que, para duas dimensões, significa 𝑖-chapéu e 𝑗-chapéu. Isto acontece porque qualquer outro vetor pode ser descrito como uma combinação linear destes vetores da base. Um vetor com coordenadas 𝑥, 𝑦 é 𝑥 vezes 𝑖-chapéu mais 𝑦 vezes 𝑗-chapéu.

Depois de passar pela transformação, esta propriedade, as linhas da grelha permanecem paralelas e uniformemente espaçadas, tem uma consequência maravilhosa. O local onde o seu vetor será 𝑥 vezes a versão transformada de 𝑖-chapéu mais 𝑦 vezes a versão transformada de 𝑗-chapéu. Isto significa que se mantiver um registo das coordenadas onde 𝑖-chapéu aterra e as coordenadas onde 𝑗-chapéu aterra, pode calcular que um vetor que começa em 𝑥, 𝑦 deve aterrar em 𝑥 vezes as novas coordenadas de 𝑖-chapéu mais 𝑦 vezes as novas coordenadas de 𝑗-chapéu.

A convenção é registar as coordenadas de onde 𝑖-chapéu e 𝑗-chapéu se encaixam como colunas de uma matriz e definir essa soma das versões em escala dessas colunas por 𝑥 e 𝑦 para ser a multiplicação de uma matriz e um vetor. Desta forma, uma matriz representa uma transformação linear específica. E multiplicar uma matriz por um vetor é, o que significa em termos de cálculo, aplicar essa transformação nesse vetor. Muito bem, recapitulado. Para o novo material.

Muitas vezes, encontra-se a querer descrever o efeito de aplicar uma transformação e depois outra. Por exemplo, talvez queira descrever o que acontece quando roda primeiro o plano 90 graus em sentido anti-horário e aplica um cisalhamento. O efeito geral aqui, do início ao fim, é outra transformação linear, distinta da rotação e do cisalhamento. Essa nova transformação linear é comumente chamada de “composição” das duas transformações separadas que aplicamos. E como qualquer transformação linear, ela pode ser descrita com uma matriz própria, seguindo 𝑖-chapéu e 𝑗-chapéu.

Neste exemplo, o ponto crucial de aterragem de 𝑖-chapéu após ambas as transformações é um, um. Então vamos fazê-la a primeira coluna de uma matriz. Da mesma forma, 𝑗-chapéu aterra no local menos um, zero, então fazemo-la a segunda coluna da matriz. Esta nova matriz captura o efeito geral de aplicar uma rotação, em seguida, um cisalhamento, mas como uma única ação, em vez de duas sucessivas.

Aqui está uma forma de pensar sobre esta nova matriz: se tomar um vetor e bombeá-lo por meio da rotação e depois o cisalhamento, o caminho mais longo para calcular onde aterra é, primeiro, multiplicá-lo à esquerda pela matriz de rotação, em seguida, considerar o que obtiver e multiplicá-lo à esquerda pela matriz do cisalhamento. Isto é, numericamente falando, o que significa aplicar uma rotação seguida de um cisalhamento de um determinado vetor. Mas o que quer que consiga deve ser o mesmo que apenas aplicar esta nova matriz de composição que acabámos de encontrar, pelo mesmo vetor, não importa o vetor escolhido, já que esta nova matriz deve capturar o mesmo efeito geral que a ação rotação-depois-cisalhamento.

Com base na forma como as coisas estão escritas aqui, acho razoável chamar esta nova matriz o “produto” das duas matrizes originais. Não é? Podemos pensar como calcular este produto de maneira mais geral daqui a pouco, mas é muito fácil perder-se na floresta de números. Lembre-se sempre de que multiplicar duas matrizes como esta tem o significado geométrico de aplicar uma transformação e depois outra. Uma coisa que é um pouco estranha aqui é que isto tem é que se lê da direita para a esquerda. Aplica primeiro a transformação representada pela matriz à direita. Em seguida, aplica a transformação representada pela matriz à esquerda. Isto decorre da notação das funções, já que escrevemos funções à esquerda das variáveis. Então sempre compõe duas funções, tem sempre que ler da direita para a esquerda. Boas notícias para os leitores hebraicos, más notícias para o resto de nós.

Vamos ver outro exemplo. Considere a matriz com colunas um, um e menos dois, zero, cuja transformação se parece com isso, e vamos chamá-la 𝑀 um. Em seguida, considere a matriz com as colunas zero, um e dois, zero, cuja transformação se parece com isso, e vamos chamá-la 𝑀 dois. O efeito total de aplicar 𝑀 um e depois 𝑀 dois dá-nos uma nova transformação. Então vamos determinar a sua matriz. Mas, desta vez, vamos ver se podemos fazê-lo sem assistir às animações e, em vez disso, utilizando apenas as entradas numéricas de cada matriz.

Primeiro, precisamos de descobrir para onde vai 𝑖-chapéu. Depois de aplicar 𝑀 um, as novas coordenadas de 𝑖-chapéu, por definição, são dadas pela primeira coluna de 𝑀 um, a saber, um, um. Para ver o que acontece depois de aplicar 𝑀 dois, multiplique a matriz por 𝑀 dois pelo vetor um, um. Trabalhando da maneira que descrevi no último vídeo, obterá o vetor dois, um. Esta será a primeira coluna da matriz de composição. Da mesma forma, para seguir 𝑗-chapéu, a segunda coluna de 𝑀 um diz-nos que primeiro aterra em menos dois, zero. Em seguida, quando aplicarmos 𝑀 dois a este vetor, pode calcular o produto vetor e matriz para obter zero, menos dois, que se torna a segunda coluna da nossa matriz de composição.

Deixe-me falar sobre o mesmo processo novamente, mas, desta vez, mostrarei entradas variáveis ​​em cada matriz, apenas para mostrar que a mesma linha de raciocínio funciona para qualquer matriz. Este é mais carregado em termos de símbolos e exigirá mais espaço, mas deve ser bastante satisfatório para quem já aprendeu a multiplicação de matrizes de forma mais mecânica. Para seguir onde 𝑖-chapéu aterra, comece por ver a primeira coluna da matriz à direita, já que é onde 𝑖-chapéu inicialmente aterra. É multiplicando essa coluna pela matriz à esquerda que pode dizer onde a versão intermédia de 𝑖-chapéu aterra após aplicar a segunda transformação. Assim, a primeira coluna da matriz de composição será sempre igual à matriz à esquerda multiplicada pela primeira coluna da matriz à direita. Da mesma forma, 𝑗-chapéu aterrará sempre inicialmente na segunda coluna da matriz à direta. Então, multiplicar a matriz à esquerda por essa segunda coluna dará a sua localização final. E, portanto, essa é a segunda coluna da matriz de composição.

Repare, há muitos símbolos aqui. E é comum aprender esta fórmula como algo para memorizar em conjunto com um determinado processo algorítmico para o ajudar a recordar-se. Mas eu acho que antes de memorizar este processo, deveria adquirir o hábito de pensar sobre o que a multiplicação de matrizes realmente representa: aplicar uma transformação após outra. Confie em mim, isso dar-lhe-á uma estrutura conceptual muito melhor que torna as propriedades da multiplicação de matrizes muito mais fáceis de entender.

Por exemplo, aqui está uma pergunta: importa em que ordem colocamos as duas matrizes quando as multiplicamos? Bem, vamos pensar num exemplo simples como o anterior. Considere um cisalhamento que fixe 𝑖-chapéu e espalme 𝑗-chapéu para a direita e uma rotação de 90 graus. Se fizer o cisalhamento primeiro e depois rodar, podemos ver que 𝑖-chapéu aterra em zero, um e 𝑗-chapéu aterra em menos um, um. Ambos estão próximos um do outro. Se rodar primeiro e depois fizer o cisalhamento, 𝑖-chapéu aterra em um, um e 𝑗-chapéu está numa direção diferente em menos um, zero. E estão, como sabe, mais distantes um do outro. O efeito geral aqui é claramente diferente. Então, evidentemente, a ordem importa totalmente.

Observe, pensando em termos de transformações, este é o tipo de coisa que pode fazer na sua cabeça visualizando. Nenhuma multiplicação de matrizes necessária. Lembro-me de quando comecei pela álgebra linear, houve um problema para trabalho de casa que nos pedia para provar que a multiplicação de matrizes é associativa. Isto significa que se tem três matrizes 𝐴, 𝐵 e 𝐶 e as multiplica por completo, não importa se calcula primeiro 𝐴 vezes 𝐵 e depois multiplica o resultado por 𝐶 ou se primeiro multiplicar 𝐵 vezes 𝐶 e depois multiplica esse resultado por 𝐴 à esquerda. Por outras palavras, não importa onde coloca os parênteses.

Agora, se tentar trabalhá-la numericamente, como eu fiz naquela altura, é horrível, horrível e pouco esclarecedor. Mas quando pensa em multiplicação de matrizes aplicando uma transformação após outra, esta propriedade é simplesmente trivial. Pode ver porquê? O que está a dizer é que se aplicar primeiro 𝐶 depois 𝐵 depois 𝐴, é o mesmo que aplicar 𝐶 depois 𝐵 e depois 𝐴. Quer dizer, não há nada para provar; está apenas a aplicar as mesmas três coisas, uma após a outra, todas na mesma ordem. Isto pode parecer uma trapaça. Mas não é! Esta é uma demonstração honesta de que a multiplicação de matrizes é associativa e, melhor ainda, é uma boa explicação de por que é que esta propriedade deve ser verdadeira.

Eu realmente encorajo-o a brincar mais com esta ideia: imaginar duas transformações diferentes, pensar sobre o que acontece quando aplica uma após a outra e depois calcula a matriz produto numericamente. Confie em mim, este é o tipo de brincadeira que realmente faz a ideia penetrar. No próximo vídeo, vou começar por falar sobre estender estas ideias além de apenas duas dimensões. Até lá!

A Nagwa usa cookies para garantir que você tenha a melhor experiência em nosso site. Saiba mais sobre nossa Política de privacidade.