Video Transcript
Olá pessoal! De onde paramos da última vez, apresentei as transformações lineares e
como representá-las utilizando matrizes. Vale a pena uma rápida recapitulação porque é muito importante. Mas, claro, se isso parecer mais do que uma simples recapitulação, volte
e assista ao vídeo completo.
Tecnicamente falando, transformações lineares são funções, com vetores
como objeto e vetores como imagem. Mas, da última vez, mostrei como podemos pensar nelas visualmente como se
utilizassem o espaço de tal forma que as linhas da grelha
permanecessem paralelas e uniformemente espaçadas, de modo que a
origem permanecesse fixa.
O principal argumento foi que uma transformação linear é completamente
determinada por onde são tomados os vetores da base do espaço que,
para duas dimensões, significa 𝑖-chapéu e 𝑗-chapéu. Isto acontece porque qualquer outro vetor pode ser descrito como uma
combinação linear destes vetores da base. Um vetor com coordenadas 𝑥, 𝑦 é 𝑥 vezes 𝑖-chapéu mais 𝑦 vezes
𝑗-chapéu.
Depois de passar pela transformação, esta propriedade, as linhas da
grelha permanecem paralelas e uniformemente espaçadas, tem uma
consequência maravilhosa. O local onde o seu vetor será 𝑥 vezes a versão transformada de 𝑖-chapéu
mais 𝑦 vezes a versão transformada de 𝑗-chapéu. Isto significa que se mantiver um registo das coordenadas onde 𝑖-chapéu
aterra e as coordenadas onde 𝑗-chapéu aterra, pode calcular que um
vetor que começa em 𝑥, 𝑦 deve aterrar em 𝑥 vezes as novas
coordenadas de 𝑖-chapéu mais 𝑦 vezes as novas coordenadas de
𝑗-chapéu.
A convenção é registar as coordenadas de onde 𝑖-chapéu e 𝑗-chapéu se
encaixam como colunas de uma matriz e definir essa soma das versões
em escala dessas colunas por 𝑥 e 𝑦 para ser a multiplicação de uma
matriz e um vetor. Desta forma, uma matriz representa uma transformação linear
específica. E multiplicar uma matriz por um vetor é, o que significa em termos de
cálculo, aplicar essa transformação nesse vetor. Muito bem, recapitulado. Para o novo material.
Muitas vezes, encontra-se a querer descrever o efeito de aplicar uma
transformação e depois outra. Por exemplo, talvez queira descrever o que acontece quando roda primeiro
o plano 90 graus em sentido anti-horário e aplica um
cisalhamento. O efeito geral aqui, do início ao fim, é outra transformação linear,
distinta da rotação e do cisalhamento. Essa nova transformação linear é comumente chamada de “composição” das
duas transformações separadas que aplicamos. E como qualquer transformação linear, ela pode ser descrita com uma
matriz própria, seguindo 𝑖-chapéu e 𝑗-chapéu.
Neste exemplo, o ponto crucial de aterragem de 𝑖-chapéu após ambas as
transformações é um, um. Então vamos fazê-la a primeira coluna de uma matriz. Da mesma forma, 𝑗-chapéu aterra no local menos um, zero, então fazemo-la
a segunda coluna da matriz. Esta nova matriz captura o efeito geral de aplicar uma rotação, em
seguida, um cisalhamento, mas como uma única ação, em vez de duas
sucessivas.
Aqui está uma forma de pensar sobre esta nova matriz: se tomar um vetor e
bombeá-lo por meio da rotação e depois o cisalhamento, o caminho
mais longo para calcular onde aterra é, primeiro, multiplicá-lo à
esquerda pela matriz de rotação, em seguida, considerar o que
obtiver e multiplicá-lo à esquerda pela matriz do cisalhamento. Isto é, numericamente falando, o que significa aplicar uma rotação
seguida de um cisalhamento de um determinado vetor. Mas o que quer que consiga deve ser o mesmo que apenas aplicar esta nova
matriz de composição que acabámos de encontrar, pelo mesmo vetor,
não importa o vetor escolhido, já que esta nova matriz deve capturar
o mesmo efeito geral que a ação rotação-depois-cisalhamento.
Com base na forma como as coisas estão escritas aqui, acho razoável
chamar esta nova matriz o “produto” das duas matrizes originais. Não é? Podemos pensar como calcular este produto de maneira mais geral daqui a
pouco, mas é muito fácil perder-se na floresta de números. Lembre-se sempre de que multiplicar duas matrizes como esta tem o
significado geométrico de aplicar uma transformação e depois
outra. Uma coisa que é um pouco estranha aqui é que isto tem é que se lê da
direita para a esquerda. Aplica primeiro a transformação representada pela matriz à direita. Em seguida, aplica a transformação representada pela matriz à
esquerda. Isto decorre da notação das funções, já que escrevemos funções à esquerda
das variáveis. Então sempre compõe duas funções, tem sempre que ler da direita para a
esquerda. Boas notícias para os leitores hebraicos, más notícias para o resto de
nós.
Vamos ver outro exemplo. Considere a matriz com colunas um, um e menos dois, zero, cuja
transformação se parece com isso, e vamos chamá-la 𝑀 um. Em seguida, considere a matriz com as colunas zero, um e dois, zero, cuja
transformação se parece com isso, e vamos chamá-la 𝑀 dois. O efeito total de aplicar 𝑀 um e depois 𝑀 dois dá-nos uma nova
transformação. Então vamos determinar a sua matriz. Mas, desta vez, vamos ver se podemos fazê-lo sem assistir às animações e,
em vez disso, utilizando apenas as entradas numéricas de cada
matriz.
Primeiro, precisamos de descobrir para onde vai 𝑖-chapéu. Depois de aplicar 𝑀 um, as novas coordenadas de 𝑖-chapéu, por
definição, são dadas pela primeira coluna de 𝑀 um, a saber, um,
um. Para ver o que acontece depois de aplicar 𝑀 dois, multiplique a matriz
por 𝑀 dois pelo vetor um, um. Trabalhando da maneira que descrevi no último vídeo, obterá o vetor dois,
um. Esta será a primeira coluna da matriz de composição. Da mesma forma, para seguir 𝑗-chapéu, a segunda coluna de 𝑀 um diz-nos
que primeiro aterra em menos dois, zero. Em seguida, quando aplicarmos 𝑀 dois a este vetor, pode calcular o
produto vetor e matriz para obter zero, menos dois, que se torna a
segunda coluna da nossa matriz de composição.
Deixe-me falar sobre o mesmo processo novamente, mas, desta vez,
mostrarei entradas variáveis em cada matriz, apenas para mostrar
que a mesma linha de raciocínio funciona para qualquer matriz. Este é mais carregado em termos de símbolos e exigirá mais espaço, mas
deve ser bastante satisfatório para quem já aprendeu a multiplicação
de matrizes de forma mais mecânica. Para seguir onde 𝑖-chapéu aterra, comece por ver a primeira coluna da
matriz à direita, já que é onde 𝑖-chapéu inicialmente aterra. É multiplicando essa coluna pela matriz à esquerda que pode dizer onde a
versão intermédia de 𝑖-chapéu aterra após aplicar a segunda
transformação. Assim, a primeira coluna da matriz de composição será sempre igual à
matriz à esquerda multiplicada pela primeira coluna da matriz à
direita. Da mesma forma, 𝑗-chapéu aterrará sempre inicialmente na segunda coluna
da matriz à direta. Então, multiplicar a matriz à esquerda por essa segunda coluna dará a sua
localização final. E, portanto, essa é a segunda coluna da matriz de composição.
Repare, há muitos símbolos aqui. E é comum aprender esta fórmula como algo para memorizar em conjunto com
um determinado processo algorítmico para o ajudar a recordar-se. Mas eu acho que antes de memorizar este processo, deveria adquirir o
hábito de pensar sobre o que a multiplicação de matrizes realmente
representa: aplicar uma transformação após outra. Confie em mim, isso dar-lhe-á uma estrutura conceptual muito melhor que
torna as propriedades da multiplicação de matrizes muito mais fáceis
de entender.
Por exemplo, aqui está uma pergunta: importa em que ordem colocamos as
duas matrizes quando as multiplicamos? Bem, vamos pensar num exemplo simples como o anterior. Considere um cisalhamento que fixe 𝑖-chapéu e espalme 𝑗-chapéu para a
direita e uma rotação de 90 graus. Se fizer o cisalhamento primeiro e depois rodar, podemos ver que
𝑖-chapéu aterra em zero, um e 𝑗-chapéu aterra em menos um, um. Ambos estão próximos um do outro. Se rodar primeiro e depois fizer o cisalhamento, 𝑖-chapéu aterra em um,
um e 𝑗-chapéu está numa direção diferente em menos um, zero. E estão, como sabe, mais distantes um do outro. O efeito geral aqui é claramente diferente. Então, evidentemente, a ordem importa totalmente.
Observe, pensando em termos de transformações, este é o tipo de coisa que
pode fazer na sua cabeça visualizando. Nenhuma multiplicação de matrizes necessária. Lembro-me de quando comecei pela álgebra linear, houve um problema para
trabalho de casa que nos pedia para provar que a multiplicação de
matrizes é associativa. Isto significa que se tem três matrizes 𝐴, 𝐵 e 𝐶 e as multiplica por
completo, não importa se calcula primeiro 𝐴 vezes 𝐵 e depois
multiplica o resultado por 𝐶 ou se primeiro multiplicar 𝐵 vezes 𝐶
e depois multiplica esse resultado por 𝐴 à esquerda. Por outras palavras, não importa onde coloca os parênteses.
Agora, se tentar trabalhá-la numericamente, como eu fiz naquela altura, é
horrível, horrível e pouco esclarecedor. Mas quando pensa em multiplicação de matrizes aplicando uma transformação
após outra, esta propriedade é simplesmente trivial. Pode ver porquê? O que está a dizer é que se aplicar primeiro 𝐶 depois 𝐵 depois 𝐴, é o
mesmo que aplicar 𝐶 depois 𝐵 e depois 𝐴. Quer dizer, não há nada para provar; está apenas a aplicar as mesmas três
coisas, uma após a outra, todas na mesma ordem. Isto pode parecer uma trapaça. Mas não é! Esta é uma demonstração honesta de que a multiplicação de matrizes é
associativa e, melhor ainda, é uma boa explicação de por que é que
esta propriedade deve ser verdadeira.
Eu realmente encorajo-o a brincar mais com esta ideia: imaginar duas
transformações diferentes, pensar sobre o que acontece quando aplica
uma após a outra e depois calcula a matriz produto
numericamente. Confie em mim, este é o tipo de brincadeira que realmente faz a ideia
penetrar. No próximo vídeo, vou começar por falar sobre estender estas ideias além
de apenas duas dimensões. Até lá!