Transcription de la vidéo
Salut tout le monde ! Là où nous en étions restés, j’ai montré à quoi ressemblaient les
applications linéaires et comment les représenter à l’aide de
matrices. Cela mérite une récapitulation rapide parce que c’est vraiment
important. Mais bien sûr, si cela ressemble à plus qu’une simple récapitulation,
revenez en arrière et regardez la vidéo en entier.
Techniquement, les applications linéaires sont des fonctions, avec des
vecteurs en entrée et des vecteurs en sortie. Mais j’ai montré la dernière fois que nous pouvions les percevoir
visuellement comme un glissement dans l’espace, de telle sorte que
les lignes de la grille restent parallèles et régulièrement
espacées, de sorte que l’origine reste figée.
La clé à emporter est qu’une application linéaire est complètement
déterminée par l’endroit où elle envoie les vecteurs de base de
l’espace qui, en deux dimensions, sont 𝑖 chapeau et 𝑗 chapeau. En effet, tout autre vecteur peut être décrit comme une combinaison
linéaire de ces vecteurs de base. Un vecteur de coordonnées 𝑥, 𝑦 est 𝑥 fois 𝑖 chapeau plus 𝑦 fois 𝑗
chapeau.
Après avoir effectué l’application, cette propriété, les lignes de la
grille restent parallèles et régulièrement espacées, a une
conséquence merveilleuse. L’endroit où vos vecteurs de base seront 𝑥 fois la version transformée
de 𝑖 chapeau, plus 𝑦 fois la version transformée de 𝑗
chapeau. Cela signifie que si vous conservez un enregistrement des coordonnées où
𝑖 chapeau atterrit et les coordonnées où 𝑗 chapeau atterrit, vous
pouvez calculer qu’un vecteur qui commence à 𝑥, 𝑦 doit atterrir
sur 𝑥 fois les nouvelles coordonnées de 𝑖 chapeau, plus 𝑦 fois
les nouvelles coordonnées de 𝑗 chapeau.
La convention est d’enregistrer les coordonnées de l’endroit où 𝑖
chapeau et 𝑗 chapeau atterrissent comme les colonnes d’une matrice
et de définir cette somme des versions mises à l’échelle de ces
colonnes par 𝑥 et 𝑦 comme étant la multiplication
matrice-vecteur. De cette manière, une matrice représente une application linéaire
spécifique. Et multiplier une matrice par un vecteur, c’est-à-dire par calcul,
appliquer cette application à ce vecteur. Bon, récapitulons. Sur les nouvelles choses.
Souvent, vous avez envie de décrire l’effet de l’application d’une
application à une autre. Par exemple, vous voudrez peut-être décrire ce qui se passe lorsque vous
faites d’abord pivoter le plan de 90 degrés dans le sens
trigonométrique, puis que vous appliquez une cisaille. L’effet global ici, du début à la fin, est une autre application
linéaire, distincte de la rotation et de la cisaille. Cette nouvelle application linéaire est communément appelée la
« composée » des deux applications distinctes que nous avons
effectuées. Et comme toute application linéaire, elle peut être décrite par une
matrice qui lui est propre, en suivant 𝑖 chapeau et 𝑗 chapeau.
Dans cet exemple, le point d’atterrissage final pour 𝑖 chapeau après les
deux applications est un, un. Faisons-en la première colonne d’une matrice. De même, 𝑗 chapeau finit par se trouver à l’emplacement moins 1, zéro,
nous le faisons donc à la deuxième colonne de la matrice. Cette nouvelle matrice capture l’effet global d’appliquer une rotation
puis une cisaille, mais en une seule action plutôt que deux.
Voici une façon de penser à cette nouvelle matrice : si vous preniez un
vecteur et le pompiez tout au long de la rotation, le chemin à
parcourir pour calculer le résultat final consiste à le multiplier,
tout d’abord, multipliez-le à gauche par la matrice de rotation ;
ensuite, prenez ce que vous obtenez et multipliez-le à gauche par la
matrice de cisaille. C’est, numériquement, ce que signifie appliquer une rotation puis une
cisaille à un vecteur donné. Mais quoi que vous obteniez, ce devrait être la même chose que
d’appliquer cette nouvelle matrice de composition que nous venons de
trouver, quel que soit le vecteur que vous avez choisi, puisque ce
nouveau vecteur est supposé capturer le même effet global que
l’action rotation-puis-cisaille.
Selon la façon dont les choses sont écrites ici, je pense qu’il est
raisonnable d’appeler cette nouvelle matrice, le « produit » des
deux matrices originales. N’est-ce pas ? Nous pouvons réfléchir à la façon de calculer ce produit de manière plus
générale en un instant, mais il est beaucoup trop facile de se
perdre dans la forêt des chiffres. Rappelez-vous toujours que multiplier deux matrices comme celle-ci a le
sens géométrique d’appliquer une application puis une autre. Une chose qui est un peu bizarre ici est que cela se lit de droite à
gauche. Vous appliquez d’abord l’application représentée par la matrice de
droite. Ensuite, vous appliquez celle représentée par la matrice de gauche. Cela provient de la notation des fonctions, puisque nous écrivons des
fonctions à gauche des variables. Ainsi, chaque fois que vous composez deux fonctions, vous devez toujours
le lire de droite à gauche. Bonne nouvelle pour les lecteurs hébreux, mauvaise pour le reste d’entre
nous.
Regardons un autre exemple. Prenez la matrice avec les colonnes un, un et moins deux, zéro, dont
l’application se présente comme suit, et nous allons l’appeler 𝑀
un. Ensuite, prenez la matrice avec des colonnes zéro, un et deux, zéro, dont
l’application se présente comme suit, et appelons-la 𝑀 deux. L’effet total de l’application 𝑀 un, puis 𝑀 deux nous donne une
nouvelle application. Alors trouvons sa matrice. Mais cette fois, voyons si nous pouvons le faire sans regarder les
animations, mais plutôt en utilisant simplement les entrées
numériques de chaque matrice.
Tout d’abord, nous devons savoir où 𝑖 chapeau va. Après avoir appliqué 𝑀 un, les nouvelles coordonnées de 𝑖 chapeau, par
définition, sont données par la première colonne de 𝑀 un, à savoir
un, un. Pour voir ce qui se passe après l’application 𝑀 deux, multipliez la
matrice 𝑀 deux par le vecteur un, un. En travaillant comme je l’ai décrit dans la dernière vidéo, vous
obtiendrez le vecteur deux, un. Ce sera la première colonne de la matrice de composition. De même, pour suivre 𝑗 chapeau, la deuxième colonne de 𝑀 nous a dit que
celui-ci atterrit sur moins deux, zéro. Ensuite, lorsque nous appliquons 𝑀 deux à ce vecteur, vous pouvez
calculer le produit matrice-vecteur pour obtenir zéro, moins deux,
ce qui devient la deuxième colonne de notre matrice de
composition.
Permettez-moi de parler de nouveau du même processus, mais cette fois-ci,
je vais afficher des entrées variables dans chaque matrice, afin de
montrer que le même raisonnement fonctionne pour toutes les
matrices. Ceci est plus lourd en symboles et nécessitera un peu plus de place, mais
cela devrait être assez satisfaisant pour quiconque a déjà appris la
multiplication matricielle de façon plus réaliste. Pour suivre où se trouve 𝑖 chapeau, commencez par regarder la première
colonne de la matrice de droite, car c’est là que 𝑖 chapeau
atterrit initialement. Cette colonne par multiplication de la matrice sur la gauche est de
savoir comment vous pouvez dire où la version intermédiaire de 𝑖
chapeau se termine après l’application de la seconde
application. Ainsi, la première colonne de la matrice de composition sera toujours
égale à la matrice de gauche multipliée par la première colonne de
la matrice de droite. De même, 𝑗 chapeau qui atterrira toujours dans la deuxième colonne de la
matrice droite. Donc, multiplier la matrice de gauche par cette seconde colonne donnera
son emplacement final. Et par conséquent, c’est la deuxième colonne de la matrice de
composition.
Remarquez, il y a beaucoup de symboles ici. Et il est courant d’apprendre que cette formule est quelque chose à
mémoriser avec un certain processus algorithmique pour aider à la
mémoriser. Mais je pense vraiment qu’avant de mémoriser ce processus, vous devriez
prendre l’habitude de penser à ce que la multiplication matricielle
représente réellement : appliquer une application après l’autre. Faites-moi confiance, cela vous donnera un cadre conceptuel bien meilleur
qui rend les propriétés de la multiplication matricielle beaucoup
plus faciles à comprendre.
Par exemple, voici une question: est-ce que l’ordre dans lequel nous
plaçons les deux matrices importe quand nous les multiplions ? Eh bien, réfléchissons à un exemple simple comme celui de tout à
l’heure. Prenez une cisaille qui fixe 𝑖 chapeau et décale 𝑗 chapeau vers la
droite et une rotation de 90 degrés. Si vous faites d’abord le cisaillement puis que vous faites pivoter, nous
pouvons voir que 𝑖 finit à zéro, un et 𝑗 finit à moins un, un. Les deux pointent généralement très près l’un de l’autre. Si vous faites d’abord une rotation, faites ensuite le cisaillement, 𝑖
-qui finit à un, un et 𝑗 -qui est éteint dans une direction
différente à la négative, zéro. Et ils pointent, vous savez, plus loin. L’effet global ici est clairement différent. Donc, évidemment, l’ordre est totalement important.
Remarquez, en pensant en termes d’application, c’est le genre de chose
que vous pouvez faire dans votre tête en visualisant. Aucune multiplication de matrice nécessaire. Je me souviens que lorsque j’ai appris l’algèbre linéaire pour la
première fois, un problème de devoirs nous demandait de prouver que
la multiplication matricielle est associative. Cela signifie que si vous avez trois matrices 𝐴, 𝐵 et 𝐶 et vous les
multipliez, cela ne change rien si vous devez d’abord calculer 𝐴
fois 𝐵 puis multiplier le résultat par 𝐶 ou si vous devez d’abord
multiplier 𝐵 par 𝐶 puis multiplier ce résultat par 𝐴 à
gauche. En d’autres termes, peu importe où vous mettez les parenthèses.
Maintenant, si vous essayez de résoudre ce problème numériquement, comme
je l’ai fait à l’époque, c’est horrible, tout simplement horrible et
peu éclairant à cet égard. Mais si vous envisagez la multiplication matricielle en appliquant une
application après l’autre, cette propriété est simplement
triviale. Pouvez-vous voir pourquoi ? Ce qu’elle dit est que si vous appliquez d’abord 𝐶 puis 𝐵 puis 𝐴,
c’est la même que l’application 𝐶 puis 𝐵 puis 𝐴. Je veux dire qu’il n’y a rien à prouver ; vous appliquez simplement les
trois mêmes choses l’une après l’autre dans le même ordre. Cela pourrait donner l’impression de tricher. Mais ce n’est pas ! C’est une preuve irréfutable que la multiplication de matrice est
associative et, même mieux que cela, c’est une bonne explication de
la raison pour laquelle cette propriété devrait être vraie.
Je vous encourage vraiment à jouer davantage avec cette idée : imaginer
deux applications différentes, réfléchir à ce qui se passe lorsque
vous appliquez l’une après l’autre, puis élaborer numériquement le
produit matrice. Faites-moi confiance, c’est le genre de récréation qui permet vraiment
d’ancrer l’idée. Dans la vidéo suivante, je commencerai par parler de l’extension de ces
idées au-delà de deux dimensions. À plus tard !