Vidéo : Multiplication matricielle comme composition

Grant Sanderson • 3Blue1Brown • Boclips

Multiplication matricielle comme composition

10:03

Transcription de vidéo

Salut tout le monde ! Là où nous en étions restés, j’ai montré à quoi ressemblaient les applications linéaires et comment les représenter à l’aide de matrices. Cela mérite une récapitulation rapide parce que c’est vraiment important. Mais bien sûr, si cela ressemble à plus qu’une simple récapitulation, revenez en arrière et regardez la vidéo en entier.

Techniquement, les applications linéaires sont des fonctions, avec des vecteurs en entrée et des vecteurs en sortie. Mais j’ai montré la dernière fois que nous pouvions les percevoir visuellement comme un glissement dans l’espace, de telle sorte que les lignes de la grille restent parallèles et régulièrement espacées, de sorte que l’origine reste figée.

La clé à emporter est qu’une application linéaire est complètement déterminée par l’endroit où elle envoie les vecteurs de base de l’espace qui, en deux dimensions, sont 𝑖 chapeau et 𝑗 chapeau. En effet, tout autre vecteur peut être décrit comme une combinaison linéaire de ces vecteurs de base. Un vecteur de coordonnées 𝑥, 𝑦 est 𝑥 fois 𝑖 chapeau plus 𝑦 fois 𝑗 chapeau.

Après avoir effectué l’application, cette propriété, les lignes de la grille restent parallèles et régulièrement espacées, a une conséquence merveilleuse. L’endroit où vos vecteurs de base seront 𝑥 fois la version transformée de 𝑖 chapeau, plus 𝑦 fois la version transformée de 𝑗 chapeau. Cela signifie que si vous conservez un enregistrement des coordonnées où 𝑖 chapeau atterrit et les coordonnées où 𝑗 chapeau atterrit, vous pouvez calculer qu’un vecteur qui commence à 𝑥, 𝑦 doit atterrir sur 𝑥 fois les nouvelles coordonnées de 𝑖 chapeau, plus 𝑦 fois les nouvelles coordonnées de 𝑗 chapeau.

La convention est d’enregistrer les coordonnées de l’endroit où 𝑖 chapeau et 𝑗 chapeau atterrissent comme les colonnes d’une matrice et de définir cette somme des versions mises à l’échelle de ces colonnes par 𝑥 et 𝑦 comme étant la multiplication matrice-vecteur. De cette manière, une matrice représente une application linéaire spécifique. Et multiplier une matrice par un vecteur, c’est-à-dire par calcul, appliquer cette application à ce vecteur. Bon, récapitulons. Sur les nouvelles choses.

Souvent, vous avez envie de décrire l’effet de l’application d’une application à une autre. Par exemple, vous voudrez peut-être décrire ce qui se passe lorsque vous faites d’abord pivoter le plan de 90 degrés dans le sens trigonométrique, puis que vous appliquez une cisaille. L’effet global ici, du début à la fin, est une autre application linéaire, distincte de la rotation et de la cisaille. Cette nouvelle application linéaire est communément appelée la « composée » des deux applications distinctes que nous avons effectuées. Et comme toute application linéaire, elle peut être décrite par une matrice qui lui est propre, en suivant 𝑖 chapeau et 𝑗 chapeau.

Dans cet exemple, le point d’atterrissage final pour 𝑖 chapeau après les deux applications est un, un. Faisons-en la première colonne d’une matrice. De même, 𝑗 chapeau finit par se trouver à l’emplacement moins 1, zéro, nous le faisons donc à la deuxième colonne de la matrice. Cette nouvelle matrice capture l’effet global d’appliquer une rotation puis une cisaille, mais en une seule action plutôt que deux.

Voici une façon de penser à cette nouvelle matrice : si vous preniez un vecteur et le pompiez tout au long de la rotation, le chemin à parcourir pour calculer le résultat final consiste à le multiplier, tout d’abord, multipliez-le à gauche par la matrice de rotation ; ensuite, prenez ce que vous obtenez et multipliez-le à gauche par la matrice de cisaille. C’est, numériquement, ce que signifie appliquer une rotation puis une cisaille à un vecteur donné. Mais quoi que vous obteniez, ce devrait être la même chose que d’appliquer cette nouvelle matrice de composition que nous venons de trouver, quel que soit le vecteur que vous avez choisi, puisque ce nouveau vecteur est supposé capturer le même effet global que l’action rotation-puis-cisaille.

Selon la façon dont les choses sont écrites ici, je pense qu’il est raisonnable d’appeler cette nouvelle matrice, le « produit » des deux matrices originales. N’est-ce pas ? Nous pouvons réfléchir à la façon de calculer ce produit de manière plus générale en un instant, mais il est beaucoup trop facile de se perdre dans la forêt des chiffres. Rappelez-vous toujours que multiplier deux matrices comme celle-ci a le sens géométrique d’appliquer une application puis une autre. Une chose qui est un peu bizarre ici est que cela se lit de droite à gauche. Vous appliquez d’abord l’application représentée par la matrice de droite. Ensuite, vous appliquez celle représentée par la matrice de gauche. Cela provient de la notation des fonctions, puisque nous écrivons des fonctions à gauche des variables. Ainsi, chaque fois que vous composez deux fonctions, vous devez toujours le lire de droite à gauche. Bonne nouvelle pour les lecteurs hébreux, mauvaise pour le reste d’entre nous.

Regardons un autre exemple. Prenez la matrice avec les colonnes un, un et moins deux, zéro, dont l’application se présente comme suit, et nous allons l’appeler 𝑀 un. Ensuite, prenez la matrice avec des colonnes zéro, un et deux, zéro, dont l’application se présente comme suit, et appelons-la 𝑀 deux. L’effet total de l’application 𝑀 un, puis 𝑀 deux nous donne une nouvelle application. Alors trouvons sa matrice. Mais cette fois, voyons si nous pouvons le faire sans regarder les animations, mais plutôt en utilisant simplement les entrées numériques de chaque matrice.

Tout d’abord, nous devons savoir où 𝑖 chapeau va. Après avoir appliqué 𝑀 un, les nouvelles coordonnées de 𝑖 chapeau, par définition, sont données par la première colonne de 𝑀 un, à savoir un, un. Pour voir ce qui se passe après l’application 𝑀 deux, multipliez la matrice 𝑀 deux par le vecteur un, un. En travaillant comme je l’ai décrit dans la dernière vidéo, vous obtiendrez le vecteur deux, un. Ce sera la première colonne de la matrice de composition. De même, pour suivre 𝑗 chapeau, la deuxième colonne de 𝑀 nous a dit que celui-ci atterrit sur moins deux, zéro. Ensuite, lorsque nous appliquons 𝑀 deux à ce vecteur, vous pouvez calculer le produit matrice-vecteur pour obtenir zéro, moins deux, ce qui devient la deuxième colonne de notre matrice de composition.

Permettez-moi de parler de nouveau du même processus, mais cette fois-ci, je vais afficher des entrées variables dans chaque matrice, afin de montrer que le même raisonnement fonctionne pour toutes les matrices. Ceci est plus lourd en symboles et nécessitera un peu plus de place, mais cela devrait être assez satisfaisant pour quiconque a déjà appris la multiplication matricielle de façon plus réaliste. Pour suivre où se trouve 𝑖 chapeau, commencez par regarder la première colonne de la matrice de droite, car c’est là que 𝑖 chapeau atterrit initialement. Cette colonne par multiplication de la matrice sur la gauche est de savoir comment vous pouvez dire où la version intermédiaire de 𝑖 chapeau se termine après l’application de la seconde application. Ainsi, la première colonne de la matrice de composition sera toujours égale à la matrice de gauche multipliée par la première colonne de la matrice de droite. De même, 𝑗 chapeau qui atterrira toujours dans la deuxième colonne de la matrice droite. Donc, multiplier la matrice de gauche par cette seconde colonne donnera son emplacement final. Et par conséquent, c’est la deuxième colonne de la matrice de composition.

Remarquez, il y a beaucoup de symboles ici. Et il est courant d’apprendre que cette formule est quelque chose à mémoriser avec un certain processus algorithmique pour aider à la mémoriser. Mais je pense vraiment qu’avant de mémoriser ce processus, vous devriez prendre l’habitude de penser à ce que la multiplication matricielle représente réellement : appliquer une application après l’autre. Faites-moi confiance, cela vous donnera un cadre conceptuel bien meilleur qui rend les propriétés de la multiplication matricielle beaucoup plus faciles à comprendre.

Par exemple, voici une question: est-ce que l’ordre dans lequel nous plaçons les deux matrices importe quand nous les multiplions ? Eh bien, réfléchissons à un exemple simple comme celui de tout à l’heure. Prenez une cisaille qui fixe 𝑖 chapeau et décale 𝑗 chapeau vers la droite et une rotation de 90 degrés. Si vous faites d’abord le cisaillement puis que vous faites pivoter, nous pouvons voir que 𝑖 finit à zéro, un et 𝑗 finit à moins un, un. Les deux pointent généralement très près l’un de l’autre. Si vous faites d’abord une rotation, faites ensuite le cisaillement, 𝑖 -qui finit à un, un et 𝑗 -qui est éteint dans une direction différente à la négative, zéro. Et ils pointent, vous savez, plus loin. L’effet global ici est clairement différent. Donc, évidemment, l’ordre est totalement important.

Remarquez, en pensant en termes d’application, c’est le genre de chose que vous pouvez faire dans votre tête en visualisant. Aucune multiplication de matrice nécessaire. Je me souviens que lorsque j’ai appris l’algèbre linéaire pour la première fois, un problème de devoirs nous demandait de prouver que la multiplication matricielle est associative. Cela signifie que si vous avez trois matrices 𝐴, 𝐵 et 𝐶 et vous les multipliez, cela ne change rien si vous devez d’abord calculer 𝐴 fois 𝐵 puis multiplier le résultat par 𝐶 ou si vous devez d’abord multiplier 𝐵 par 𝐶 puis multiplier ce résultat par 𝐴 à gauche. En d’autres termes, peu importe où vous mettez les parenthèses.

Maintenant, si vous essayez de résoudre ce problème numériquement, comme je l’ai fait à l’époque, c’est horrible, tout simplement horrible et peu éclairant à cet égard. Mais si vous envisagez la multiplication matricielle en appliquant une application après l’autre, cette propriété est simplement triviale. Pouvez-vous voir pourquoi ? Ce qu’elle dit est que si vous appliquez d’abord 𝐶 puis 𝐵 puis 𝐴, c’est la même que l’application 𝐶 puis 𝐵 puis 𝐴. Je veux dire qu’il n’y a rien à prouver ; vous appliquez simplement les trois mêmes choses l’une après l’autre dans le même ordre. Cela pourrait donner l’impression de tricher. Mais ce n’est pas ! C’est une preuve irréfutable que la multiplication de matrice est associative et, même mieux que cela, c’est une bonne explication de la raison pour laquelle cette propriété devrait être vraie.

Je vous encourage vraiment à jouer davantage avec cette idée : imaginer deux applications différentes, réfléchir à ce qui se passe lorsque vous appliquez l’une après l’autre, puis élaborer numériquement le produit matrice. Faites-moi confiance, c’est le genre de récréation qui permet vraiment d’ancrer l’idée. Dans la vidéo suivante, je commencerai par parler de l’extension de ces idées au-delà de deux dimensions. À plus tard !

Nagwa utilise des cookies pour vous garantir la meilleure expérience sur notre site. En savoir plus sur notre Politique de Confidentialité.