Vidéo : Matrices inverses, espace colonne et espace nul

Grant Sanderson • 3Blue1Brown • Boclips

Matrices inverses, espace colonne et espace nul

12:08

Transcription de vidéo

Comme vous pouvez probablement le constater à présent, le gros de cette série porte sur la compréhension des opérations matricielles et vectorielles à travers cette lentille plus visuelle des transformations linéaires. Cette vidéo ne fait pas exception, elle décrit les concepts de matrices inverses, d’espace colonne, de rang et d’espace nul à travers cette lentille. Un avertissement cependant, je ne vais pas parler sur les méthodes pour programmer ces calculs, et certains diront que c’est assez important. Il existe de très bonnes ressources pour apprendre ces méthodes en dehors de cette série, mots clés « pivot de gauss » et « matrice échelonnée ».

Je pense que la majeure partie de la valeur que je dois ajouter ici concerne la moitié intuition. De plus, en pratique, nous avons généralement un logiciel qui calcule ce truc pour nous de toute façon. Tout d’abord, quelques mots sur l’utilité de l’algèbre linéaire. À présent, vous avez déjà une idée de la façon dont elle est utilisée pour décrire la manipulation de l’espace, ce qui est utile pour des tâches telles que l’infographie et la robotique. Mais l’une des principales raisons pour laquelle l’algèbre linéaire est plus largement applicable, et requise pour à peu près n’importe quelle discipline technique, est qu’elle nous permet de résoudre certains systèmes d’équations. Quand je parle de système d’équations, je veux dire que vous avez une liste de variables, des choses que vous ne connaissez pas et une liste d’équations les liant. Dans de nombreuses situations, ces équations peuvent devenir très compliquées, mais si vous êtes chanceux, elles peuvent revêtir une forme particulière : dans chaque équation, le seul problème rencontré par chaque variable est qu’elle est réduite de manière constante, et la seule chose qui arrive à chacune de ces variables mises à l’échelle est qu’elles sont ajoutées les unes aux autres. Donc, pas d’exposants ou de fonctions fantaisistes, ni de multiplication de deux variables ensemble, des choses comme ça.

La manière typique d’organiser ce type de système spécial d’équations consiste à jeter toutes les variables à gauche et à mettre les constantes en attente à droite. Il est également agréable d’aligner verticalement les variables communes. Et pour ce faire, vous devrez peut-être ajouter des coefficients nuls chaque fois que la variable ne figure pas dans l’une des équations. Ceci s’appelle un système linéaire d’équations. Vous remarquerez peut-être que cela ressemble beaucoup à la multiplication de matrices et vecteurs. En fait, vous pouvez regrouper toutes les équations dans une seule équation vectorielle, la matrice contenant tous les coefficients constants et un vecteur contenant toutes les variables et leur produit matrice-vecteur étant égal à un autre vecteur constant. Appelons cette matrice constante 𝐴, on note le vecteur contenant les variables par 𝐱 en caractère gras et on appelle le vecteur constant sur la droite 𝐯. C’est plus qu’une astuce de notation pour que notre système d’équations soit écrit sur une seule ligne. Il met en lumière une interprétation géométrique assez cool pour le problème.

La matrice 𝐴 correspond à une transformation linéaire, de sorte que la résolution 𝐴𝐱 est égale à 𝐯 signifie que nous sommes à la recherche d’un vecteur 𝐱 qui, après l’application de la transformation, atterrit sur 𝐯. Pensez à ce qui se passe ici un instant. Vous pouvez garder dans votre tête cette idée vraiment compliquée de multiples variables qui se mêlent les unes aux autres en pensant simplement à l’espace qui se loge et se métamorphose et en essayant de déterminer quel vecteur atterrit sur un autre. Cool, non ?! Pour commencer simplement, disons que vous avez un système avec deux équations et deux inconnues. Cela signifie que la matrice 𝐴 est une matrice deux par deux, et 𝐯 et 𝐱 sont chacun des vecteurs bidimensionnels. Maintenant, notre façon de penser aux solutions à cette équation dépend de si la transformation associée à 𝐴 écrase tout l’espace en une dimension inférieure, comme une ligne ou un point, ou si elle laisse tout recouvrir les deux dimensions complètes où elle a commencé.

Dans le langage de la dernière vidéo, nous divisons le cas où 𝐴 a un déterminant nul et le cas où 𝐴 a un déterminant non nul. Commençons par le cas le plus probable, où le déterminant est non nul, ce qui signifie que l’espace n’est pas écrasé dans une région d’aire nulle. Dans ce cas, il y aura toujours un et un seul vecteur qui atterrira sur 𝐯, et vous pourrez le trouver en jouant la transformation à l’envers. À la suite où 𝐯 va nous rembobiner la bande comme celui-ci, vous trouverez le vecteur 𝐱 tel que 𝐴 fois 𝐱 égale 𝐯. Lorsque vous jouez la transformation en sens inverse, cela correspond en fait à une transformation linéaire séparée, communément appelé l’inverse de 𝐴, notée 𝐴 puissance moins un. Par exemple, si 𝐴 était une rotation de sens direct de 90 degrés, alors l’inverse de 𝐴 serait une rotation dans le sens indirect de 90 degrés. Si 𝐴 était un cisaillement qui pousse 𝑗 chapeau une unité à droite, l’inverse de 𝐴 serait un cisaillement qui pousse 𝑗 chapeau une unité à gauche. En général, 𝐴 inverse est la transformation unique avec la propriété que si vous appliquez d’abord 𝐴 puis avec la transformation 𝐴 inverse, vous finissez par où vous avez commencé.

Appliquer une transformation après l’autre est capturé algébriquement par la multiplication de matrices, de sorte que la propriété de base de cette transformation 𝐴 inverse est que 𝐴 fois 𝐴 inverse est égale à la matrice qui correspond à ne rien faire. La transformation qui ne fait rien s’appelle la transformation identité. Elle laisse 𝑖 chapeau et 𝑗 chapeau chacun où ils se trouvent, intacts, de sorte que ses colonnes sont un, zéro et zéro, un. Une fois que vous trouvez cette inverse, ce qui, dans la pratique, se fait avec un ordinateur, vous pouvez résoudre votre équation en multipliant cette matrice inverse par 𝐯. Et encore, ce que cela signifie géométriquement est que vous jouez la transformation en sens inverse et après 𝐯. Ce cas déterminant non nul, qui pour un choix de matrice aléatoire est de loin le plus probable, correspond à l’idée que si vous avez deux inconnues et deux équations, il est presque certainement vrai qu’il existe une solution unique. Cette idée a également un sens dans les dimensions supérieures, lorsque le nombre d’équations est égal au nombre d’inconnues. Encore une fois, le système d’équations peut se traduire à l’interprétation géométrique où vous avez une certaine transformation, 𝐴, et un vecteur, 𝐯, et vous êtes à la recherche du 𝐱 vectoriel qui atterrit sur 𝐯. Tant que la transformation 𝐴 n’écrase pas tout l’espace en une dimension inférieure, ce qui signifie que son déterminant est non nul, il y aura une transformation inverse, 𝐴 inverse, avec la propriété que si vous faites d’abord 𝐴, ensuite vous faites 𝐴 inverse, c’est comme ne rien faire. Et pour résoudre votre équation, il vous suffit de multiplier cette matrice de transformation inverse par le vecteur 𝐯.

Mais lorsque le déterminant est nul et que la transformation associée à ce système d’équations écrase l’espace en une dimension plus petite, il n’y a pas d’inverse. Vous ne pouvez pas enlever une droite pour la transformer en plan ; au moins, ce n’est pas quelque chose qu’une fonction peut faire. Cela nécessiterait de transformer chaque vecteur individuel en une droite complète pleine de vecteurs. Mais les fonctions ne peuvent prendre qu’une seule entrée sur une seule sortie. De même, pour trois équations à trois inconnues, il n’y aura pas d’inverse si la transformation correspondante écrase l’espace 3D sur le plan, ou même si elle l’écrase sur une droite ou un point. Celles-ci correspondent toutes à un déterminant de zéro, puisqu’une région est compressée en un volume nul. Il est toujours possible qu’une solution existe même lorsqu’il n’y a pas d’inverse. Il est juste que lorsque votre transformation écrase espace sur, disons, une droite, vous devez être assez chanceux que le vecteur 𝐯 vit quelque part sur cette droite. Vous remarquerez peut-être que certains de ces cas à déterminant nul semblent beaucoup plus restrictifs que d’autres. Par exemple, avec une matrice trois sur trois, il semble beaucoup plus difficile pour une solution d’exister quand elle écrase l’espace sur une droite que si elle écrase des objets sur un plan, bien que ces deux soient de déterminants nuls.

Nous avons un langage un peu plus spécifique que simplement « déterminant nul ». Lorsque le résultat d’une transformation est une droite, c’est-à-dire qu’il est unidimensionnel, nous disons que la transformation a un « rang » de un. Si tous les vecteurs atterrissent sur un plan bidimensionnel, nous dirons que la transformation a un rang de deux. Le mot rang signifie donc le nombre de dimensions dans la sortie d’une transformation. Par exemple, dans le cas de matrices deux sur deux, le meilleur rang possible est le rang deux. Cela signifie que les vecteurs de base continuent de couvrir les deux dimensions de l’espace et que le déterminant est non nul. Mais pour les matrices trois sur trois, le rang deux signifie que nous nous sommes effondrés, mais pas autant qu’ils se seraient effondrés pour une situation de rang un. Si une transformation 3D a un déterminant différent de zéro et que sa sortie remplit tout l’espace 3D, elle est classée au rang trois. Cet ensemble de toutes les sorties possibles pour votre matrice, qu’il s’agisse d’une droite, d’un plan, d’un espace 3D ou autre, est appelé « l’espace des colonnes » de votre matrice. Vous pouvez probablement deviner d’où vient ce nom. Les colonnes de votre matrice vous indiquent où se situent les vecteurs de base et l’étendue de ces vecteurs de base transformés vous donne tous les résultats possibles. En d’autres termes, l’espace des colonnes correspond à l’étendue des colonnes de votre matrice. Une définition plus précise du rang serait donc le nombre de dimensions dans l’espace des colonnes.

Lorsque ce rang est aussi élevé que possible, c’est-à-dire égal au nombre de colonnes, nous appelons la matrice « rang complet ». Notez que le vecteur zéro sera toujours inclus dans l’espace des colonnes car les transformations linéaires doivent conserver l’origine fixe. Pour une transformation de rang complet, le seul vecteur qui atterrit à l’origine est le vecteur nul lui-même, mais pour les matrices qui ne sont pas de rang complet, qui sont écrasées dans une dimension plus petite, vous pouvez avoir tout un tas de vecteurs qui atterrissent sur zéro. Si une transformation 2D recouvre l’espace sur une droite, par exemple, il existe une droite distincte dans une direction différente, remplie de vecteurs qui sont écrasés sur l’origine. Si une transformation 3D recouvre l’espace d’un plan, il existe également une droite complète de vecteurs qui atterrissent sur l’origine. Si une transformation 3D recouvre tout l’espace sur une droite, il y a tout un plan plein de vecteurs qui atterrissent sur l’origine. Cet ensemble de vecteurs qui atterrit sur l’origine est appelé « espace nul » ou « noyau » de votre matrice. C’est l’espace de tous les vecteurs qui deviennent nuls dans le sens où ils atterrissent sur le vecteur nul. En termes de système d’équations linéaires, lorsque 𝐯 se trouve être le vecteur nul, l’espace nul vous donne toutes les solutions possibles de l’équation.

Voilà donc un aperçu de très haut niveau de la manière de penser géométriquement les systèmes d’équations linéaires. Chaque système est associé à une sorte de transformation linéaire, et lorsque cette transformation a une inverse, vous pouvez utiliser cette inverse pour résoudre votre système. Sinon, l’idée d’espace-colonne nous permet de comprendre quand une solution existe, et l’idée d’un espace nul nous aide à comprendre à quoi peut ressembler l’ensemble de toutes les solutions possibles. Encore une fois, il y a beaucoup de choses que je n’ai pas abordées ici, notamment la manière de calculer ces choses. J’ai également dû limiter mon champ d’application à des exemples où le nombre d’équations est égal au nombre d’inconnues. Mais le but ici n’est pas d’essayer de tout enseigner ; c’est que vous partez avec une forte intuition pour les matrices inverses, l’espace colonne et l’espace nul, et que ces intuitions rendent tout apprentissage futur que vous ferez plus fructueux.

La vidéo suivante, à la demande générale, sera une brève note sur les matrices non carrées. Ensuite, je vous donnerai mon point de vue sur les produits scalaires et sur quelque chose d’assez cool qui se produit lorsque vous les visualisez à la lumière de transformations linéaires. À plus tard !

Nagwa utilise des cookies pour vous garantir la meilleure expérience sur notre site. En savoir plus sur notre Politique de Confidentialité.