Comment interpréter ce qui se passe dans un réseau de neurones ?

Ғылым және технология

On le dit souvent, les réseaux de neurones sont des boîtes noires qu'on n'arrive pas à interpréter... Alors, surement que des modèles comme ChatGPT ou Claude 3, avec des centaines de milliards de paramètres, sont loin d'être interprétables ? Et bien non.
Dans cette vidéo, on voit une technique qui permet d'interpréter "ce qui passe dans un réseau de neurones", ou plus précisément, identifier les concepts réels (par exemple, la Tour Eiffel pour un réseau de neurones qui manipule du texte) dans les calculs faits par ce réseau. Cette technique nous permet de faire des choses assez intéressantes par la suite, comme contrôler de façon prévisible le réseau.
Ressources pour aller plus loin :
- évidemment, cette vidéo se base sur les deux récents papiers de recherche d'Antropic AI : Towards Monosemanticity (transformer-circuits.pub/2023...) d'octobre 2023, et Scaling Monosemanticity (transformer-circuits.pub/2024.... Ces deux papiers sont des bijoux si vous voulez rentrer plus dans les détails (même si la vidéo aborde déjà pas mal des détails des papiers!)
- plus récemment, OpenAI a publié les mêmes travaux sur GPT-2 et GPT-4 : openai.com/index/extracting-c.... Il y a aussi une démo pour voir les concepts trouvés, même si beaucoup moins fourni qu'Anthropic (pas de manipulation de concepts, pas d'analyse des concepts influents etc). Comme mentionné dans la vidéo, une analyse précédente avait été faite il y a 1 an, qui se basait sur les neurones seulement : openaipublic.blob.core.window...
- dans cette vidéo, pour passer les détails, on a expliqué le fait que les neurones soient polysémiques par l'hypothèse de la superposition de concepts clairsemés. En fait, oui, mais attention ce n'est pas une CN : il peut y avoir polysémie via d'autres phénomènes que la superposition. Pour en savoir plus, voir ce lien : www.lesswrong.com/posts/8EyCQ...
- tout récemment, deux initiatives ont vu le jour pour interpréter Llama 3 8B. Une première qui analyse seulement les neurones : www.lesswrong.com/posts/TA9eE.... Une seconde initiative a aussi été lancée pour rechercher des concepts dans Llama 3 8B via un SAE : x.com/i/bookmarks?post_id=180...
- qu'est-ce que l'interprétabilité mécanistique ? C'est le domaine de l'IA dans lequel s'inscrit cette vidéo. Zoom sur le modèle InceptionV1, un modèle de vision : • What Do Neural Network...
- le SAE et la place qu'il prend en ce moment dans la recherche en IA : x.com/i/bookmarks?post_id=180...
- le code du projet de la génération des noms de commune + l'analyse des neurones et des concepts : github.com/alxndrTL/villes
0:00 : Introduction
1:48 : Partie 1 : Neurones et concepts
12:06 : Partie 2 : Analyse Claude 3 et ChatGPT
23:38 : Partie 3 : Expérience à petite échelle
27:45 : Partie 4 : Le SAE
33:45 : Conclusion
Rejoindre la communauté Machine Learning FR : / discord
Me suivre :
Github : github.com/alxndrTL
Twitter : / alexandretl2

Пікірлер: 35

  • @alexandretl
    @alexandretlАй бұрын

    J'espère que la vidéo vous a plu ! Très grosse vidéo, + de 1000 lignes d'animations Manim, mais le sujet vaut bien cela. N'hésitez pas à commenter et partager ça ferait super plaisir ! Quelques ressources et commentaires pour aller plus loin : - évidemment, cette vidéo se base sur les deux récents papiers de recherche d'Antropic AI : Towards Monosemanticity (transformer-circuits.pub/2023/monosemantic-features/index.html) d'octobre 2023, et Scaling Monosemanticity (transformer-circuits.pub/2024/scaling-monosemanticity/index.html). Ces deux papiers sont des bijoux si vous voulez rentrer plus dans les détails (même si la vidéo aborde déjà pas mal des détails des papiers!) - plus récemment, OpenAI a publié les mêmes travaux sur GPT-2 et GPT-4 : openai.com/index/extracting-concepts-from-gpt-4/. Il y a aussi une démo pour voir les concepts trouvés, même si beaucoup moins fourni qu'Anthropic (pas de manipulation de concepts, pas d'analyse des concepts influents etc). Comme mentionné dans la vidéo, une analyse précédente avait été faite il y a 1 an, qui se basait sur les neurones seulement : openaipublic.blob.core.windows.net/neuron-explainer/paper/index.html - dans cette vidéo, pour passer les détails, on a expliqué le fait que les neurones soient polysémiques par l'hypothèse de la superposition de concepts clairsemés. En fait, oui, mais attention ce n'est pas une CN : il peut y avoir polysémie via d'autres phénomènes que la superposition. Pour en savoir plus, voir ce lien : www.lesswrong.com/posts/8EyCQKuWo6swZpagS/superposition-is-not-just-neuron-polysemanticity - tout récemment, deux initiatives ont vu le jour pour interpréter Llama 3 8B. Une première qui analyse seulement les neurones : www.lesswrong.com/posts/TA9eEgiWJfgBcJ7wn/exploring-llama-3-8b-mlp-neurons#:~:text=Note%20that%20the%20Llama%2D3,neurons%20in%20the%20entire%20network. Une seconde initiative a aussi été lancée pour rechercher des concepts dans Llama 3 8B via un SAE : x.com/i/bookmarks?post_id=1800780528549044599 - qu'est-ce que l'interprétabilité mécanistique ? C'est le domaine de l'IA dans lequel s'inscrit cette vidéo. Zoom sur le modèle InceptionV1, un modèle de vision : kzread.info/dash/bejne/nHt32Lttl7HUcZs.html - le SAE et la place qu'il prend en ce moment dans la recherche en IA : x.com/i/bookmarks?post_id=1801884637481857231 - le code du projet de la génération des noms de commune + l'analyse des neurones et des concepts : github.com/alxndrTL/villes

  • @alexis91459

    @alexis91459

    16 күн бұрын

    Tout est fait avec Manim uniquement?

  • @alexandretl

    @alexandretl

    16 күн бұрын

    @@alexis91459 Non seulement la partie 2, le reste c'est avec keynote

  • @jfpeltier
    @jfpeltier27 күн бұрын

    Très intéressant d'essayer de savoir ce qu'ils ont dans le crâne, pour le problème de l'alignement ou de l'honneteté des réseaux de neurones, cela pourrait devenir fondamental. Bravo pour le sérieux et l'absence d'effets de manches de ta vidéo !

  • @alexandretl

    @alexandretl

    27 күн бұрын

    Merci beaucoup pour ton retour qui fait très plaisir !

  • @kamilstos3253
    @kamilstos325329 күн бұрын

    Très intéressant, merci pour ce contenu de haute qualité, sans flagornerie !

  • @alexandretl

    @alexandretl

    28 күн бұрын

    Et merci Kamil 😉

  • @distoage
    @distoage25 күн бұрын

    Excellentes vidéos !!! (joli rappel à mes anciens cours de stats ...). Je conseillerait de regarder les vidéo dans l'ordre inverse de leur sortie (pour celles que j'ai vues) : d'abord "Comment interpréter ce qui se passe dans un réseau de neurones ?" puis ensuite "Qu'est-ce qui se passe dans un réseau de neurones ?". Je crois qu'il est plus facile pour le commun des mortels de comprendre des usage de "concepts" et de leur mesures, pour finir cette excellente vidéo avec le passage de l'algèbre linéaire, et de regarder l'autre, qui explique de manière beaucoup plus pointue ces usages mathématique. Excellente vulgarisation sur des sujets très complexes !! On peut très vite comprendre les extrapolations de problèmes dans des modèles à milliards de paramètres, réductions de dimensions parfois trop grandes, et donc les problèmes "d'hallucination d'IA" parce que la réduction des données a été trop grande et engendre des biais énormes qui n'ont plus de sens sur certains résultats, mais alors l'incapacité à retracer exactement tout ce que fait un modèle IA et ou peut se trouver le "bug de design conceptuel" ...(?)

  • @alexandretl

    @alexandretl

    25 күн бұрын

    Merci pour ce retour ! -Oui j'avais d'abord mis dans la playlist la première vidéo mais en effet celle-ci est plus abordable tout compte fait -Oui c'est ça qui sera intéressant par la suite : pouvoir analyser ces réseaux de neurones comme des programmes classiques et trouver des "bugs" pour éventuellement les corriger

  • @14Tyrion
    @14Tyrion28 күн бұрын

    Mais pourquoi cette chaine est si peu connu 😢

  • @crocodil.13

    @crocodil.13

    22 күн бұрын

    Je la recomande chaleureusement aux copains perso!

  • @jgcb0071
    @jgcb007127 күн бұрын

    Merci pour ce travail remarquable

  • @Yukiche368
    @Yukiche3684 күн бұрын

    Vraiment super vidéo! Très intéressant, très bien tourné et très clair! J'attends les prochaines vidéos avec impatience!

  • @alexandretl

    @alexandretl

    4 күн бұрын

    Ca fait super plaisir merci !

  • @MD-zd3du
    @MD-zd3du24 күн бұрын

    Merci pour ton travail, tes explications sont toujours très claires!

  • @alexandretl

    @alexandretl

    23 күн бұрын

    Merci pour ce retour!

  • @olivierfournier5844
    @olivierfournier584428 күн бұрын

    Bravo pour ta vidéo très intéressante et qualitative Alexandre, cela m'a permis d'en connaitre un peu plus sur les réseaux de neurones, du coup je vais regarder tes autres vidéo !

  • @alexandretl

    @alexandretl

    28 күн бұрын

    Merci beaucoup pour le retour, bon visionnage !

  • @louislang3011
    @louislang301125 күн бұрын

    incroyable incroyable incroyable c'est passionnant. merci à toi vraiment tu rends ça clair à moi qui n'ai aucune connaissance pointue sur ce sujet

  • @alexandretl

    @alexandretl

    24 күн бұрын

    Merci pour ton commentaire c'est très encourageant!

  • @johnmcclane4996
    @johnmcclane4996Ай бұрын

    Merci beaucoup pour cette superbe vidéo Joli travail 🙌🏼

  • @GalthUbu
    @GalthUbu2 күн бұрын

    merci pour cette vidéo très intéressante :)

  • @Redro_
    @Redro_26 күн бұрын

    Super vidéo !

  • @belgarathlesorcier8385
    @belgarathlesorcier838527 күн бұрын

    Excellent travail, merci beaucoup

  • @arnaudberenbaum5587
    @arnaudberenbaum5587Ай бұрын

    Excellente vidéo merci !! 👌🏼

  • @maloukemallouke9735
    @maloukemallouke9735Ай бұрын

    Merci pour la vidéo, c est top

  • @Agesilas2
    @Agesilas2Ай бұрын

    top quali 👌

  • @lullu3467
    @lullu3467Ай бұрын

    17:41 Si on prend un modèle non modifié et qu'on pose une question sur le seconde guerre mondiale, est ce qu'on peut artificiellement faire en sorte que le modèle soit obsédé par le concept "Golden Bridge" en mettant par exemple 1000 fois dans le prompt "Golden Bridge" ? J'ai essayé avec GPT 3 et ça n'a pas marché (j'ai associé environ 100 mots "Golden Bridge" dans le prompt), alors à voir si on peut augmenter l'importance de ce concept artificiellement.

  • @alexandretl

    @alexandretl

    29 күн бұрын

    Oui ça pourrait peut-être marcher (je me rappelle d'un "bug" il y a quelques mois où l'on mettait comme tu dis beaucoup de fois le même mot dans un prompt et ça faisait dire n'importe quoi au modèle). Après de là à pouvoir contrôler correctement le modèle c'est assez difficile. Et en pratique les modèles ont été alignés/contrôlés donc c'est encore plus difficile.

  • @gno7553
    @gno755325 күн бұрын

    Superbe vidéo. Est-ce qu'une L3 en mathématiques permet de lire les sources que vous avez partagé ?

  • @alexandretl

    @alexandretl

    25 күн бұрын

    Merci! Oui largement je pense (les ressources sont plutôt orientées utilisation et pratique que maths)

  • @WaarDoz57
    @WaarDoz5729 күн бұрын

    Pourrais-tu faire une vidéo sur ton modèle qui génére des noms de commune ? Ca à l'air intéressant ! Ce modèle peut-il être fait sur le modèle d'un MLP ? J'ai du mal à voir comment calculer l'erreur afin de la rétropropager

  • @alexandretl

    @alexandretl

    29 күн бұрын

    C'est justement en préparation aha! En fait en vidéo on verra différents modèles plus ou moins performants, et il y aura le MLP en seconde position! Oui en parlera du coût, en fait c'est exactement comme un problème de classification comme MNIST

  • @donPEREdone
    @donPEREdone28 күн бұрын

    Un truc m'a fait sourire, fortement, c'est la taille de l'échantillon 16/32/64... qui n'est absolument pas représentatif d'un modèle en centaines de milliards ! Mais comme si ça ne suffisait pas, tu considéres insignifiant l'écart de 8% des polysemiques (donc totalement monstrueux en réalité 😂😂😂)... qui suggère une courbe exponentielle, bien au contraire qui mènerait à une quasi extinction des monosemiques en a peine quelques multiplications par 2 supplémentaires (ce dont je doute). Ce nest pas l'écart qui est non signifiant, c'est l'échantillon en fait. Il serait quand même plus sérieux de faire une étude en millions et avec des écarts de x10 ou x100 pour avoir une idée de ce qui se passe. Pour le reste merci c'est très instructif

  • @alexandretl

    @alexandretl

    27 күн бұрын

    Je ne pense pas que nous parlons de la même chose. Les tailles 16/32/64 ne correspondent pas à des "échantillons", mais bien à des nombres de neurones dans les modèles (qui, dans cette Partie 3, n'en possèdent pas des centaines de milliards). Il n'y a donc aucun échantillonnage ici, *tous* les neurones ont été analysés. L'idée de l'expérience était seulement de comparer avec ce qui avait été fait en Partie 2, sur une tâche beaucoup plus simple, et donc sur une série de modèles eux-aussi beaucoup plus petits. Evidemment, et comme suggéré dans la vidéo, tirer une conclusion de ce petit exemple sur des modèles à des centaines de milliards de paramètres n'est pas qqchose à faire (comme vous le dites, on pourrait prévoir une extinction des monosémiques ce qui n'est pas le cas). Les modèles géants ont des dyanmiques beaucoup plus complexes. L'idée de l'expérience n'était pas ça, c'était juste de voir l'effet de l'augmentation de la taille du modèle. Pour finir sur ma réponse, je considère insignifiant l'écart de 8% car, je ne l'ai pas dit mais désigner un neurone (ou même un concept) comme polysémique/monosémique dans ce cas est assez difficile, des fois il est à majorité polysémique mais un exemple vient contre-dire cela, etc. Donc il y a une certaine variation sur ces résultats. J'espère que cela vous aura aidé.

Келесі