Métascience des modèles neuronaux

Nov 29 2022
Un résumé informel d'une critique formelle de la méthodologie en neurosciences computationnelles, "On logical inference over brain, behavior, and artificial neural networks" (2021) par Olivia Guest et Andrea Martin Je fais souvent des allers-retours quand je pense au rôle de la modélisation informatique dans expliquer le fonctionnement du cerveau. Je suis influencé par les émotions et les préjugés, les préférences pour le réalisme aux prises avec les préférences pour l'utilité.

Un résumé informel d'une critique formelle de la méthodologie en neurosciences computationnelles, " On logical inference over brain, behavior, and artificial neural networks " (2021) par Olivia Guest et Andrea Martin

Je fais souvent des allers-retours lorsque je pense au rôle de la modélisation informatique pour expliquer le fonctionnement du cerveau. Je suis influencé par les émotions et les préjugés, les préférences pour le réalisme aux prises avec les préférences pour l'utilité. D'un côté, la plupart des algorithmes de réseaux de neurones ont été quelque peu inspirés par des observations de la biologie, ils devraient donc avoir quelque chose à voir avec cela, mais d'un autre côté, les réseaux de neurones sont généralement conçus par des ingénieurs qui travaillent avec des bases de données pour d'autres ingénieurs qui travaillent avec des bases de données. . Les réseaux de neurones pourraient refléter davantage ce dernier que le premier, mais je remarque une tendance des gens à vouloir croire qu'ils sont vraiment des artefacts ressemblant à des cerveaux.

Nous voyons des images de robots humanoïdes utilisées dans de nombreux didacticiels ML sur Medium, de plus en plus de nos appareils sont appelés «intelligents» et des mots issus des sciences cognitives et de la psychologie comme «apprentissage» sont utilisés de manière interchangeable entre les machines et les êtres vivants.

Ce que les gens ont tendance à penser que l'IA/l'apprentissage automatique est
Une représentation plus précise d'un réseau de neurones à partir de ce chapitre du livre Springer https://link.springer.com/chapter/10.1007/978-981-15-9343-7_43

Une partie de cela pourrait être juste une inspiration de science-fiction, un peu de battage médiatique, quelque chose pour intéresser les gens (et pour financer) la recherche en informatique/statistiques appliquées computationnelles. Ce serait peut-être plus problématique si les gens qui utilisent des ordinateurs pour comprendre le cerveau, les neuroscientifiques computationnels, se laissaient prendre à croire cela. C'est précisément ce qui se passe et le sujet de l'article 2021 de Guest et Martin.

Lorsqu'un neuroscientifique en informatique veut savoir quelque chose sur le fonctionnement du cerveau, il a tendance à en faire un modèle à l'aide d'un réseau de neurones artificiels (ANN). Puisqu'il y a une énorme quantité de données collectées sur et à partir des cerveaux, on peut simplement jeter ces données dans un modèle de réseau neuronal, et si les résultats ressemblent aux données du cerveau, alors le modèle doit fournir un aperçu du cerveau lui-même. , droit?

Les auteurs de l'article, Andrea Martin (à gauche) et Olivia Guest (à droite) dans un mème qu'ils ont publié sur leur blog

Les auteurs montrent que non, ils ne sont pas équivalents. En raison du phénomène de « réalisation multiple », plusieurs choses différentes peuvent produire le même type d'action. Cela ne signifie pas que les deux sont identiques, ou que l'un explique l'autre. Il s'agit en fait d'une erreur logique appelée affirmation du conséquent .

Un exemple classique en logique classique d'un argument valide est Modus Ponens, ou "affirmer l'antécédent":

Modus Ponens : la proposition P implique la proposition Q, P (existe/est vrai) donc Q (existe/est vrai)

Comme vous pouvez le deviner, affirmer le conséquent, c'est confondre les P et les Q du côté droit de l'équation.

"Si quelqu'un vit à San Diego, alors il vit en Californie. Joe vit en Californie. Par conséquent, Joe vit à San Diego » (exemple de Wikipedia)

ou, à partir de la p. 6 du papier:

« Si le modèle fait ce que les gens font, alors le modèle se rapproche des données comportementales et/ou de neuroimagerie humaines. (Q → P). »

Ce n'est pas logiquement valable, mais, comme le soulignent les auteurs, c'est presque omniprésent dans la modélisation informatique du cerveau. A tel point que les chercheurs semblent vraiment y croire, alors qu'en fait ils confondent "pouvoir prédictif" et "vertu explicative"

L'erreur logique d'« affirmer le conséquent » (au lieu de l'antécédent). Ce n'est pas un bon argument

Les neuroscientifiques computationnels utilisent beaucoup de modèles. Par exemple, nous pouvons consulter le livret du programme de la conférence 2021 COmputational and SYstems NEuroscience ( COSYNE ) et voir combien de lignes contenant le mot « modèle » sont renvoyées en exécutant le pdf via l'outil de recherche grep et l'outil de comptage de mots wc :

lesspipe Cosyne2021_program_book.pdf | grep [M,m]odel | wc

Les modèles sont toujours utiles ! Ils sont à la base d'une grande partie de ce qu'est la science. L'interprétation est cependant un autre aspect vital de la science. Quiconque "fait de la science" doit être capable d'analyser méta-scientifiquement nos méthodes, théories et interprétations afin d'être sûr que nos déclarations sont valides, et pas simplement de lancer des analogies vraies. Dans les neurosciences computationnelles cognitives, soulignent Guest et Martin, il y a une énorme tentation de le faire, car il n'y a toujours pas de consensus sur ce que fait réellement la goutte grasse et électrifiée dans nos têtes. Les gens recherchent la vérité alors que nous n'avons que des données.

"Les données du cerveau ne sont pas intrinsèquement mécanistes informatives en soi."

Les théories peuvent certainement être, et devraient être, fondées sur des données, mais les données ne suffisent pas pour créer une théorie sur le fonctionnement de quelque chose. Si cela est supposé, alors il y a un risque d'affirmer quelque chose comme vrai alors qu'il ne s'agissait en réalité que d'une supposition, ce qui n'est pas de la science. La science cherche à expliquer, à aider les gens à comprendre le monde. La prédiction n'est pas la même chose que la compréhension , même si c'est un outil puissant lorsqu'il est utilisé correctement, en tant qu'outil d'exploration et non d'explication.

Étant donné que, comme le soulignent les auteurs, nous ne savons pas encore ce que cela signifie pour quelque chose d'être "biologiquement faisable", nous pouvons peut-être nous abstenir d'essayer de mélanger les concepts de NN biologique et de NN artificiel, jusqu'à ce que nous en sachions davantage sur le premier, et utilisez le second pour faire ce qu'il fait le mieux : traiter d'énormes quantités de données par calcul.

Il existe un certain nombre d'applications des RNA aux données neuroscientifiques qui ne sont pas présentées comme des explications. Analyse de séries chronologiques EEG pour prédire des choses comme les crises, analyser automatiquement les données IRM pour trouver des lésions difficiles à repérer, trouver des modèles temporels cachés dans les rythmes des trains de pointes, etc. » à l'esprit dès le départ, au lieu de modèles nés d'« objectifs d'ingénierie ».

La conception de robots élégants est-elle l'objectif fondamental des neurosciences computationnelles ? Je ne pense pas que ça devrait l'être. J'espère que le but serait de comprendre le cerveau, l'esprit et les vies qui les utilisent. Un travail métascientifique comme cet article est très important pour maintenir les scientifiques alignés sur cet objectif. La science* a tendance à être une pratique de « faire la vérité » dans la société, donc s'assurer que c'est réellement vrai et pas seulement des représentations cool qui semblent vraies, devrait être la priorité absolue.

(*incluant la science des données)