Séance n°2, 26 octobre 2007
A/ Difficultés intrinsèques à la démarche de Bolton et Hill. Une « autre » philosophie de la psychopathologie est-elle possible ?
1. L’attitude fondationnaliste.
L’inférence rétrodictive généralisée suffit-elle
? L’argument instrumentaliste (« l’intendance suivra »). Sous-détermination
et unicité de l’explication chez Bolton et Hill. Friabilité
dialectique et friabilité empirique des arguments.
2. Causes et raisons : Wittgenstein à la torture.
3. La clinique des maladies mentales inquiète l’idée de folk
psychology « normale ». Importance de la psychanalyse sans (voire
contre) la naturalisation des états mentaux. « Psychologie populaire
» et « psychologie ordinaire » (// « philosophie du
langage ordinaire »).
4. Le problème crucial des « psycho »-thérapies
: quelle « interaction » ? quelle « information »
?
5. L’acceptation non-critique de l’état actuel de la nosographie :
la trilogie schizophrénie, autisme, dépression. Trauma et borderline
: des entités problématiques. L’optimisme caché dans
les points de vue évolutionnaires : est-on si sûr que l’humain
fonctionne bien ?
6. Rien sur les dimensions juridico-morale (où l’intention compte en
tant qu’intention) : perversion, dangerosité, expertise pénale
: quel « esprit » pour ces questions pratiques ? La psychiatrie
comme science morale.
7. La « santé mentale » : la régulation sociale
des maladies mentales, son espace normatif propre, comme problème philosophique
de plein droit. Les « neurosciences sociales » et leur usage en
psychiatrie cognitive : une illusion épistémologique qui a des
conséquences en sociologie ?B/ Conclusion : Une approche top-down avant
toute approche bottom-up ? Est-ce le problème ? Importance de l’histoire
conceptuelle de la psychiatrie, de la casuistique en clinique, et autres conséquences
méthodologiques.C/ Discussion générale. Raisons des deux
exposés à venir d’Eric Stermler et Lionel Fouré.
* des conditions conceptuelles : par exemple, l’idée qu’il doit y avoir quelque chose de fonctionnel, un mécanisme fonctionnel qui assume sur tout son ensemble et parcours le rapport de l’agent à son action (de la conception à l’exécution de l’action). Exemple d’inférence rétrodictive, il doit bien y avoir « quelque chose comme » une conscience, soit une permanence de l’adhésion de l’agent à son action (s’il y a de l’action qui arrive au but, il doit bien y avoir une condition nécessaire = quelque chose qui maintient la continuité entre l’intention et son but réalisé).
Vous voyez, à partir du moment où l’action arrive à son but, par inférence rétrodictive, on cherche les conditions nécessaires. Puis on tâtonne pour construire des étages de plus en plus profonds de cet édifice fondationnaliste.
Bien sûr, ce n’est pas une véritable objection à Bolton & Hill, qui défendent explicitement l’idée d’une continuité fondamentale dans le sens où la régulation du dehors n’est possible que « sur la base » d’une régulation par le dedans. Mais on a le sentiment d’un glissement où on essaie de marier la chèvre et le chou (au lieu de vraiment montrer comment les choses, effectivement, se font).
Tout cela, un peu subtil, est aussi une question de goût épistémologique : tout dépend de ce qu’on attend d’une explication, autrement dit, quel degré de restriction sur l’espace du pensable vous attendez d’une explication (ce qu’elle va vous dire de ce qui est possible ou impossible). A cet égard, le texte de Bolton & Hill est très satisfaisant sur un plan philosophique abstrait (le fonctionnalisme comme machine à tout digérer), mais frustrant sur le plan empirique fin (par exemple une découverte intéressante sur une fonction particulière du cerveau qui pourrait avoir des conséquences sur un certain comportement intentionnel), précisément à cause de ce haut degré de généralité où on en reste.
Les auteurs sont conscients de cette difficulté : ils en font même une propriété du post-empirisme. Pour eux, les lois causales sont des lois fonctionnelles, valables pour expliquer le fonctionnement normal d’un certain type d’organisme. Mais la généralité est alors perdue ! Plus la loi fonctionnelle est précise, et moins la généralité (propriété fondamentale en épistémologie de toute loi causale) est conservée. On explique bien des actions particulières d’un organisme, mais les « lois fonctionnelles » sont de plus en plus spécialisées. Et il y a une menace : cette loi fonctionnelle efficace si resserrée n’est-elle pas ad hoc ? (simple description du fonctionnement de l’organisme particulier qu’on est en train de caractériser…)
Quelle que soit l’originalité de cet argument, il y a de nouveau un prix à payer : s’il s’agit dans leur livre de parvenir à une « théorie causale prédictive de l’action », est-ce qu’on a encore prédiction ? (on perdrait la généralité mais on conserverait la prédiction, l’autre grande propriété de toute relation causale) Problème : lois prédictives ≠ simple prévisibilité des comportements ! Je veux bien qu’on dise que certains comportements fonctionnels sont prévisibles… Mais a-t-on encore la prédictibilité ? Il me paraît peut-être un peu forcé, à partir du fait qu’on peut ordinairement prévoir ce que vont faire les autres, de dire qu’il devrait y avoir des lois prédictives qui commandent les mécanismes de la prévision, et qui sont le reflet de lois fonctionnelles régissant l’articulation de l’intention à l’action chez ces organismes dont on scrute le comportement intentionnel.
Je m’enfonce par là dans une volonté de poser des questions philosophiques ouvertes pour lesquelles je n’ai pas de réponse. L’une est la question du sens clinique : certes, certains médecins sont plus doués pour sentir si quelqu’un va être dangereux ou pas. Ça veut dire que la psychologie populaire qui sert de noyau dur à la psychopathologie cognitive (elle en part pour y revenir) n’est peut-être pas si « populaire » que ça… Il y a peut-être des différences de qualité, selon les individus, dans la capacité de prédire ce genre de comportement.
Au fond, est-ce que la prétendue « psychologie populaire » n’est pas une idéalisation réductrice de ce que nous pouvons faire quand nous sommes confrontés à des fonctionnements anormaux, bizarres, étranges, de l’esprit des autres ? Y a-t-il ici un « bug » dans l’espèce d’emboîtement mécanique et/ou fonctionnel des rapports explication causale/explication par les raisons qui s’appelle la psychologie populaire ? Ou néglige-t-on, en fait, la finesse enveloppée par le langage ordinaire dans l’interaction avec autrui ? Il y a là, je crois, tout un espace de discussion possible qui est ouvert et qui permettrait de s’intéresser à la grammaire fine des échanges entre un patient et son psychothérapeute (plutôt que de plaquer dessus la grosse machine de la folk psychology au motif qu’elle « fonctionne » comme cela chez nous et autrui, dans des conditions « normales »).
Pb : avec « fonction » : a-t-on
ainsi résolu le problème ou a-t-on seulement nommé le problème ?! La
notion de fonction se trouve dans le langage ordinaire. Tout le problème,
c’est de hisser cet usage ordinaire à une valeur scientifique. Sinon, on
reste dans un certain verbalisme. Wittgenstein n’a jamais interdit (d’ailleurs,
l’une des qualités de Wittgenstein était de ne rien interdire, il se contentait
de constater) qu’on utilise le concept de fonction dans les formes du langage
ordinaire. Par contre, le problème apparaît quand on veut lui donner une
qualité empirique et scientifique.
Tout va bien, comme d’habitude, tant qu’on reste
dans le simple. Quand l’action est entendue comme simple geste moteur peu
ou pas ambigu : prendre un stylo pour écrire au tableau : la raison
de mon geste = sa cause). Quand l’intentionnalité est proche de la téléologie
du mouvement, sa rationalité psychomotrice de base, c’est peu gênant. Mais
plus obscur quand on arrive devant un « passage à l’acte », par
ex. une « automutilation »,…, c’est plus difficile de penser qu’il
n’y a là : qu’une action motrice déployée + des représentations symboliques
complexes qui déterminent l’action. Cela laisse un peu insatisfait.
Wittgenstein est donc mis ici à la torture (on le
naturalise) : on part de l’idée de Wittgenstein selon laquelle suivre
une règle ne serait pas tout à fait incompatible avec le fait d’obéir à
certaines régularités causales, mais même, exigerait ces régularités ;
et on transforme ce rapport en rapport de dépendance causale asymétrique.
Les deux points de fond évoqués la dernière fois : a) la notion naturaliste
d’empathie résout-elle le problème Wittgenstein
de l’accord social sur les règles ? b) les évidences, les certitudes
de base (cf. On certainty) ne
seraient rien d’autre que l’expression de contraintes sous-corticales, de
routines fondamentales de notre fonctionnement psychique. Ce n’est pas stupide.
Il y a un peu de ça chez Wittgenstein (il y a des régularités naturelles).
Mais le problème = ces régularités naturelles rendent-elles compte de ce
qui est essentiel dans le fait de suivre ou de ne pas suivre une règle ?
Quelqu’un comme Joëlle Proust ne serait pas d’accord
sur ce point (physicalisme qu’elle revendique vs. biologisme de Bolton & Hill). Un des points forts de son physicalisme
= montrer que certaines boucles de régulations sont contraintes de manière
physique dans le traitement de l’information. La robotique théorique montre
ainsi qu’il y a des contraintes physiques et formelles sur les boucles d’encodage
qui sont des contraintes réelles et qui ont une grande conséquence sur la
régulation de l’action.
Ex : contrôle de la motricité ; quels sont
les paramètres qui permettent de comprendre comment est encodée l’information
envoyée à la main pour que l’écartement pouce/index s’adapte pour prendre
un objet à mesure que ma main s’approche... Cela peut se mesurer, se calculer
et on peut savoir comment c’est encodé dans le cerveau. Non pas contrôle
analogique mais contrôle qui tient compte des dérivées partielles d’ordre
3 et 4 de l’équation du mouvement de la main qui s’approche de l’objet.
Le cerveau, vu ses capacités informationnelles, ne pourrait pas traiter
autre chose que ce type d’informations qui ne porte pas sur le calcul constant
du mouvement mais sur les dérivées partielles du mouvement (avec beaucoup
moins d’informations à traiter, donc). Ce sont là des données empiriques
qui sont importantes : on est câblé biologiquement pour vivre dans
un monde newtonien, ce qui conditionne notre motricité et donc le calcul
de l’information dans la régulation de nos gestes. Problème : si on
va trop loin dans cette direction, on perd le sens classique de l’information
au sens où je donne en ce moment des informations sur Bolton &
Hill ! Si on va trop loin du côté de l’inscription physique, on perd
ça : le contenu. A l’inverse, si on va trop haut, on perd toute la
richesse d’explication physique et physiologique qu’on a évoquée, les contraintes
structurales de l’information comme phénomène naturel.
Finalement, pour sauver la notion d’information,
Bolton & Hill sont condamnés à avoir recours constamment à des postulats fonctionnels toujours difficiles
à mettre en évidence (pas de fossiles qui permettent de vérifier l’émergence
d’un design psychobiologique pour les opérations les plus complexes)
et à la limite infalsifiables. Car on n’arrive jamais vraiment à identifier
la dite information fonctionnelle sous le microscope. Et quand on y arrive,
ce n’est pas via la psychologie,
mais via la robotique !
Cf. plus haut : La folk psychology n’est-elle pas une idéalisation scandaleusement réductrice
sur ce que nous pouvons faire avec le langage ordinaire ? Mais je voudrais
aller un peu plus loin en soulevant une objection à partir de ce que reconnaissent
Bolton & Hill.
Ce que les auteurs reconnaissent = leur épistémologie post-empirique sert de psychologie normative. Puisque ce qu’on va détecter dans les objets de l’enquête, comment ça fonctionne (la théorie du soi d’un schizophrénie, d’un dépressif…), tout cela dysfonctionne par rapport à une norme de fonctionnement qui est d’une manière psychologisée ce qu’on a épistémologiquement dans les réquisits du bon fonctionnement et de la bonne explication post-empiriste (critique distinction synthétique/analytique, noyau de croyances révisables, soi comme théorie et non comme introspection…).
D’où diverses conséquences :
a) Un usage
bizarre de la psychanalyse.
Bolton & Hill : leur psychanalyse = celle
des grands mécanismes « archaïques » (clivage, déni, projection…)
importants pour rendre compte de certaines particularités relationnelles
(trauma). Mais c’est surtout une
psychanalyse naturalisée (cf. séance suivante ; l’exposé de Stremler).
Elle considère que a) le transfert = une forme d’empathie ; elle s’intéresse
à b) dyade mère/enfant (Winnicott, Klein) pour enrichir le contenu
affectif et sémantique de ce qu’apporte la psychologie cognitive génétique…tout
est « bowlbyfié » à haute dose (théorie de l’attachement). Le
problème est que ces recodages de la psychanalyse achoppent sur un point
important : les notions de la psychanalyse naturalisée sont-elles encore
opératoires sur le moindre cas particulier ? Sont-elles encore ne serait-ce
que plausibles ?
b) Les critères
de ce qui ne va pas chez l’autre.
Cette difficulté strictement conceptuelle (avec Wittgenstein)
est en fait une difficulté pratique fondamentale. Car comme on est dans
un continuum cause/raison, devant quelqu’un qui délire, par quels critères
concrets et précis, cliniques,
allez-vous comprendre ce qui se passe ? Va-t-on comprendre le délire comme :
a) Dysfonctionnement chez un schizophrène (dysfonctionnement
causal : « bug » dans le cerveau, problème de déficit de
substance blanche au niveau ventricules, etc) ?
b) Ou comme une manière de s’adapter à autrui et
d’interagir avec lui qui pose des difficultés particulières (réaménagement
des règles qu’il suit, qu’il faut suivre avec lui, problème
de la « compensation » des symptômes négatifs par les positifs) ?
Problème à prendre du point de vue clinique avant
la théorisation et les ambitions de reconstruction fondationalistes. Je
suis partisan de considérer que la relation clinique par elle-même est la source des bonnes
questions (la finesse des élaborations morales d’un obsédé, le type d’engagement
idéaliste d’un paranoïaque, etc., sont les objets dont on doit partir pour sélectionner ce
qui est opératoire dans l’explication qui y conduit). Sinon, on est dans
une indétermination extrêmement profonde. En somme, chercher le suffisant
pour avoir d’emblée le nécessaire et suffisant, plutôt que partir du nécessaire,
pour tendre asymptotiquement vers le nécessaire et suffisant.
2)
Attitude très soumise à l’égard de
l’état actuel de la psychiatrie contemporaine. Les objets que Bolton & Hill choisissent de
rejoindre (schizophrénie, dépression, autisme, borderline) sont traités comme des entités naturelles (aucune histoire
de ces entités n’est faite), comme le virus de la grippe ou comme les accidents
cardio-vasculaires… Problème : la schizophrénie dont ils parlent est
une schizophrénie déjà construite
par des processus de naturalisation implicites. Je voulais souligner le
fait qu’une vraie philosophie de la psychopathologie, allant un peu plus
loin que ce que proposent Bolton & Hill, devrait passer par une histoire
de ces objets (de la formation de ces entités nosographiques) visant à intégrer
de manière substantielle l’histoire conceptuelle des entités sur lesquelles
on travaille. Sans cette histoire conceptuelle, on fait sortir le lapin
du chapeau (on le naturalise) que parce qu’on l’a d’abord mis dedans.
3)
Il me semble important de travailler
sur des cas limites. Ça me vient de ma formation de
linguiste. J’ai été formé à la linguistique générative : c’est une
machine puissante mais qui ne résout pas les problèmes de l’aspect
et de l’énonciation. D’où l’idée de Culioli (grand linguiste de l’énonciation) :
épistémologiquement il faut procéder différemment. Il faut partir des différences
fines à la surface des énoncés pour choisir ensuite les bonnes grammaires
profondes (et non pas partir des grammaires profondes : car en partant
d’elles on obtient sans doute des conditions nécessaires, mais pas des conditions
suffisantes des phénomènes de surface, celles requises par la linguistique
« fine » de l’énonciation). De
cette manière, on peut obtenir des conditions nécessaires mais aussi suffisantes. Mutatis
mutandis, on peut penser la même chose avec la psychologie cognitive :
certes, il y a des mécanismes nécessaires. Mais comment apprécier les différences
fines en surface ? Cf. a) le cas des paranoïa sans symptôme négatif,
ou des paranoïas qui se guérissent par des modifications morales raffinée
(délire de relation des sensitifs) ; b) l’entrelacement du moral et
du morbide chez obsédé ou mélancolique ; c) le transsexualisme (entièrement
délirant d’un côté, longtemps emblème de la psychose à l’état pur ;
et désormais un droit de l’homme reconnu à Strasbourg !).
4)
Réhabilitation de la casuistique = accepter que la perte de généralité des explications
fonctionnelles puisse être la porte ouverte à la recherche des différences
qui singularisent telle situation pathologique. Non pas vivre cela comme
« perte » de généralité de l’explication fonctionnelle, mais comme
« gain » de pertinence dans l’exploration casuistique. A ce titre,
j’ai une conception peut-être un peu personnelle de la psychanalyse qui
consiste à dire que les concepts de la psychanalyse n’ont de sens que dans
les formes verbales interrogatives (on sait à quoi correspond l’Œdipe :
non quand on a une théorie de l’Oedipe…mais quand on est capable de poser
au bon moment (kairos) la
question : « Et votre père dans tout ça ? »). C’est ça qui
fait la particularité de ce mode d’interaction
(plutôt que théorie psychologique) dans lequel la pertinence du moment où
vous posez la question vaut interprétation et transformation. Ça peut s’étendre
à beaucoup des choses que disent Bolton & Hill (leur intuition que les
explications fonctionnelles comme ils les conçoivent fonctionnent comme
des maximes pour prolonger l’investigation) :
ce ne sont pas des généralités psychologiques
mais ce sont plutôt des bonnes
questions à poser que formulent les théories fonctionnelles des maladies
mentales. Allons jusqu’au bout…. Servons-nous en en examinant comment rationnellement
ça marche dans la discussion d’un psychiatre avec son malade. Il y a plus
alors à apprendre de Cicourel ou de Grice que de la téléosémantique de Milikan.
5)
La question canguilhémienne de l’invention
des nouvelles normes.
(remarque : Canguilhem s’est toujours tenu à distance de la psychiatrie
et de la psychanalyse). A partir du moment où on a une théorie fonctionnelle
de ce genre (orientée sur la casuistique), rien n’interdit de concevoir
les maladies mentales comme inventions
de nouvelles normes (avec plus
d’échecs que de succès, mais il faut y regarder de près). Cela a
une grande importance pour apprécier objectivement a) ce qu’est une psychothérapie
et b) pour apprécier les politiques publiques en santé mentale.
P.-H. Castel : Je vois ce que vous voulez dire… Mais je pense que le fait de prendre cet exemple des auteurs de la loi de 1838 est très égarant. A l’époque, et aujourd’hui encore, ce ne sont pas les psychiatres qui décident l’irresponsabilité, ce sont les juges. Le psychiatre n’est là que pour éclairer le juge (épilepsie, ivresse pathologique…). Or, ce qui importe dans la démarche de l’expertise contemporaine, celle qui a suivi, c’est au contraire d’élucider les degrés d’intentionnalité de l’acte (pas comme ce que raconte Foucault où ils sont ou pour rien ou pour quelque chose). Il s’agit de montrer que même lorsqu’il y a des contraintes (hallucinatoires par exemple), on peut néanmoins interpréter ce qui a été fait comme renvoyant à une certaine présence de l’agent à l’acte. Il y a un grain, une échelle de variation dans l’intentionnalité. La façon dont le psychiatre intervient = établir les degrés d’intentionnalité. Certes, le trou qui fait que quelque chose n’est plus intentionnel du tout existe, et est naturel (ex : automatisme ambulatoire comme dans l’épilepsie), mais la façon dont le psychiatre en rend compte, c’est en clarifiant les degrés d’intentionnalité. En ce sens, je suis d’accord avec vous : il y a bien une référence naturaliste que seul le médecin peut faire. Mais seul le psychiatre, et l’expert correctement formé, peut conduire un entretien dans lequel ces degrés d’intentionnalité sont mis en évidence.
PH Castel : J’entends bien, mais ce n’est pas comme ça que se pratiquent les expertises. On peut considérer, par exemple, qu’un adulte a une enfance d’une telle sorte qu’il est plus ou moins libre qu’un autre de résister à telle ou telle contrainte ou telle ou telle pression. Dans les tribunaux, c’est quelque chose qui est régulièrement invoqué. Il faut distinguer la morale et les sciences morales (qui n’édictent pas le bien ou le mal). La psychiatrie, dans sa dimension expertale, mobilise des concepts des sciences morales, et notamment celui d’intentionnalité, et de ses degrés.
P.-H.
Castel : a) Sur la première, je suis entièrement d’accord. Une des
originalités de Bolton & Hill, c’est de penser qu’il y a une certaine
sorte de concept de la mouche chez la grenouille, un état informationnel
qui se rapporte à un contenu-mouche
plutôt qu’à un contenu-point noir
qui bouge (car seule la mouche nourrit, pas le point noir). Je ne suis
pas entièrement convaincu par leur réponse, mais une réponse de ce genre
est caractéristique de leur démarche.
Un des
points les plus importants est le suivant. On voit avec les neurosciences sociales qui essaient
de se construire (l’idée récurrente et idéologiquement très implantée que
tout ce qui était autrefois « mal expliqué » par la sociologie
va l’être mieux au titre de l’interaction entre des cerveaux) recourent
à un lexique qui part d’une somme d’individus interagissants comme norme
biologique de la réalité sociale. Or, s’il y a clairement eu, il y a trente
ans, le projet d’expliquer grâce aux neurosciences l’autisme, la schizophrénie…
C’est un échec, mais ce qui change, c’est que l’autisme devient un paradigme
explicatif (déficitaire) de ce qu’est la relation normale du lien social.
Il y a là une transformation de la valeur
conceptuelle (qui n’est pas une transformation conceptuelle) dans la rhétorique
de l’explication à l’intérieur des neurosciences sociales… C’est commun :
quand on échoue à expliquer quelque chose (l’autisme), on en fait un paradigme
pour expliquer quelque chose d’autre (le lien social). C’est une faiblesse
habituelle, en psychanalyse notamment (l’hystérie jamais expliquée, mais
devenue modèle de relation entre individus).
Dernière
remarque : au sujet de l’évolution, c’est frappant la façon dont les
gens considèrent que l’humanité est une espèce sur la bonne voie sur le
plan de l’évolution… Ne serions-nous plutôt pas comme ces cerfs irlandais
paralysés par leur ramure ? (nous, nous aurions un trop gros cerveau ;
taux de sélection minimal…). L’évidence avec laquelle nous sommes considérés
comme n’étant pas une espèce péramorphe me paraît absolument sidérante,
d’autant que peu d’espèces animales ont eu l’idée ingénieuse d’inventer
le nazisme, la bombe H, etc. Il y là un optimisme très particulier dans
ces conceptions évolutionnaires. Pourquoi ne serions-nous pas une impasse
évolutive ? Cela est une question qui mériterait d’être posée. Il y
a quand même beaucoup de choses que nous faisons qui pourraient être à notre
détriment. L’histoire le dira si nous sommes bien adaptés. Prenez l’idée
que certaines routines anciennes, bien adaptées il y a longtemps, seraient
nuisibles dans notre fonctionnement moderne. Par exemple, argument que notre
capacité à nous angoisser peut « s’emballer » de manière inadaptée
parce que notre environnement a changé, qu’il n’est plus celui du chasseur-cueilleur
du pléistocène chez à la psychopathologie évolutionniste. Le chasseur-cueilleur
du pléistocène est pourtant proche de nous…