Film analysis

Un aperçu du futur des thérapies cognitives et comportementales?

DOI: https://doi.org/10.4414/sanp.2020.03133
Publication Date: 02.10.2020
Swiss Arch Neurol Psychiatr Psychother. 2020;171:w03133

Thorens Gabriel, Rothen Stéphane, Zullino Daniele

Service d’Addictologie, Département de psychiatrie, Hôpitaux universitaire de Genève, Suisse

L’épisode «Pendez le DJ» de la série «Black Mirror» (2017)

Créé par Charlie Brooker. Réalisé par Tim Van Patten.

La série «Black Mirror» créée par Charlie Brooker (journaliste satirique anglais spécialisé dans les nouveaux medias), a pour thème principal de pousser à l’extrême les potentielles dérives technologiques liées aux réseaux sociaux, aux nouveaux médias et aux nouvelles technologies. Actuellement à sa 5ème saison, elle rencontre un succès international important (reprise de la BBC par Netflix) depuis sa première saison sortie en 2011.

Les thèmes de la réalité virtuelle et de l’intelligence artificielle sont au cœur de la plupart des épisodes. Souvent ces technologies se retournent contre leurs utilisateurs et sont au service de personnes mal intentionnées ou échappent au contrôle de l’humain. Comme exemple, l’épisode «Tuer sans état d'âme» (Saison 3, 2016) voit des soldats munis à leur insu d’implants qui leur fait percevoir leurs ennemis comme des monstres, alors qu’il s’agit de simples soldats humains ou de civils sans défense. À l’inverse, certains épisodes imaginent comment les nouvelles technologies pourraient être au service des individus pour améliorer leur quotidien, comme l’épisode choisi pour cette revue, «Pendez le DJ» (Saison 4, 2017), réalisé par Timothy Van Patten (un habitué de la réalisation de série à succès comme «les Sopranos», «Sur écoute» ou «le Trône de fer») et scénarisées par le créateur de la série Charlie Brooker. Cet épisode donne l’opportunité d’ouvrir une réflexion sur l’utilisation des nouvelles technologies au service de la psychiatrie, et notamment faire un parallèle avec le développement des thérapies comportementales et cognitives (TCC) à l’ère du numérique.

Résumé de l’épisode

Les deux protagonistes principaux (Amy et Frank) qui ne se connaissent pas, viennent d’adhérer à une application de rencontre et parlent avec leur coach virtuel via une tablette. Ce dernier les informe de la structure et du fonctionnement de l’application: ils vont être assignés à rencontrer un potentiel partenaire et passer du temps avec lui. Le système propose à Amy et Frank de passer 12 heures ensemble. Ils vont donc habiter dans une maison commune située dans un environnement de type club de vacances uniquement destiné aux personnes faisant cette expérience. Pendant ce court laps de temps, la cohabitation se passe très bien et ils découvrent des affinités l’un pour l’autre. Puis ils sont séparés et assignés à vivre pour une période plus longue de neuf et douze mois respectivement, avec des individus avec qui ils ne s’entendent manifestement pas du tout.

Après cette période, le système va à nouveau les faire vivre ensemble, mais sans leur dire combien de temps cela va durer. Ils s’interrogent sur le fonctionnement du système et commencent à douter du fait de vivre dans la réalité. Ils soupçonnent de se trouver dans une simulation et d’être manipulés. Dans ce but, Frank va questionner le système, alors que c’est «interdit», et apprendre qu’il a le droit de passer cinq ans avec Amy, ce qu’il trouve satisfaisant. Mais subitement le programme raccourcit ce temps. Il en parle à Amy qui est en colère du fait qu’il a triché, car elle veut rester avec lui et elle pense qu’en violant la règle, il a gâché cette opportunité. Pour cette raison, elle le quitte.

Suit alors une série de relation brève et non satisfaisante pour l’un et pour l’autre. Le système annonce à Amy qu’elle va être placée avec «l’homme de sa vie» sans lui dire de qui il s’agit. Elle a en revanche le droit de dire au revoir à un ancien partenaire pour une soirée. Elle choisit Frank. Lors de cette soirée, ils s’avouent leur amour et décident de fuir ensemble pour connaître la vérité et échapper à la simulation dans laquelle ils pensent se trouver. Lorsqu’ils y réussissent, le décor se désagrège sous forme de pixels. Il ne reste plus que leur couple qui est bientôt rejoint par des dizaines puis des centaines de clone d’eux-mêmes qui se retrouvent ensemble.

Le spectateur apprend alors qu’il s’agissait effectivement d’une simulation et que, si les personnages de Frank et Amy existent réellement, ce sont leurs avatars virtuels qui sont soumis aux contraintes du système. Pour définir le taux de comptabilité amoureuse pour un couple, il procède à mille simulations. Ce taux de comptabilité est définit comme le nombre de fois où le couple a désobéi au système pour rester ensemble. Dans la dernière scène, les «vrais» Amy et Frank vont se rencontrer pour la première fois sur la base de leur score de compatibilité. Celui-ci apparait sur leur application de rencontre. Il est de 98.8%.

Analyse

Le thème d’individu vivant dans une réalité parallèle, un monde virtuel ou un monde artificiel récréé pour son plaisir ou pour le manipuler est un grand classique de la science-fiction.

Nombreux scénarios jouent sur la découverte par le personnage que son environnement n’est pas réel et qu’il se trouve, soit dans une simulation virtuelle: «Matrix» (1999) ou l’humanité est au service d’une intelligence artificielle qui se nourrit de leur énergie, ou dans un environnement factice créé par d’autres («The Truman show» (1998). Jim Carrey participe sans le savoir depuis sa naissance à une émission de téléréalité), ou encore «Dark City» (1998). Un autre cas de figure est lorsque le scénario du film part du postulat que l’individu est conscient d’entrer dans un environnement virtuel, il peut alors soit être piégé par le virtuel et ne plus faire la distinction du vrai ou du faux comme p.ex. dans «eXistenZ» (1999), ou alors être victime d’un disfonctionnement du monde virtuel (épisode «Playtest» de la série «Black Mirror» (2016), «Westworld» (1973) ou encore fuir le quotidien devenu dur à vivre dans un jeu vidéo «Ready Player One» (2018).

«Pendez le DJ» fait intervenir un thème récurrent dans les épisodes de «Black Mirror», à savoir que des individus sont répliqués sous forme d’avatars sans le savoir et sont introduits dans un environnement et soumis à des contraintes particulières, comme dans l’épisode de Black Mirror «Blanc comme neige» (2013).

Parallèle avec la recherche en psychiatrie

La modélisation au service de la prédiction de comportements est abondamment utilisée en recherche. Des projets ambitieux existent et pourraient relever d’un scénario de «Black Mirror» comme le Bluebrain Project, qui sur sa page Web, affiche l’ambition de simuler tout d’abord le cerveau de rongeurs puis celui des humains1 . Déjà largement utilisé comme modèle prédictif, les réseaux de neurones virtuels peuvent être une aide à la compréhension des mécanismes cérébraux [1].

Cet épisode de «Black Mirror» s’appuie sur le fantasme facile à comprendre, mais scientifiquement totalement hors de portée, de simuler entièrement un individu et de l’exposer à un environnement prédéterminé dont les paramètres sont modifiables à l’envie. Le modèle ici proposé consiste à produire un nombre suffisant d’individus (des clones) ayant des caractéristiques génétiques et environnementales identiques (comment c’est déjà le cas avec des animaux de laboratoire possédant exactement le même génome et étant élevées dans le même milieu) à qui on va faire subir des événements distincts. Il faudrait également cloner l’environnement (chaque animal de laboratoire vit dans une cage identique subissant les mêmes contraintes de lumière, températures etc.) dans le but d’effacer les différences innées et acquises des sujets, pour se concentrer uniquement sur l’impact d’une manipulation précise sur des individus identiques dans des environnements identiques.

Le clonage de l’humain et de son environnement est techniquement impossible. Si cela l’était, cela poseraient des questions éthiques majeures: un clone parfait est à fortiori un être humain à part entière. Une solution à envisager est donc la simulation. Cette solution est déjà appliquée dans différents domaines pour des raisons évidentes de diminution de coûts matériels et humains (simulation des dégâts d’eau provoqués par la rupture d’un barrage, point de rupture d’un pont soumis à un stress majeur etc…). Il est donc tentant de penser que la simulation sur des avatars virtuels humains épargnerait aussi des souffrances inutiles.

Si nous faisons un parallèle avec la psychiatrie et plus particulièrement avec la psychothérapie, le champ des possibles donne le vertige. En effet, si tous les paramètres peuvent être manipulés comme le type d’intervention, le thérapeute, le setting d’intervention ou la création d’uchronies (réécriture de l’Histoire à partir de la modification du passé), cela permettrait de trouver le traitement personnalisé dit «idéal». Le gain de temps et d’efficacité serait potentiellement majeur. Qui n’a jamais rêvé d’avoir plusieurs chances face à un patient et de lui proposer en parallèle des interventions des plus conventionnelles au plus expérimentales et au final, ne retenir que celle qui a eu du succès?

Tout cela semble parfait, mais si on réfléchit au setting expérimental de cet épisode (qui consiste en 1000 couples virtuels qui suivent l’expérience) on voit que les deux protagonistes (qui sont des avatars) passent plusieurs années virtuelles dans le système, ressentent des émotions, des peurs, des déceptions et semblent être des êtres vivants à part entière. Surviennent des questions philosophiques et éthiques concernant l’intelligence artificielle et plus particulièrement de la possibilité qu’un avatar puisse avoir une conscience. Auquel cas, les questions éthiques suivantes se posent: Est-il légitime de faire souffrir et perdre du temps à des avatars doués de conscience (qui seraient alors en tout point identiques aux concepts de clones humains) qui seront «effacé» sans scrupule à la fin de l’expérience pour permettre à deux individus privilégiés de faciliter une rencontre amoureuse? Référence à un autre thème classique de la science-fiction: le robot humanoïde créé par l’homme qui revendique son existence et des droits: «Blade Runner» (1982) ou l’humain qui ressent des sentiments amoureux pour un avatar et le considère comme humain «Her» (2013).

Si cet épisode pose des questions intellectuellement stimulantes mais hors de portée de la recherche actuelle, ce qui se rapproche concrètement le plus du thème abordé, est la possibilité d’exposer des patients à des situations en réalité virtuelle. Si l’intelligence artificielle ne permet pas de créer des avatars humains «complets» qui jouent votre propre rôle, la simulation d’un environnement est en revanche devenue, avec les progrès techniques en réalité virtuelle, extrêmement réaliste.

Un grand pan de la TCC repose sur l’exposition à des stimuli externes, passant d’exercice d’exposition en pensée (forme de simulation) à l’exercice en situation réelle [2]. La réalité virtuelle offre un outil puissant qui permet de moduler tous les paramètres de l’environnement (non pas en parallèle comme dans la série, mais successivement).

Exemple: Si un individu souffre de la phobie des hauteurs, la réalité virtuelle permet de changer tous les paramètres, comme bien évidemment la hauteur, mais aussi la présence de barrières, l’environnement etc. Cet outil permet de moduler considérablement l’environnement dans lequel l’individu se projette de manière plus rapide et plus pratique que s’il fallait faire des expositions réelles. (Attendre un orage pour exposer un astraphobe peut prendre du temps.) Les études sur le sujet montrent des résultats encourageant non seulement pour des phobies simples [3] mais également pour la phobie sociale (pouvoir rejouer la scène plusieurs fois face à un avatar dont le comportement peut varier d’amical à agressif) avec des résultats positifs sans exposer l’individu in vivo [4].

À nouveau, une question éthique posée dans l’épisode est celle de savoir si l’expérience est plus bénéfique si les sujets ignorent être dans un environnement virtuel. (Plusieurs paradigmes psychologiques se basent sur le fait que la validité scientifique de l’expérience doit passer par la non connaissance de l’individu du test auquel il est soumis: dans l’épisode en question ne pas révéler qu’il s’agit d’une simulation pour obtenir des «vraies décisions»). Pour cette question, la TCC est clair, il s’agit d’une approche basée sur la collaboration psychothérapeute - patient et la présence d’un agenda caché de la part du thérapeute est à proscrire.

Le concept de présence en réalité virtuelle est celui d’avoir le sentiment d’être dans l’environnement virtuel, d’être physiquement et émotionnellement là. Il n’y pas besoin que l’individu ne sache pas que l’environnement est virtuel. La majorité des individus conscient que l’environnement est faux vont néanmoins avoir des réactions émotionnelles et corporelles fortes: de peur par exemple, si le monde virtuel est anxiogène (qui n’a jamais eu peur en lisant un livre ou en regardant un film d’horreur). Les distorsions cognitives des patients sont au service de la thérapie, pas besoin d’exposer un phobique des araignées à un modèle hyperréaliste, une forme noir qui s’approche de lui suffit, son amygdale fera le reste.

Ces épisodes faisant intervenir l’ambiguïté entre le vrai du simulé, touchent le cœur des principes des TCC: Ai-je peur de la réalité ou de la vision que je me fais de la réalité ?

Et pour conclure, je vous dois une révélation. Vous êtes l’avatar numéro 967 du programme de simulation «Lu pour vous» qui, s’il va jusqu’au bout de la lecture de cet article et le considère comme bon entrainera une recommandation de lecture à votre «vrai vous» qui a acheté ce programme, car il ne veut plus se fatiguer à perdre du temps à lire tout et n’importe quoi.

Note de bas de page

1https://www.epfl.ch/research/domains/bluebrain/

Conflits d’intérêts

Les auteurs ne déclarent aucun conflit d’intérêts

Correspondence

Dr Gabriel Thorens, Médecin adjoint agrégé, Consultation ambulatoire d'addictologie psychiatrique, 70C rue Grand Pré, CH-1202 Genève, gabriel.thorens[at]hcuge.ch

References

1 Savage N. Marriage of mind and machine. Nature. 2019;571(7766):S15–7. doi:. http://dx.doi.org/10.1038/d41586-019-02212-4 PubMed

2 Craske MG, Treanor M, Conway CC, Zbozinek T, Vervliet B. Maximizing exposure therapy: an inhibitory learning approach. Behav Res Ther. 2014;58:10–23. doi:. http://dx.doi.org/10.1016/j.brat.2014.04.006 PubMed

3 Botella C, Fernández-Álvarez J, Guillén V, García-Palacios A, Baños R. Recent Progress in Virtual Reality Exposure Therapy for Phobias: A Systematic Review. Curr Psychiatry Rep. 2017;19(7):42. doi:. http://dx.doi.org/10.1007/s11920-017-0788-4 PubMed

4 Bouchard S, Dumoulin S, Robillard G, Guitard T, Klinger É, Forget H, et al.Virtual reality compared with in vivo exposure in the treatment of social anxiety disorder: a three-arm randomised controlled trial. Br J Psychiatry. 2017;210(4):276–83. doi:. http://dx.doi.org/10.1192/bjp.bp.116.184234 PubMed

Verpassen Sie keinen Artikel!

close