Si les entreprises technologiques, les vendeurs, les créateurs de contenu et les investisseurs peuvent s’accorder sur une chose, c’est bien celle-ci : Il y a beaucoup d’argent à se faire dans le métavers.
Mais certains psychologues et experts en santé mentale estiment que la course au profit détourne l’attention de la question fondamentale : comment les PDG tentent-ils de surpasser leurs concurrents pour s’imposer dans l’espace numérique en pleine expansion ? Le métavers sera-t-il un endroit sûr, surtout pour les enfants et les adolescents ?
La réponse n’est pas encourageante. Des recherches récentes ont montré la myriade d’effets négatifs des médias sociaux sur le psychisme des enfants et des adolescents, allant des cas d’intimidation et de harcèlement aux problèmes d’estime de soi et d’image corporelle. Les mêmes écueils pourraient être tout aussi répandus – voire pires – dans le métavers ouvert, avec ses nombreux et vastes mondes virtuels conçus pour le travail et les loisirs.
Mais si les entreprises technologiques prennent ces préoccupations au sérieux dès le départ et intègrent des solutions métavers dans leurs produits, certains experts estiment que la santé mentale des enfants pourrait en bénéficier.
« Tous ces nouveaux outils et toutes ces nouvelles capacités pourraient être utilisés à bon ou à mauvais escient », déclare Mitch Prinstein, psychologue clinicien et directeur scientifique de l’American Psychological Association, à l’émission Make It de CNBC.
Potentiellement pire que les médias sociaux
Les plateformes de médias sociaux d’aujourd’hui sont déjà dangereuses pour certains enfants et adolescents. Le niveau d’immersion de la réalité virtuelle pourrait exacerber ces problèmes, selon Albert « Skip » Rizzo, psychologue et directeur de la réalité virtuelle médicale à l’Institute for Creative Technologies de l’USC.
« L’immersion dans le monde a un pouvoir différent de celui de l’observation et de l’interaction… à travers un écran plat », explique M. Rizzo. « Une fois que vous vous mettez vraiment dans un espace, même si nous ne pouvons pas vous toucher physiquement, nous pouvons être exposés à des choses qui prennent un niveau de réalisme qui pourrait être psychologiquement offensant. »
« Cela crée plus de solitude. Cela crée beaucoup plus d’inquiétude sur l’image corporelle [a] l’exposition à des contenus dangereux qui est liée à la suicidalité ».
L’utilisation d’avatars numériques en 3D dans le métavers pose un autre problème : La possibilité de modifier son image pour créer une version de soi qui diffère de la réalité peut être « assez dangereuse, surtout pour les adolescents », explique M. Prinstein.
« À l’adolescence, vous êtes ce que les autres pensent que vous êtes », dit-il. « Et l’idée que l’on puisse fictionnaliser son identité et obtenir des retours très différents peut vraiment éroder l’identité d’un adolescent. »
M. Prinstein craint que les entreprises technologiques ne ciblent leurs plateformes de médias sociaux et leurs métavers sur ce groupe démographique très influençable – à un moment important du développement mental et émotionnel de leur cerveau – avec des conséquences potentiellement malheureuses.
« Cela ne fait qu’exacerber les problèmes que nous avons déjà commencé à voir avec les effets des médias sociaux », dit-il. « Cela crée plus de solitude. Cela crée beaucoup plus d’inquiétude sur l’image corporelle [a] l’exposition à des contenus dangereux qui est liée à la suicidalité ».
Certains problèmes sont déjà apparus
En décembre, Meta a lancé Horizon Worlds, une plateforme sociale pour la réalité virtuelle. En mars dernier, Microsoft a lancé un service basé sur le cloud pour des réunions d’affaires virtuelles en 3D et collaboratives. D’autres entreprises, telles que Roblox et Epic Games, ont pris pied dans le métavers par le biais de jeux en ligne populaires.
L’un de ces éditeurs de jeux, VRChat, montre déjà des signes de danger pour les jeunes utilisateurs. En décembre, des recherches menées par le Center for Countering Digital Hate (CCDH), une organisation à but non lucratif, ont révélé que les mineurs sont régulièrement exposés à des contenus sexuels explicites, à des propos racistes et violents, à des brimades et à d’autres formes de harcèlement sur la plateforme VRChat, à laquelle on accède généralement par les casques Oculus Meta.
Meta et Oculus ont des politiques qui interdisent ce type de comportement négatif sur leurs plateformes RV. Un porte-parole de Meta a renvoyé CNBC Make It aux déclarations précédentes de la société concernant ses efforts pour construire le Metaverse de manière « responsable » et aux outils de la plateforme Oculus permettant de signaler les abus et de bloquer d’autres utilisateurs. VRChat n’a pas répondu immédiatement à la demande de commentaire de CNBC Make It.
Selon Imran Ahmed, PDG du CCDH, c’est là une partie du problème : les politiques de sécurité, aussi bien intentionnées soient-elles, peuvent être difficiles à contrôler et à appliquer dans un espace virtuel.
« La réalité virtuelle doit vraiment intégrer de nombreuses fonctions de sécurité dès le début, car vous ne pouvez pas chercher… ». [v metaversu] la haine ou les abus sexuels », dit-il. « Vous ne pouvez pas. Cela va se passer en un instant [a] tu ne peux rien y faire. »
La prédiction d’Ahmed : les parents devront faire attention à l’accès de leurs enfants au métavers. « Je pense que les parents se demanderont : Est-ce que je me sens en sécurité en sachant que Mark Zuckerberg est celui qui prend les décisions sur qui influence mes enfants, qui peut les intimider et s’ils sont en sécurité dans le cyberespace ? » Il dit.
« Ils sont motivés pour faire de l’argent. »
Ironiquement, la réalité virtuelle et le métavers sont très prometteurs pour améliorer la santé mentale des utilisateurs. Les recherches de M. Rizzo à l’USC, par exemple, montrent que les traitements par réalité virtuelle peuvent favoriser l’empathie chez les patients et aider à résoudre des problèmes tels que les traumatismes psychologiques et le syndrome de stress post-traumatique.
Rizzo et Prinstein s’accordent toutefois à dire qu’il appartient aux entreprises technologiques de privilégier la sécurité de leurs utilisateurs par rapport à leur propre appât du gain.
Selon M. Ahmed, les entreprises technologiques pourraient utiliser des outils pour garantir la sécurité du métavers pour les jeunes utilisateurs, notamment des outils de vérification stricte de l’âge pour empêcher les prédateurs de se faire passer pour des utilisateurs plus jeunes, des modérateurs de contenu abondants et une « réponse rapide » lorsque les utilisateurs signalent des violations de comportements inappropriés.
« Il n’y a aucune raison pour que les modérateurs ne puissent pas être présents dans les zones où se trouvent des enfants. [nebo] des chaperons virtuels », dit-il. « Mais cela nécessiterait de l’argent, bien sûr. »
C’est aussi probablement trop demander aux parents, dont la plupart ont « relativement peu d’expérience personnelle de la compréhension de ces plateformes », de surveiller ce à quoi leurs enfants sont exposés dans le métavers, ajoute M. Prinstein.
Sa solution : Trouver des moyens de « motiver ces entreprises à utiliser ces formidables outils pour améliorer réellement la société… », dit-il. « Maintenant, ils sont motivés pour faire des bénéfices ».