La désinformation a déjà fait son chemin vers le métaverse

Besoin d'améliorer votre visibilité?

Votre site internet ne décolle pas, ou vous souhaitez obtenir des conseils d'optimisation, notre expert vous répond gratuitement du lundi au samedi et de 9h à 19h:

Envoyer un message

Dans leur version du métavers, les créateurs de la startup Sensorium Corp envisagent un environnement amusant où votre image peut faire une visite virtuelle d’un monde sous-marin abandonné, regarder un concert en direct avec le DJ français Jean-Michel Jarre ou discuter avec des bots, tels que comme Kate en blouson de cuir, qui aime le vin blanc avec ses amis.

Mais lors d’une démonstration de ce monde virtuel lors d’une conférence technique à Lisbonne plus tôt en 2021, les choses sont devenues étranges. Alors que les participants discutaient avec ces personnages virtuels, certains ont été présentés à un bot chauve nommé David qui, lorsqu’on lui a simplement demandé ce qu’il pensait des vaccins, a commencé à cracher de la désinformation sur la santé. Les vaccins, a-t-il affirmé dans une démo, sont parfois plus dangereux que les maladies qu’ils tentent de prévenir.

Après l’affichage embarrassant de leur création, les développeurs de David chez Sensorium ont déclaré qu’ils prévoyaient d’ajouter des filtres pour limiter ce qu’il peut dire sur des sujets sensibles. Mais ce moment a illustré à quel point il peut être facile pour les gens de rencontrer du contenu offensant ou trompeur dans le métaverse et à quel point il sera difficile de le contrôler.

Des entreprises comme Apple Inc, Microsoft Corp et la société mère de Facebook, Meta Platforms Inc, se précipitent pour créer le métaverse, un monde numérique immersif qui, selon les évangélistes, remplacera éventuellement certaines interactions en personne. La technologie en est à ses balbutiements, mais les observateurs de l’industrie sonnent l’alarme pour savoir si les défis cauchemardesques de modération de contenu qui affligent déjà les médias sociaux pourraient être encore pires dans ces nouveaux mondes alimentés par la réalité virtuelle et augmentée.

Les antécédents pour la plupart lamentables des entreprises technologiques en matière de contrôle du contenu offensant ont fait l’objet d’un nouvel examen ces derniers mois après la publication d’une mémoire cache de milliers de documents internes de Meta aux régulateurs américains par l’ancienne chef de produit Facebook Frances Haugen. Les documents, qui ont été fournis au Congrès et obtenus par des organes de presse sous une forme rédigée, ont révélé de nouveaux détails sur la façon dont les algorithmes de Meta ont diffusé des informations nuisibles telles que des théories du complot, un langage haineux et la violence, et ont conduit à des dizaines d’histoires critiques de la part du le journal Wall Street et un consortium d’agences de presse. Les rapports ont naturellement suscité des questions sur la façon dont Meta et d’autres ont l’intention de patrouiller dans le monde virtuel en plein essor à la recherche de comportements offensants et de contenus trompeurs.

« Malgré le changement de nom, Meta permet toujours aux fournisseurs de fausses informations dangereuses de prospérer sur ses applications existantes », a déclaré Alex Cadier, directeur général de NewsGuard au Royaume-Uni. « Si l’entreprise n’a pas été en mesure de lutter efficacement contre la désinformation sur des plateformes plus simples comme Facebook et Instagram, il semble peu probable qu’elle puisse le faire dans le métaverse beaucoup plus complexe.

Les dirigeants de Meta n’ont pas ignoré les critiques. Alors qu’ils créent un battage médiatique sur le métaverse, ils se sont engagés à prendre en compte la confidentialité et le bien-être de leurs utilisateurs lors du développement de la plate-forme. La société fait également valoir que ces mondes virtuels de nouvelle génération n’appartiendront pas exclusivement à Meta, mais proviendront d’un ensemble d’ingénieurs, de créateurs et d’entreprises technologiques dont les environnements et les produits fonctionnent ensemble.

Ces innovateurs et les régulateurs du monde entier peuvent commencer dès maintenant à débattre des politiques qui maintiendraient la sécurité du métavers avant même que la technologie sous-jacente ne soit complètement développée, selon les dirigeants.

« Dans le passé, la vitesse à laquelle les nouvelles technologies sont arrivées laissait parfois les décideurs politiques et les régulateurs rattraper leur retard », a déclaré Nick Clegg, vice-président des affaires mondiales, en octobre 2021 lors de la conférence annuelle Connect de Meta. « Cela ne doit pas être le cas cette fois-ci, car nous avons des années avant que le métaverse que nous envisageons ne soit pleinement réalisé. »

Meta a également déclaré qu’il prévoyait de travailler avec des groupes de défense des droits de l’homme et des experts gouvernementaux pour développer de manière responsable le monde virtuel, et il investit 50 millions de dollars américains (209,32 millions de RM) à cette fin.

La science-fiction devient réalité

Pour ses évangélistes, la réalité virtuelle et augmentée débloquera la possibilité de découvrir le monde d’une manière qui n’existait auparavant que dans les rêves des romanciers de science-fiction. Les entreprises pourront organiser des réunions dans des salles de conférence numériques, où les employés situés dans des lieux disparates auront l’impression d’être vraiment ensemble au même endroit. Les amis choisiront leurs propres avatars et se téléporteront ensemble dans des concerts, des cours d’exercices et des jeux vidéo 3D. Les artistes pourront héberger des expériences créatives adaptées aux emplacements géographiques en réalité augmentée, pour que tout détenteur d’appareil puisse en profiter. Les entrepreneurs créeront des magasins virtuels où des biens numériques et physiques pourront être achetés.

Mais les chiens de garde numériques disent que les mêmes qualités qui font du métavers une innovation alléchante peuvent également ouvrir la porte encore plus large au contenu préjudiciable. Le sentiment réaliste d’expériences alimentées par la réalité virtuelle pourrait être une arme dangereuse entre les mains de mauvais acteurs cherchant à attiser la haine, la violence et le terrorisme.

« Les papiers Facebook ont ​​montré que la plate-forme peut fonctionner presque comme un système clé en main pour les recruteurs extrémistes et le métaverse rendrait encore plus facile la perpétration de cette violence », a déclaré Karen Kornbluh, directrice de l’Initiative pour l’innovation et la démocratie numériques du German Marshall Fund et ancien ambassadeur des États-Unis auprès de l’Organisation de coopération et de développement économiques.

Bien que le métavers interconnecté de grande envergure soit encore théorique, les plateformes de réalité virtuelle et de jeu existantes offrent une fenêtre sur les types de contenu problématique qui pourraient y prospérer.

Les Facebook Papers ont révélé que la société avait déjà des preuves que le contenu offensant est susceptible de passer du social au virtuel. Dans un exemple, un employé de Facebook décrit avoir vécu une vague de racisme en jouant au jeu de réalité virtuelle Salle d’enregistrement sur un casque Oculus Quest.

Après être entré dans l’un des mondes virtuels les plus populaires du jeu, le membre du personnel a été accueilli par des « chants continus de : ‘N***** N***** N*****’ ». Selon les documents, l’employé a écrit dans un forum de discussion interne qu’il a essayé de comprendre qui criait et comment les signaler, mais n’a pas pu. Salle d’enregistrement a déclaré qu’il fournit plusieurs contrôles pour identifier les locuteurs même lorsque cette personne n’est pas visible, et dans ce cas, il a banni le compte de l’utilisateur incriminé.

« J’ai fini par abandonner et j’ai quitté le monde avec le sentiment d’être vaincu », a écrit l’employé, dont le nom a été caviardé dans les documents.

Mauvais comportement VR

L’abus a également déjà atteint d’autres produits VR. Les gens sur VRChat, une plate-forme où les utilisateurs peuvent explorer des mondes habillés comme différents avatars, décrivent une expérience presque transformatrice où ils ont construit une communauté virtuelle sans précédent dans le monde réel. Sur un fil Reddit à propos de VRChat, ils décrivent également des quantités presque insupportables de racisme, d’homophobie, de transphobie – et « n’oubliez pas les nazis stupides », comme l’a écrit un utilisateur de VRChat. Il n’est pas rare que les joueurs se promènent en répétant le mot N, tandis que certains mondes virtuels sont attaqués par les avatars d’Hitler et du KKK.

VRChat a écrit en 2018 qu’il travaillait pour lutter contre le « pourcentage d’utilisateurs qui choisissent de se livrer à un comportement irrespectueux ou nuisible » avec une équipe de modération qui « surveille constamment VRChat ». Mais, des années plus tard, les joueurs signalent toujours des utilisateurs nuisibles et disent que « rien n’est apparemment jamais fait ». D’autres essaient de couper ou de bloquer les voix ou les avatars des utilisateurs problématiques, mais la fréquence des abus peut être écrasante.

Les gens décrivent également le racisme sur les jeux vidéo populaires comme Seconde vie et Fortnite; certaines femmes ont décrit avoir été harcelées ou agressées sexuellement sur des plateformes de réalité virtuelle ; et les parents ont fait part de leurs inquiétudes quant au fait que leurs enfants étaient soignés sur la base apparemment inoffensive Roblox plate-forme de jeu pour les enfants.

Les sociétés de médias sociaux comme Meta, Twitter Inc et YouTube de Google ont des politiques détaillées qui interdisent aux utilisateurs de diffuser du contenu offensant ou dangereux. Pour modérer leurs réseaux, la plupart s’appuient fortement sur des systèmes d’intelligence artificielle pour rechercher des images, du texte et des vidéos qui semblent pouvoir enfreindre les règles contre les discours de haine ou l’incitation à la violence. Parfois, ces systèmes suppriment automatiquement les messages offensants. D’autres fois, les plateformes appliquent des étiquettes spéciales au contenu ou limitent sa visibilité.

La mesure dans laquelle le métaverse restera un espace sûr dépendra en partie de la façon dont les entreprises entraînent leurs systèmes d’IA pour modérer les plates-formes, a déclaré Andrea-Emilio Rizzoli, directeur de l’Institut suisse d’intelligence artificielle Dalle Molle. L’IA peut être formée pour détecter et éliminer les discours de haine et la désinformation, et les systèmes peuvent également les amplifier par inadvertance.

Le niveau de contenu problématique dans le métaverse dépendra également du fait que les entreprises technologiques conçoivent des environnements numériques pour fonctionner comme de petits groupes privés sur invitation uniquement ou des places publiques grandes ouvertes. Le lanceur d’alerte Haugen a ouvertement critiqué les plans du métaverse de Facebook, mais a récemment déclaré aux législateurs européens que les discours de haine et la désinformation dans les mondes virtuels pourraient ne pas voyager aussi loin ou aussi rapidement que sur les réseaux sociaux, car la plupart des gens interagiraient en petit nombre. .

Mais il est tout aussi probable que Meta intègre ses réseaux actuels, notamment Facebook, Instagram et WhatsApp, dans le métaverse, a déclaré Brent Mittelstadt, chercheur en éthique des données à l’Oxford Internet Institute.

« S’ils conservent les mêmes outils qui ont contribué à la propagation de la désinformation sur leurs plateformes actuelles, il est difficile de dire que le métaverse va aider », a déclaré Mittelstadt, qui est également membre du Data Ethics Group de l’Alan Turing Institute. .

Étant donné qu’une grande partie de la désinformation et des discours de haine pourraient également survenir lors d’interactions privées dans le métaverse, a ajouté Rizzoli, les plateformes seront confrontées aux mêmes débats sur la liberté d’expression et la censure lorsqu’elles décideront de supprimer ou non les contenus préjudiciables. Les plateformes veulent-elles que des êtres virtuels approchent les gens et leur disent que leur conversation n’est pas basée sur des faits, ou les empêchent-ils d’avoir la conversation du tout ?

« C’est une question discutable », a déclaré Rizzoli, « le type de contrôle auquel vous serez soumis dans ce nouveau métavers. »

Définir et déterminer l’authenticité dans le métavers pourrait également devenir plus compliqué. Les entreprises technologiques pourraient être confrontées à des questions délicates sur la liberté dont les gens devraient profiter pour se présenter comme un membre d’une race ou d’un sexe différent, a déclaré Erick Ramirez, professeur agrégé à l’Université de Santa Clara. Les contrefaçons profondes – des vidéos ou des sons qui utilisent l’intelligence artificielle pour donner l’impression que quelqu’un fait ou dit quelque chose qu’il n’a pas fait – pourraient évoluer pour devenir encore plus réalistes et interactifs dans un monde métavers.

« Il y a plus de place pour la tromperie », a déclaré Ramirez, qui a récemment participé à une table ronde avec Clegg sur les implications politiques du métavers. Ce genre de tromperie « profite de beaucoup de psychologie intégrée sur la façon dont nous interagissons avec les gens et comment nous identifions les gens ».

Confidentialité virtuelle

Le métaverse pourrait également compromettre la confidentialité des utilisateurs, ont déclaré des défenseurs et des chercheurs. Par exemple, les personnes qui portent les lunettes à réalité augmentée actuellement développées par Snap Inc et Meta pourraient finir par enregistrer des informations sur d’autres personnes autour d’elles à leur insu ou sans leur consentement. Les utilisateurs explorant des mondes purement virtuels pourraient également être confrontés au harcèlement numérique ou au harcèlement de mauvais acteurs.

« Dans le monde physique, vous devez souvent faire un travail supplémentaire pour suivre quelqu’un, par exemple, mais le monde en ligne le rend beaucoup plus facile », a déclaré Neil Chilson, chercheur principal en technologie et innovation à droite. Charles Koch Institute, qui a également participé à la table ronde de Meta.

Bill Stillwell, chef de produit Meta pour la confidentialité et l’intégrité de la réalité virtuelle, a déclaré dans un communiqué que les développeurs disposent d’outils pour modérer les expériences qu’ils créent sur Oculus, mais que les outils peuvent toujours s’améliorer. « Nous voulons que tout le monde se sente maître de son expérience de réalité virtuelle et se sente en sécurité sur notre plate-forme. »

Même les partisans du métaverse tels que Chilson et Jarre, le DJ français qui organisera bientôt des concerts de réalité virtuelle, affirment que les régulateurs du monde entier devront rédiger de nouvelles règles concernant la confidentialité, la modération du contenu et d’autres problèmes pour sécuriser ces espaces numériques. Cela pourrait être un défi de taille pour les gouvernements qui luttent depuis des années pour adopter des réglementations régissant les médias sociaux.

« Chaque technologie a un côté obscur », a déclaré Jarre. « Nous devons donc de toute urgence créer des réglementations. »

Jonathan Victor, chef de produit au développeur open source Protocol Labs, voit également un bon côté potentiel. Dans sa vision du métavers, n’importe qui pourra posséder une version numérique 3D de lui-même, échanger de la crypto-monnaie ou faire carrière en vendant les biens virtuels qu’il a créés.

« Il y a un potentiel incroyable », a déclaré Victor. « La question est, quelle est la bonne façon de le construire ? » – Bloomberg




Article traduis depuis:
Source link