Facebook intensifie ses efforts pour aider les personnes ayant des pensées suicidaires. Et le réseau social utilise l'intelligence artificielle pour identifier les personnes à risque. Bien que cela ait des implications sur la vie privée, cela pourrait aider à sauver d'innombrables vies chaque année. Ce qui doit être une bonne chose.
La dépression et d'autres formes de maladie mentale peuvent être débilitantes. Et tout le monde ne dispose pas du type de réseau de soutien nécessaire pour traverser les moments difficiles. Cependant, même si quelqu'un ne se sent pas capable de contacter un ami en personne, il peut toujours émettre un appel à l'aide sur Facebook. C'est pourquoi le réseau social essaie d'aider les personnes exprimant des pensées suicidaires sur sa plateforme.
Facebook a détaillé les étapes qu'il prend pour obtenir de l'aide pour les personnes qui en ont besoin. Ce qui implique d'utiliser l'intelligence artificielle pour "détecter les messages ou les vidéos en direct où quelqu'un pourrait exprimer des pensées suicidaires", identifier les premiers intervenants appropriés, puis employer plus de personnes pour "examiner les rapports de suicide ou d'automutilation".
Le réseau social teste ce système aux États-Unis depuis un mois et "a travaillé avec les premiers intervenants sur plus de 100 contrôles de bien-être basés sur les rapports que nous avons reçus via nos efforts de détection proactive". Dans certains cas, les autorités locales ont été prévenues afin d'aider.
Aujourd'hui, Facebook étend son utilisation de l'IA, qu'il appelle "technologie de reconnaissance de formes", et elle sera éventuellement disponible dans le monde entier, à l'exception de l'UE. En effet, l'UE dispose du règlement général sur la protection des données qui empêche les entreprises d'utiliser des informations sensibles pour profiler leurs utilisateurs.
Malheureusement, malgré toutes ses bonnes intentions, il y a un revers inévitable et indéniable à cette initiative. Parce que cela signifie que Facebook surveille ce que vous dites sur sa plateforme. Et bien que la surveillance des pensées suicidaires ait clairement le potentiel de faire du bien, c'est aussi une atteinte à la vie privée. C'est pourquoi Facebook ne peut pas déployer cela dans l'UE grâce à des lois plus strictes sur la confidentialité.
La dépression est plus courante que vous ne le pensez, et il existe des preuves suggérant que la technologie pourrait aggraver les choses. Cependant, Internet peut également servir de groupe de soutien temporaire, avec un certain nombre de ressources conçues pour vous aider. Facebook utilise juste un autre outil dans ce combat.
Que pensez-vous des nouveaux efforts de Facebook pour aider à prévenir les suicides ? Est-ce le devoir de Facebook de mettre en place de telles garanties ? Pensez-vous qu'il s'agit d'une véritable préoccupation pour ses utilisateurs ? Ou est-ce juste une autre façon d'envahir la vie privée des gens ? Veuillez nous en informer dans les commentaires ci-dessous !