Avez-vous déjà insulté Siri, Alexa ou Google pour ne pas avoir compris vos mots ? Tu n'es pas seul. Nous pouvons être coupables d'avoir lancé une insulte ou deux nous-mêmes.
Mais nous devons tous être prudents.
Bien qu'il n'y ait pas de personne réelle à l'autre bout de votre insulte, ces jurons ne disparaissent pas non plus dans le vide. Nos barbes stupides sont transférées sur le net vers des serveurs distants. La façon dont nous traitons les assistants personnels numériques peut leur apprendre le pire de l'humanité, et certaines entreprises peuvent considérer certains d'entre nous comme trop déséquilibrés pour embaucher.
Il s'avère que ce que nous pouvons considérer comme des plaisanteries inoffensives n'est pas si inoffensif après tout.
Siri est entré en scène en 2011, suivi de Google Now un an plus tard. En 2014, Microsoft avait Cortana. La même année, Amazon a collé une IA appelée Alexa dans un tube en plastique que les gens pouvaient laisser sur leurs comptoirs. Google et Apple ont depuis fait de même. Les géants de la technologie cherchent rapidement des moyens de transformer l'intelligence artificielle en produits prêts à l'emploi.
Ces assistants personnels numériques peuvent sembler matures. Ils peuvent même avoir des moments qui nous ravissent. Mais ils sont adolescents. Ce sont des tout-petits très alphabétisés, et ils apprennent activement à partir des informations que nous leur fournissons. Il en va de même pour les entreprises qui les fabriquent.
L'équipe derrière Siri travaille sur Viv (maintenant détenue par Samsung), un assistant numérique qui s'intègre à des services tiers tels que Weather Underground et Uber pour fournir aux intervenants des réponses plus détaillées. Les démonstrations sur scène montrent Viv répondant au type de questions que nous posons aux autres, et non au type de langage que nous adaptons pour que les machines comprennent. C'est le résultat de l'apprentissage de la façon dont les gens utilisent la langue.
Les assistants personnels numériques ne sont pas ce que la plupart d'entre nous imaginent lorsque nous imaginons l'intelligence artificielle. Contrairement à ELIZA, un programme informatique des années 1960 qui simule le langage naturel (vous pouvez essayer de lui parler en ligne), ces IA ne font pas beaucoup de "réflexion" par elles-mêmes. Ce travail est entièrement déchargé sur Internet.
Le processus comporte plusieurs étapes.
Le premier composant est la reconnaissance vocale. L'appareil télécharge un enregistrement direct ou traduit vos mots en texte qu'il peut envoyer à des serveurs distants (Apple, Google, Amazon, peu importe). C'est là que la magie opère. Ou plutôt, un logiciel recherche dans une base de données une réponse appropriée. Il renvoie ensuite ces informations à l'assistant personnel.
En bref :quelqu'un vous pose une question, vous demandez à Siri, et Siri demande ensuite aux serveurs Apple. Les serveurs donnent une réponse à Siri, elle vous répond, et vous êtes soit satisfait, soit laissé à vous-même pour gérer votre déception.
Ces bases de données ne contiennent pas que des réponses. Certains enregistrent des enregistrements vocaux qui aident l'ordinateur à naviguer dans les nombreuses nuances de nos différents dialectes. Ces informations ne sont pas seulement destinées à aider les bots à nous comprendre. Facebook a utilisé des milliers de négociations en langage naturel entre deux personnes afin d'apprendre aux chatbots Messenger comment négocier.
Ce ne sont pas les seules IA à apprendre de notre façon de parler.
L'année dernière, Microsoft a lancé un chat bot sur Twitter, Kik et GroupMe dans le but de simuler une adolescente américaine. En quelques heures, "Tay" était d'accord avec Hitler et épousait toutes sortes de rhétoriques offensives. Microsoft a mis Tay hors ligne avant la fin de la journée.
Bien que Tay ait été un échec, cela n'a pas ralenti la prolifération des chatbots. Vous pouvez les trouver sur des réseaux sociaux comme Facebook et Snapchat, ainsi que sur des clients de messagerie comme HipChat et Slack. Certains sont là pour discuter. D'autres vous connectent à des services. Certains de ces bots sont plus sûrs parce qu'ils ne le font pas essayez d'imiter la conversation naturelle, car en ce moment, ce n'est pas nécessairement bon pour les machines d'imiter notre façon de parler.
Nous ne donnons pas exactement le meilleur exemple dont les bots peuvent tirer des leçons. Sheryl Brahnam, professeur à l'université de l'Université d'État du Missouri, a mené une étude concluant que 10 à 50 % des interactions étudiées montraient que les humains étaient abusifs ou méchants envers les assistants informatiques (dont les assistants personnels numériques ne sont qu'un type). C'est un nombre inquiétant. Certains parents se sentent coupables d'avoir prononcé un seul gros mot devant leurs enfants. C'est loin d'être moitié de leurs interactions étant négatives.
Ces chatbots Facebook Messenger dont j'ai parlé plus tôt ? Non seulement ils ont appris à négocier en étudiant le langage naturel, mais ils ont aussi appris à mentir.
Nous pourrions atteindre un point dans le futur où la façon dont nous communiquons avec les robots peut nous coûter notre travail. Selon Harvard Business Review, ce changement pourrait se produire lorsque nous passerons d'un bot maltraité à un téléphone portable cassé et plus à un chaton qui a reçu un coup de pied. Le manque de respect envers un bot de l'entreprise peut potentiellement vous faire virer.
Cela ne signifie pas que les employés ou les employeurs commenceront à considérer les bots comme d'adorables entités vivantes. Cependant, ils pourraient être suffisamment sensibles pour les maltraiter pour sembler non professionnels et contre-productifs. Si vous êtes un manager, abuser de l'IA pourrait vous faire appeler devant les RH pour mauvais leadership.
Cela vous semble-t-il trop hypothétique ? Considérez ce que nous savons déjà qui se passe. Tout ce que nous tapons ou disons à ces assistants est envoyé sur Internet, et nous ne savons pas vraiment ce qu'il en advient par la suite. Une grande partie de ces informations est enregistrée. Même si ces informations ne sont pas toujours liées à votre compte, elles sont toujours stockées.
Google est techniquement transparent à ce sujet, mais cela ne le rend pas évident. Ce type si la collecte de données étend la définition d'avoir le consentement de quelqu'un avant de l'enregistrer.
Ces données collectées peuvent sembler inoffensives maintenant, mais rien n'empêche les géants de la technologie de constituer éventuellement des portefeuilles détaillés sur chacun de nous que les futurs employeurs, banques et autres entités pourraient vérifier avant de s'engager avec nous, un peu comme un rapport de solvabilité.
Dans une affaire impliquant un homme de l'Arkansas accusé d'avoir tué son ami (un ancien policier), le procureur a cherché à utiliser des enregistrements d'un Amazon Echo comme preuve. Amazon a rejeté la demande, mais ce n'est que partiellement réconfortant. Ce qui est troublant, c'est qu'Amazon a stocké des données en premier lieu. Le suspect a depuis accordé l'accès à ces données.
J'ai mentionné que les entreprises pourraient vérifier nos enregistrements de données avant d'interagir avec nous. Dans le cas des forces de l'ordre, ils ont déjà les yeux sur ces informations. La NSA a-t-elle vraiment besoin de collecter elle-même des données si elle peut compter sur le secteur privé pour collecter ces informations pour elle ? Devrions-nous faire confiance à quelqu'un qui possède autant de données sur chacun de nous ?
Les données ne comprennent pas seulement ce que nous avons recherché ou les commandes que nous avons émises, mais comment nous l'avons fait. Nous ne nous contentons pas de donner un aperçu de nos intérêts et de nos actions ; nous donnons aux autres un aperçu de la façon dont nous agissons. Ce qui se passe entre vous et Alexa ne reste pas entre vous et Alexa.
Alors que Tay devait entrer dans le délai d'attente, Microsoft a rencontré un succès retentissant avec un bot différent. Son nom est Xiaoice. En Chine et au Japon, ce bot a interagi avec plus de 40 millions de personnes. Le fait que Xiaoice ne se soit pas autodétruite est en partie dû à une différence de culture. En Chine, certains types de discours ne sont pas autorisés en ligne.
Maintenant, les bots ont commencé à faire la police eux-mêmes. Les réseaux sociaux commencent à utiliser des bots pour limiter les discours de haine. Nous ne parlons peut-être pas directement à ces bots, mais ils étudient toujours notre discours pour savoir ce qui constitue un abus.
Peu importe comment vous abordez le problème, ce que nous disons et comment nous le disons est important. Les bots et les entreprises qui les fabriquent sont à l'écoute. Un jour, nos employeurs pourraient les rejoindre. Et si les ordinateurs étaient pour nous remplacer à l'avenir, ne voudrions-nous pas qu'ils soient gentils ?
Comment réagissez-vous lorsque les assistants personnels numériques échouent ? Les traitez-vous comme s'ils avaient des sentiments ? Vous souciez-vous si quelqu'un garde un œil sur ce que vous dites ? Que voyez-vous comme la voie à suivre responsable ? Un humain gardera un œil sur vos commentaires ci-dessous.
Crédit image :deagreez1/Depositphotos