FRFAM.COM >> Famille >> Technologie &Innovation >> Informatique

Que sont les algorithmes d'apprentissage automatique ? Voici comment ils fonctionnent

L'intelligence artificielle et l'apprentissage automatique sont à l'origine de bon nombre des avancées que nous constatons aujourd'hui dans l'industrie technologique. Mais comment donner aux machines la capacité d'apprendre ? De plus, comment notre façon de procéder entraîne-t-elle des conséquences imprévues ?

Voici notre explication rapide sur le fonctionnement des algorithmes d'apprentissage automatique, ainsi que quelques exemples d'apprentissage automatique qui ont mal tourné.

Que sont les algorithmes d'apprentissage automatique ?

L'apprentissage automatique est une branche de l'informatique qui vise à donner à l'IA la capacité d'apprendre des tâches. Cela inclut le développement de capacités sans que les programmeurs ne codent explicitement l'IA pour faire ces choses. Au lieu de cela, l'IA est capable d'utiliser des données pour s'auto-apprendre.

Les programmeurs y parviennent grâce à des algorithmes d'apprentissage automatique. Ces algorithmes sont les modèles sur lesquels repose un comportement d'apprentissage de l'IA. Les algorithmes, associés aux ensembles de données d'entraînement, permettent à l'IA d'apprendre.

Un algorithme fournit généralement un modèle qu'une IA peut utiliser pour résoudre un problème. Par exemple, apprendre à identifier les images de chats par rapport aux chiens. L'IA applique le modèle défini par l'algorithme à un ensemble de données qui comprend des images de chats et de chiens. Au fil du temps, l'IA apprendra à identifier les chats des chiens avec plus de précision et de facilité, sans intervention humaine.

L'apprentissage automatique améliore les technologies telles que les moteurs de recherche, les appareils domestiques intelligents, les services en ligne et les machines autonomes. C'est ainsi que Netflix sait quels films vous êtes le plus susceptible d'apprécier et comment les services de diffusion de musique peuvent recommander des listes de lecture.

Mais si l'apprentissage automatique peut nous faciliter la vie, il peut aussi avoir des conséquences inattendues.

7 fois où l'apprentissage automatique a mal tourné

1. Erreurs dans les résultats de recherche d'images Google

Que sont les algorithmes d apprentissage automatique ? Voici comment ils fonctionnent

La recherche Google a rendu la navigation sur le Web beaucoup plus facile. L'algorithme du moteur prend en considération une variété de choses lors de l'élaboration des résultats, tels que les mots-clés et le taux de rebond. Mais l'algorithme apprend également du trafic des utilisateurs, ce qui peut entraîner des problèmes de qualité des résultats de recherche.

Cela n'est nulle part plus évident que dans les résultats d'image. Étant donné que les pages qui reçoivent un trafic élevé sont plus susceptibles d'afficher leurs images, les histoires qui attirent un grand nombre d'utilisateurs, y compris les pièges à clics, sont souvent prioritaires.

Par exemple, les résultats de la recherche d'images pour les "camps de squatters en Afrique du Sud" ont suscité la controverse lorsqu'il a été découvert qu'il s'agissait principalement de Sud-Africains blancs. Ceci en dépit des statistiques montrant que l'écrasante majorité de ceux qui vivent dans des logements informels, tels que des cabanes, sont des Sud-Africains noirs.

Les facteurs utilisés dans l'algorithme de Google signifient également que les internautes peuvent manipuler les résultats. Par exemple, une campagne menée par des utilisateurs a influencé les résultats de recherche d'images de Google dans la mesure où la recherche du terme "idiot" affiche des images du président américain Donald Trump.

2. Microsoft Bot transformé en nazi

Faites confiance à Twitter pour corrompre un chatbot d'apprentissage automatique bien intentionné. C'est ce qui s'est passé dans la journée qui a suivi la sortie du désormais célèbre chatbot de Microsoft, Tay.

Tay a imité les modèles de langage d'une adolescente et a appris grâce à ses interactions avec d'autres utilisateurs de Twitter. Cependant, elle est devenue l'un des faux pas les plus infâmes de l'IA lorsqu'elle a commencé à partager des déclarations nazies et des insultes raciales. Il s'avère que les trolls ont utilisé l'apprentissage automatique de l'IA contre lui, l'inondant d'interactions chargées de fanatisme.

Peu de temps après, Microsoft a mis Tay hors ligne pour de bon.

3. Problèmes de reconnaissance faciale de l'IA

L'IA de reconnaissance faciale fait souvent la une des journaux pour toutes les mauvaises raisons, telles que des histoires sur la reconnaissance faciale et les problèmes de confidentialité. Mais cette IA a également causé d'énormes inquiétudes lors de la tentative de reconnaissance des personnes de couleur.

En 2015, les utilisateurs ont découvert que Google Photos catégorisait certaines personnes noires comme des gorilles. En 2018, une étude de l'ACLU a montré que le logiciel d'identification faciale Rekognition d'Amazon identifiait 28 membres du Congrès américain comme suspects de la police, les faux positifs affectant de manière disproportionnée les personnes de couleur.

Un autre incident impliquait le logiciel Face ID d'Apple identifiant à tort deux femmes chinoises différentes comme la même personne. En conséquence, le collègue du propriétaire de l'iPhone X pourrait déverrouiller le téléphone.

Pendant ce temps, la chercheuse du MIT Joy Buolamwini se souvient avoir souvent dû porter un masque blanc tout en travaillant sur la technologie de reconnaissance faciale afin que le logiciel la reconnaisse. Pour résoudre des problèmes comme celui-ci, Buolamwini et d'autres professionnels de l'informatique attirent l'attention sur le problème et sur la nécessité d'ensembles de données plus inclusifs pour la formation à l'IA.

4. Deepfakes utilisés pour les canulars

Alors que les gens utilisent depuis longtemps Photoshop pour créer des images de canular, l'apprentissage automatique amène cela à un nouveau niveau. Un logiciel comme FaceApp vous permet d'échanger les sujets d'une vidéo à l'autre.

Mais de nombreuses personnes exploitent le logiciel pour une variété d'utilisations malveillantes, notamment en superposant des visages de célébrités dans des vidéos pour adultes ou en générant des vidéos canulars. Pendant ce temps, les internautes ont contribué à améliorer la technologie pour rendre de plus en plus difficile de distinguer les vraies vidéos des fausses. En conséquence, cela rend ce type d'IA très puissant en termes de diffusion de fausses nouvelles et de canulars.

Pour montrer la puissance de la technologie, le réalisateur Jordan Peele et le PDG de BuzzFeed Jonah Peretti ont créé une vidéo deepfake montrant ce qui semble être l'ancien président américain Barack Obama livrant un message d'intérêt public sur la puissance des deepfakes.

5. L'essor des bots Twitter

Les bots Twitter ont été créés à l'origine pour automatiser des choses comme les réponses du service client pour les marques. Mais la technologie est maintenant une cause majeure de préoccupation. En fait, des recherches ont estimé que jusqu'à 48 millions d'utilisateurs de Twitter sont en fait des robots IA.

Plutôt que d'utiliser simplement des algorithmes pour suivre certains hashtags ou répondre aux questions des clients, de nombreux comptes de robots tentent d'imiter de vraies personnes. Ces « personnes » font ensuite la promotion de canulars et contribuent à rendre les fausses nouvelles virales.

Une vague de bots Twitter a même influencé l'opinion publique dans une certaine mesure sur le Brexit et l'élection présidentielle américaine de 2016. Twitter lui-même a admis avoir découvert environ 50 000 robots fabriqués en Russie qui ont publié des articles sur les élections.

Les bots continuent de tourmenter le service, répandant la désinformation. Le problème est si répandu qu'il affecte même la valorisation de l'entreprise.

6. Les employés disent qu'Amazon AI a décidé d'embaucher des hommes, c'est mieux

En octobre 2018, Reuters a rapporté qu'Amazon avait dû supprimer un outil de recrutement après que l'IA du logiciel ait décidé que les candidats masculins étaient préférentiels.

Les employés qui souhaitaient rester anonymes se sont manifestés pour parler à Reuters de leur travail sur le projet. Les développeurs voulaient que l'IA identifie les meilleurs candidats pour un emploi en fonction de leur CV. Cependant, les personnes impliquées dans le projet ont vite remarqué que l'IA pénalisait les candidates. Ils ont expliqué que l'IA utilisait des CV de la dernière décennie, dont la plupart provenaient d'hommes, comme ensemble de données de formation.

En conséquence, l'IA a commencé à filtrer les CV en fonction du mot clé "femmes". Le mot-clé est apparu dans le CV sous des activités telles que "capitaine de club d'échecs féminin". Alors que les développeurs ont modifié l'IA pour éviter cette pénalisation des CV des femmes, Amazon a finalement abandonné le projet.

7. Contenu inapproprié sur YouTube Kids

YouTube Kids propose de nombreuses vidéos amusantes et fantaisistes destinées à divertir les enfants. Mais il a aussi un problème de vidéos spammées qui manipulent l'algorithme de la plateforme.

Ces vidéos sont basées sur des balises populaires. Étant donné que les jeunes enfants ne sont pas des téléspectateurs très exigeants, les vidéos indésirables utilisant ces mots-clés attirent des millions de vues. L'IA génère automatiquement certaines de ces vidéos à l'aide d'éléments d'animation de stock, basés sur des balises de tendance. Même lorsque les vidéos sont réalisées par des animateurs, leurs titres sont spécifiquement générés pour le bourrage de mots-clés.

Ces mots clés aident à manipuler l'algorithme de YouTube afin qu'ils se retrouvent dans des recommandations. Une quantité importante de contenu inapproprié est apparue dans les flux des enfants utilisant l'application YouTube Kids. Cela comprenait du contenu illustrant la violence, des jumpscares et du contenu sexuel.

Pourquoi l'apprentissage automatique tourne mal

Il existe deux principales raisons pour lesquelles l'apprentissage automatique entraîne des conséquences imprévues :les données et les personnes. En termes de données, le mantra du "junk in, junk out" s'applique. Si les données transmises à une IA sont limitées, biaisées ou de mauvaise qualité ; le résultat est une IA avec une portée ou un biais limité.

Mais même si les programmeurs obtiennent les bonnes données, les gens peuvent mettre la clé sous la porte. Les créateurs de logiciels ne réalisent souvent pas à quel point les gens peuvent utiliser la technologie de manière malveillante ou à des fins égoïstes. Les deepfakes sont issus de la technologie utilisée pour améliorer les effets spéciaux au cinéma.

Ce qui vise à offrir un divertissement plus immersif finit également par ruiner la vie des gens lorsqu'il est exploité.

Certaines personnes travaillent à l'amélioration des protections autour de la technologie d'apprentissage automatique pour empêcher toute utilisation malveillante. Mais la technologie est déjà là. Pendant ce temps, de nombreuses entreprises ne font pas preuve de la volonté requise pour empêcher les abus de ces développements.

Les algorithmes d'apprentissage automatique peuvent nous aider

Cela peut sembler un peu sombre lorsque vous réalisez à quel point l'apprentissage automatique et l'intelligence artificielle ne répondent pas aux attentes. Mais cela nous aide également à bien des égards, non seulement en termes de confort, mais aussi d'amélioration de nos vies en général.

Si vous hésitez un peu sur l'impact positif de l'IA et de l'apprentissage automatique, découvrez comment l'intelligence artificielle combat la cybercriminalité et les pirates informatiques pour redonner espoir.


[]