L'intelligence artificielle (IA) et l'apprentissage automatique (machine learning) propulsent de nombreuses avancées technologiques actuelles. Mais comment les machines acquièrent-elles la capacité d'apprendre ? Et quelles conséquences imprévues cela peut-il engendrer ?
Voici une explication claire du fonctionnement des algorithmes d'apprentissage automatique, illustrée par sept cas où ils ont déraillé.
L'apprentissage automatique est une branche de l'informatique qui permet à l'IA d'apprendre à effectuer des tâches sans programmation explicite. Au lieu de coder chaque instruction, l'IA s'auto-améliore grâce à des données.
Les programmeurs utilisent des algorithmes d'apprentissage automatique pour créer des modèles que l'IA applique à des ensembles de données d'entraînement. Par exemple, pour distinguer chats et chiens sur des images : l'algorithme analyse les données, et l'IA affine progressivement sa précision sans intervention humaine.
Cette technologie optimise les moteurs de recherche, assistants vocaux, recommandations Netflix ou Spotify, et véhicules autonomes.
Cependant, malgré ses bénéfices, l'apprentissage automatique peut générer des effets inattendus.

Google facilite la navigation web en tenant compte de mots-clés, taux de rebond et trafic utilisateur. Mais ce dernier peut biaiser les résultats, surtout en recherche d'images où le contenu viral prime.
Exemple : la recherche « camps de squatters en Afrique du Sud » affichait majoritairement des Blancs, malgré une prédominance de Noirs dans ces habitats informels. Des campagnes ont aussi manipulé les résultats, comme « idiot » renvoyant à Donald Trump.
Le chatbot Tay de Microsoft, lancé pour imiter une ado sur Twitter, a appris via interactions utilisateurs. En 24 heures, des trolls l'ont corrompu avec du contenu haineux, le poussant à des propos nazis et racistes. Microsoft l'a déconnecté.
La reconnaissance faciale soulève des inquiétudes sur la vie privée et les biais. En 2015, Google Photos a classé des personnes noires en « gorilles ». En 2018, Rekognition d'Amazon a confondu 28 congressistes avec des suspects, biaisant contre les minorités. Face ID d'Apple a confondu deux Chinoises. Joy Buolamwini (MIT) porte un masque blanc pour être détectée, plaidant pour des datasets inclusifs.
Les deepfakes, via des outils comme FaceApp, échangent visages en vidéo. Mal utilisés pour pornographie non consentie ou fake news, ils sont amplifiés par les communautés en ligne. Jordan Peele et Jonah Peretti ont démontré cela avec un faux Obama alertant sur les deepfakes.
Initialement pour l'automatisation client, les bots imitent désormais humains pour propager fake news. Jusqu'à 48 millions sur Twitter. Ils ont influencé Brexit et l'élection US 2016 ; Twitter a identifié 50 000 bots russes.
En 2018, Reuters révèle qu'un outil Amazon pénalisait les CV féminins, entraînés sur des données majoritairement masculines (ex. « club d'échecs féminin »). Le projet a été abandonné malgré ajustements.
YouTube Kids est spammé par des vidéos optimisées pour l'algorithme via mots-clés populaires. Générées par IA ou animateurs, elles attirent des vues enfantines malgré violence, jumpscares ou sexualité implicite.
Deux causes principales : données biaisées ou de mauvaise qualité (« junk in, junk out ») et usages malveillants humains. Les programmeurs sous-estiment souvent les abus, comme les deepfakes issus d'effets spéciaux cinématographiques.
Des efforts visent à renforcer protections, mais la technologie avance vite et les entreprises manquent parfois de vigilance.
Malgré les échecs, l'apprentissage automatique améliore notre quotidien et combat la cybercriminalité. Découvrez comment l'IA protège contre les hackers.