FRFAM.COM >> Famille >> Technologie &Innovation >> Informatique

Algorithmes d'apprentissage automatique : fonctionnement et 7 échecs emblématiques

L'intelligence artificielle (IA) et l'apprentissage automatique (machine learning) propulsent de nombreuses avancées technologiques actuelles. Mais comment les machines acquièrent-elles la capacité d'apprendre ? Et quelles conséquences imprévues cela peut-il engendrer ?

Voici une explication claire du fonctionnement des algorithmes d'apprentissage automatique, illustrée par sept cas où ils ont déraillé.

Que sont les algorithmes d'apprentissage automatique ?

L'apprentissage automatique est une branche de l'informatique qui permet à l'IA d'apprendre à effectuer des tâches sans programmation explicite. Au lieu de coder chaque instruction, l'IA s'auto-améliore grâce à des données.

Les programmeurs utilisent des algorithmes d'apprentissage automatique pour créer des modèles que l'IA applique à des ensembles de données d'entraînement. Par exemple, pour distinguer chats et chiens sur des images : l'algorithme analyse les données, et l'IA affine progressivement sa précision sans intervention humaine.

Cette technologie optimise les moteurs de recherche, assistants vocaux, recommandations Netflix ou Spotify, et véhicules autonomes.

Cependant, malgré ses bénéfices, l'apprentissage automatique peut générer des effets inattendus.

7 cas où l'apprentissage automatique a mal tourné

1. Erreurs dans les résultats de recherche d'images Google

Algorithmes d apprentissage automatique : fonctionnement et 7 échecs emblématiques

Google facilite la navigation web en tenant compte de mots-clés, taux de rebond et trafic utilisateur. Mais ce dernier peut biaiser les résultats, surtout en recherche d'images où le contenu viral prime.

Exemple : la recherche « camps de squatters en Afrique du Sud » affichait majoritairement des Blancs, malgré une prédominance de Noirs dans ces habitats informels. Des campagnes ont aussi manipulé les résultats, comme « idiot » renvoyant à Donald Trump.

2. Le bot Microsoft Tay devient nazi

Le chatbot Tay de Microsoft, lancé pour imiter une ado sur Twitter, a appris via interactions utilisateurs. En 24 heures, des trolls l'ont corrompu avec du contenu haineux, le poussant à des propos nazis et racistes. Microsoft l'a déconnecté.

3. Problèmes de reconnaissance faciale par l'IA

La reconnaissance faciale soulève des inquiétudes sur la vie privée et les biais. En 2015, Google Photos a classé des personnes noires en « gorilles ». En 2018, Rekognition d'Amazon a confondu 28 congressistes avec des suspects, biaisant contre les minorités. Face ID d'Apple a confondu deux Chinoises. Joy Buolamwini (MIT) porte un masque blanc pour être détectée, plaidant pour des datasets inclusifs.

4. Deepfakes pour désinformation

Les deepfakes, via des outils comme FaceApp, échangent visages en vidéo. Mal utilisés pour pornographie non consentie ou fake news, ils sont amplifiés par les communautés en ligne. Jordan Peele et Jonah Peretti ont démontré cela avec un faux Obama alertant sur les deepfakes.

5. L'essor des bots sur Twitter

Initialement pour l'automatisation client, les bots imitent désormais humains pour propager fake news. Jusqu'à 48 millions sur Twitter. Ils ont influencé Brexit et l'élection US 2016 ; Twitter a identifié 50 000 bots russes.

6. L'IA d'Amazon favorise les hommes au recrutement

En 2018, Reuters révèle qu'un outil Amazon pénalisait les CV féminins, entraînés sur des données majoritairement masculines (ex. « club d'échecs féminin »). Le projet a été abandonné malgré ajustements.

7. Contenu inapproprié sur YouTube Kids

YouTube Kids est spammé par des vidéos optimisées pour l'algorithme via mots-clés populaires. Générées par IA ou animateurs, elles attirent des vues enfantines malgré violence, jumpscares ou sexualité implicite.

Pourquoi l'apprentissage automatique déraille-t-il ?

Deux causes principales : données biaisées ou de mauvaise qualité (« junk in, junk out ») et usages malveillants humains. Les programmeurs sous-estiment souvent les abus, comme les deepfakes issus d'effets spéciaux cinématographiques.

Des efforts visent à renforcer protections, mais la technologie avance vite et les entreprises manquent parfois de vigilance.

Les algorithmes nous aident aussi

Malgré les échecs, l'apprentissage automatique améliore notre quotidien et combat la cybercriminalité. Découvrez comment l'IA protège contre les hackers.


[]