FRFAM.COM >> Famille >> Technologie &Innovation >> Informatique

Comment l'intelligence artificielle façonnera l'avenir des logiciels malveillants

À mesure que nous avançons vers l'avenir, la perspective de systèmes basés sur l'IA devient plus attrayante. L'intelligence artificielle nous aidera à prendre des décisions, à alimenter nos villes intelligentes et, malheureusement, à infecter nos ordinateurs avec de vilaines souches de logiciels malveillants.

Explorons ce que l'avenir de l'IA signifie pour les logiciels malveillants.

Qu'est-ce que l'IA dans les logiciels malveillants ?

Lorsque nous utilisons le terme "malware piloté par l'IA", il est facile d'imaginer un cas de style Terminator d'une IA "devenue malhonnête" et causant des ravages. En réalité, un programme malveillant contrôlé par l'IA ne renverrait pas les robots dans le temps; ce serait plus sournois que ça.

Les logiciels malveillants basés sur l'IA sont des logiciels malveillants conventionnels modifiés via l'intelligence artificielle pour les rendre plus efficaces. Les logiciels malveillants basés sur l'IA peuvent utiliser leur intelligence pour infecter les ordinateurs plus rapidement ou rendre les attaques plus efficaces. Au lieu d'être un programme "stupide" qui suit un code prédéfini, les logiciels malveillants pilotés par l'IA peuvent penser par eux-mêmes --- dans une certaine mesure.

Comment l'IA améliore-t-elle les logiciels malveillants ?

L'intelligence artificielle peut améliorer les logiciels malveillants de plusieurs manières. Certaines de ces méthodes sont figuratives, tandis que d'autres sont tangibles dans le monde réel d'une manière ou d'une autre.

Ransomware ciblé démontré par DeepLocker

L'un des exemples de logiciels malveillants les plus effrayants basés sur l'IA est Deeplocker. Heureusement, IBM Research a développé le logiciel malveillant comme preuve de concept afin que vous ne le trouviez pas dans la nature.

Le concept de DeepLocker était de démontrer comment l'IA peut introduire clandestinement un ransomware dans un appareil cible. Les développeurs de logiciels malveillants peuvent faire une « explosion de propagation de fusil de chasse » contre une entreprise avec un ransomware, mais il y a de fortes chances qu'ils ne parviennent pas à infecter les ordinateurs essentiels. En tant que tel, l'alerte peut être déclenchée trop tôt pour que le logiciel malveillant atteigne les cibles les plus importantes.

DeepLocker était un logiciel de téléconférence qui introduisait en contrebande une souche unique de WannaCry. Cependant, cela n'a pas activé la charge utile; au lieu de cela, il remplirait simplement ses fonctions en tant que programme de téléconférence.

Comme il faisait son travail, il scannait les visages des personnes qui l'utilisaient. Son objectif était d'infecter l'ordinateur d'une personne spécifique, il surveillait donc tout le monde pendant qu'ils utilisaient le logiciel. Lorsqu'il détectait le visage de la cible, il activait la charge utile et provoquait le verrouillage du PC par WannaCry.

Vers adaptatifs qui apprennent de la détection

Une utilisation théorique de l'IA dans les logiciels malveillants est un ver qui "se souvient" chaque fois qu'un antivirus le détecte. Une fois qu'il sait quelles actions amènent un antivirus à le repérer, il arrête alors d'effectuer cette action et trouve un autre moyen d'infecter le PC.

Ceci est particulièrement dangereux, car les antivirus modernes ont tendance à se soustraire à des règles et des définitions strictes. Cela signifie que tout ce qu'un ver doit faire est de trouver un moyen d'entrer qui ne déclenche pas l'alarme. Une fois qu'il le fait, il peut informer les autres souches du trou dans la défense, afin qu'ils puissent infecter d'autres PC plus facilement.

Indépendance vis-à-vis du développeur

Les logiciels malveillants modernes sont assez "stupides" ; il ne peut pas penser par lui-même ou prendre des décisions. Il exécute une série de tâches que le développeur lui a confiées avant que l'infection ne se produise. Si le développeur veut que le logiciel fasse quelque chose de nouveau, il doit diffuser la prochaine liste d'instructions à son logiciel malveillant.

Ce centre de communication s'appelle un serveur de "commande et contrôle" (C&C), et il doit être très bien caché. Si le serveur est découvert, cela pourrait ramener le pirate informatique, se terminant souvent par des arrestations.

Si le logiciel malveillant peut penser par lui-même, il n'est pas nécessaire d'avoir un serveur C&C. Le développeur libère le malware et s'assoit pendant que le malware fait tout le travail. Cela signifie que le développeur n'a pas besoin de risquer de se faire remarquer en donnant des commandes ; ils peuvent simplement "installer et oublier" leur logiciel malveillant.

Surveillance des voix des utilisateurs pour les informations sensibles

Si un logiciel malveillant piloté par l'IA prend le contrôle du microphone d'une cible, il peut écouter et enregistrer ce que les gens disent à proximité. L'IA analyse ensuite ce qu'elle a entendu, le transcrit en texte, puis renvoie le texte au développeur. Cela facilite la vie du développeur, qui n'a pas à passer des heures d'enregistrement audio pour trouver des secrets commerciaux.

Comment un ordinateur peut-il "apprendre ?"

Les logiciels malveillants peuvent apprendre de leurs actions grâce à ce qu'on appelle "l'apprentissage automatique". Il s'agit d'un domaine spécifique de l'IA, lié à la façon dont les ordinateurs peuvent apprendre de leurs efforts. L'apprentissage automatique est utile pour les développeurs d'IA, car ils n'ont pas besoin de coder pour chaque scénario. Ils permettent à l'IA de savoir ce qui est bien et ce qui ne l'est pas, puis la laissent apprendre par essais et erreurs.

Lorsque l'IA entraînée par le machine learning fait face à un obstacle, elle essaie différentes méthodes pour le surmonter. Au début, il réussira mal le défi, mais l'ordinateur notera ce qui n'a pas fonctionné et ce qui peut être amélioré. Au cours de plusieurs itérations d'apprentissage et d'essais, il obtient finalement une bonne idée de ce qu'est la "bonne" réponse.

Vous pouvez voir un exemple de cette progression dans la vidéo ci-dessus. La vidéo montre une IA apprenant à faire marcher correctement différentes créatures. Les premières générations marchent comme si elles étaient ivres, mais les suivantes tiennent leur posture. En effet, l'IA a appris des échecs précédents et a fait un meilleur travail sur les modèles ultérieurs.

Les développeurs de logiciels malveillants utilisent cette puissance de l'apprentissage automatique pour comprendre comment attaquer correctement un système. Si quelque chose ne va pas, le système enregistre cette erreur et note ce qu'il a fait qui a causé ce problème. À l'avenir, le logiciel malveillant adaptera ses schémas d'attaque pour de meilleurs résultats.

Comment pouvons-nous nous défendre contre l'IA basée sur les logiciels malveillants ?

Le gros problème avec l'IA d'apprentissage automatique est qu'ils exploitent le fonctionnement actuel des antivirus. Un antivirus aime travailler selon des règles simples; si un programme correspond à un créneau spécifique dont un antivirus sait qu'il est malveillant, il le bloque.

Les logiciels malveillants basés sur l'IA, cependant, ne fonctionneront pas via des règles strictes et définies. Il poussera continuellement les défenses, essayant de trouver un chemin à travers. Une fois qu'il a pénétré, il peut effectuer son travail sans entrave jusqu'à ce que l'antivirus reçoive des mises à jour spécifiques à la menace.

Alors, quel est le meilleur moyen de combattre ce malware "intelligent" ? Parfois, vous devez combattre le feu par le feu, et la meilleure façon d'y parvenir est d'introduire des programmes antivirus basés sur l'IA. Ceux-ci n'utilisent pas de règles statiques pour détecter les logiciels malveillants, comme nos modèles actuels. Au lieu de cela, ils analysent ce que fait un programme et l'arrêtent s'il agit de manière malveillante, selon l'avis de l'antivirus.

Un avenir défini par l'intelligence artificielle

Les règles de base et les instructions simples ne définiront pas les attaques de logiciels malveillants à l'avenir. Au lieu de cela, ils utiliseront l'apprentissage automatique pour s'adapter et se façonner pour contrer toute sécurité rencontrée. Ce n'est peut-être pas aussi excitant que la façon dont Hollywood décrit l'IA malveillante, mais la menace est bien réelle.

Si vous souhaitez voir des exemples moins effrayants d'intelligence artificielle, consultez ces sites Web alimentés par l'IA. Vous devriez également découvrir comment les banques utilisent l'IA pour mieux vous servir.

Crédit image :sdecoret/Depositphotos


[]