Google affirme que l'IA est exploitée à l'échelle industrielle pour des cyberattaques et qu'elle vient d'en contrecarrer une

Une simple erreur de codage consiste à exposer les clés API sur des milliers de sites Web

Pendant des années, les experts en sécurité ont prévenu que l’IA finirait par donner un nouvel avantage dangereux aux pirates. Ce moment est arrivé.

Le Threat Intelligence Group de Google a publié un rapport confirmant qu'un groupe de piratage criminel a utilisé un modèle d'IA pour découvrir une vulnérabilité Zero Day et a failli lancer une cyberattaque massive. Google affirme avoir détecté et stoppé l'attaque avant que les pirates informatiques puissent la déployer à grande échelle.

Que s’est-il passé exactement et quelle était la gravité de cette situation ?

L’exploit ciblait un outil d’administration système Web open source populaire, le type d’entreprise qu’utilisent les entreprises pour gérer à distance les serveurs, les comptes des employés et les paramètres de sécurité.

S’il n’avait pas été détecté, il aurait permis aux pirates de contourner l’authentification à deux facteurs, qui constitue souvent la dernière ligne de défense pour protéger les comptes.

Les attaquants prévoyaient de le déployer dans le cadre d’un événement d’exploitation massive ciblant plusieurs organisations à la fois. Google a alerté le développeur de l'outil à temps pour qu'un correctif soit publié avant qu'aucun dommage ne soit causé.

La société a refusé de nommer le groupe de piratage, le logiciel spécifique ciblé ou le modèle d'IA utilisé, mais a confirmé qu'il ne s'agissait pas du Gemini de Google.

Selon Google, des groupes liés à la Chine et à la Corée du Nord ont également manifesté un intérêt considérable pour l'utilisation d'outils d'IA comme OpenClaw pour la découverte de vulnérabilités.

L'IA est-elle en train de devenir le principal point faible de la cybersécurité ?

L'attaque de Google est alarmante, mais elle est loin d'être isolée. Les chercheurs de Georgia Tech ont récemment découvert VillainNet, une porte dérobée cachée qui s'intègre dans l'IA des voitures autonomes et fonctionne 99 % du temps lorsqu'elle est déclenchée.

Parallèlement, une équipe de recherche coréenne a montré que les modèles d'IA pouvaient être rétro-conçus à distance à l'aide d'une petite antenne traversant les murs, sans qu'aucun accès au système ne soit nécessaire. Récemment, un groupe d'utilisateurs de Discord a contourné les contrôles d'accès pour accéder au modèle Mythos restreint d'Anthropic via un environnement de fournisseur tiers.

Du côté de la défense, une discipline croissante appelée AI pentesting émerge pour tester le comportement des modèles de langage lorsqu’ils sont exposés à des entrées contradictoires, mais le domaine en est encore à ses débuts.

Rate this post
Total
0
Shares
Previous Post
Claude rend sa fonction de mémoire IA gratuite pour tous les utilisateurs dans la lutte contre ChatGPT

Anthropic dit avoir corrigé le comportement pervers de Claude AI, mais l'épingle sur Internet

Next Post
Le Samsung Galaxy S26 offre plus de puissance dans un boîtier charmant et familier

J'ai essayé les outils d'édition d'IA sur mon Galaxy S26, et cela m'a époustouflé

Related Posts