Source de l’image : https://x.com/im23pds/status/2031163246783410581
En mars 2026, le responsable de la sécurité de la société spécialisée dans la sécurité blockchain SlowMist a publié une alerte publique, signalant que des acteurs malveillants auraient manipulé les résultats de Bing AI par le biais de techniques d’« empoisonnement de recherche ». Ces attaquants incitaient les utilisateurs à télécharger une version contrefaite d’OpenClaw, permettant le vol de crypto-actifs et de données sensibles.
L’« empoisonnement de recherche » consiste pour des cybercriminels à créer des sites ou dépôts spécifiquement optimisés pour remonter dans les résultats des moteurs de recherche. Lorsqu’un utilisateur saisit des mots-clés ciblés, ces ressources malicieuses apparaissent en tête des recommandations, voire sont citées directement par les moteurs dotés d’intelligence artificielle.
Dans ce cas précis, une recherche contenant les mots-clés « OpenClaw Windows » amenait Bing AI à recommander un dépôt GitHub frauduleux comme source de téléchargement. Après installation, certains appareils étaient infectés par un malware voleur d’informations.
Des experts en cybersécurité ont ensuite confirmé la suppression du dépôt et de l’installeur malveillants. Toutefois, cet incident a suscité un vif débat sur la sécurité des recherches IA et la protection des crypto-actifs.
Source de l’image : Site officiel OpenClaw
OpenClaw est un outil open source qui connaît une popularité croissante auprès des communautés développant des agents IA et des solutions d’automatisation. Il sert principalement à concevoir des agents, à automatiser des processus et à constituer des chaînes d’outils à destination des développeurs.
L’adoption rapide de ces frameworks d’agents IA amplifie l’essor de l’écosystème, suscitant l’intérêt des cybercriminels pour plusieurs raisons :
En conséquence, la distribution de faux installeurs OpenClaw permet aux attaquants de cibler directement des appareils hébergeant des clés privées de portefeuilles, des comptes de trading ou des clés API.
Les chercheurs ont mis au jour la création d’une organisation GitHub baptisée « openclaw-installer » par les attaquants, y publiant des dépôts à l’apparence légitime.
Afin de renforcer la crédibilité, ils ont copié une partie du code source du projet officiel, rendant l’architecture du dépôt très convaincante.
La réputation de GitHub, alliée au poids des recommandations issues de l’IA, a conduit nombre d’utilisateurs à penser que le dépôt était authentique.
Le déroulement de l’attaque est le suivant :
Ce mode opératoire mise sur la confiance dans l’open source et la recommandation IA, augmentant fortement son efficacité.
Les investigations révèlent que les attaquants ont conçu des charges différentes selon le système.
Pour Windows :
Pour macOS :
Ces programmes ciblent prioritairement :
Une fois ces données dérobées, les attaquants s’emparent rapidement des actifs numériques de la victime.
Si l’empoisonnement de recherche n’est pas inédit, la montée en puissance de la recherche IA accentue ses effets. Les cybercriminels manipulent contenu web, structure des dépôts ou mots-clés pour placer leurs ressources malveillantes en tête des résultats.
La recherche IA présente des risques aggravés :
Les analystes soulignent que le simple hébergement de code malicieux sur un dépôt légitime suffit parfois à le faire remonter dans les recommandations.
La combinaison recherche IA + open source s’impose ainsi comme un vecteur d’attaque central.
Cet incident met en exergue trois tendances majeures :
La généralisation des agents IA et solutions d’automatisation en fait un support idéal pour la diffusion de malwares.
Des plateformes telles que GitHub ou PyPI, bien que transparentes, peuvent être aisément exploitées par des attaquants.
Les stealer malwares ciblent notamment :
La récupération de ces actifs après compromission demeure exceptionnelle.
Face à la sophistication croissante des attaques, il est recommandé d’adopter les mesures suivantes :
Évitez tout téléchargement depuis les résultats de recherche ; privilégiez toujours le site officiel ou le GitHub du projet.
Soyez attentif à :
De nombreux projets de confiance fournissent des signatures SHA256 ou GPG.
Ne stockez jamais de clés privées de grande valeur dans l’environnement de développement.
Même en cas de compromission du poste, ils offrent une sécurité supérieure.
L’incident d’empoisonnement des résultats Bing AI met en évidence que les moteurs de recherche IA ne filtrent pas encore efficacement les contenus de confiance.
Avec l’essor de la recherche IA, des agents et outils d’automatisation, les attaquants perfectionnent leurs méthodes :
À l’avenir, les plateformes devront muscler leurs défenses, notamment en :
Dans un environnement où outils IA et crypto-actifs sont indissociables, l’éducation à la sécurité restera la meilleure protection pour les actifs numériques.





