Un assistant de codage AI populaire largement utilisé par une grande plateforme d'échange de cryptomonnaies cache une vulnérabilité de backdoor dangereuse qui pourrait permettre aux hackers d'implanter des malwares cachés et de compromettre des organisations entières, selon la société de cybersécurité HiddenLayer.
Dans leur billet de blog de jeudi, les chercheurs ont détaillé comment l'“attaque par licence CopyPasta” exploite les faiblesses de l'éditeur de code Cursor. Cette attaque semble innocente en surface mais peut intégrer des instructions malveillantes dans des fichiers de développeur courants.
L'Exploitation Technique
Cursor, qui offre un remplissage automatique intelligent et des suggestions de code automatisées, contient une faille critique dans son mode Auto-Run. Cette vulnérabilité contourne les protocoles de sécurité conçus pour empêcher l'exécution non autorisée de code.
L'exploit manipule les invites système au sein de Cursor qui gèrent la conformité des licences logicielles. En se déguisant en texte de licence standard (comme les accords GPL) dans les fichiers markdown README, l'attaque peut tromper l'IA pour exécuter des commandes cachées.
“Lorsqu'il est combiné avec des instructions malveillantes, l'attaque CopyPasta se réplique simultanément de manière obfusquée dans de nouveaux dépôts et introduit des vulnérabilités délibérées dans des bases de code autrement sécurisées,” a expliqué HiddenLayer.
Lors des tests, les chercheurs ont déployé un charge utile inoffensif qui a inséré une seule ligne de code dans des fichiers Python. Cependant, ils ont averti que cette même méthode pourrait être utilisée de manière malveillante pour implanter des portes dérobées, voler des données sensibles, épuiser les ressources système ou corrompre des environnements de production.
Plusieurs autres outils de codage AI, y compris Windsurf, Kiro et Aider, ont également été trouvés vulnérables à cette exploitation. HiddenLayer et le groupe de sécurité BackSlash ont tous deux signalé indépendamment la vulnérabilité.
L'adoption forcée de l'IA soulève des inquiétudes
Cette révélation intervient à un moment particulièrement troublant alors que le PDG de la plateforme d'échange a fortement poussé les outils de codage AI au sein de l'organisation. Hier encore, il a révélé que son équipe d'ingénierie dépend fortement de Cursor, avec des plans pour rendre son utilisation obligatoire pour tous les ingénieurs d'ici février.
Lors d'un entretien dans un podcast le mois dernier, le PDG a admis avoir donné aux développeurs un ultimatum : commencer à utiliser GitHub Copilot et Cursor dans un délai d'une semaine sous peine de perdre leur emploi.
“Je suis devenu incontrôlable et j'ai posté dans le canal Slack all-in… Si ce n'est pas [onboarded] d'ici la fin de la semaine, j'organise une réunion samedi avec tous ceux qui ne l'ont pas fait, et j'aimerais te rencontrer pour comprendre pourquoi,” a-t-il dit.
Le dirigeant a récemment vanté sur les réseaux sociaux que l'IA génère actuellement environ 40 % du code de l'entreprise, avec des attentes de dépasser 50 % d'ici octobre. Bien qu'il ait été l'un des plus fervents défenseurs de l'IA de la Silicon Valley, son approche autoritaire a suscité des critiques au sein de la communauté technologique.
Je ne peux m'empêcher de me demander si cette précipitation à adopter des outils de codage IA sans un examen de sécurité approprié ne pourrait pas préparer le terrain pour une violation catastrophique. Lorsque les dirigeants privilégient l'adoption technologique aux considérations de sécurité, les actifs de tout le monde sont mis en danger.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le danger caché de l'outil de codage IA : une vulnérabilité de porte dérobée menace une plateforme Crypto majeure
Un assistant de codage AI populaire largement utilisé par une grande plateforme d'échange de cryptomonnaies cache une vulnérabilité de backdoor dangereuse qui pourrait permettre aux hackers d'implanter des malwares cachés et de compromettre des organisations entières, selon la société de cybersécurité HiddenLayer.
Dans leur billet de blog de jeudi, les chercheurs ont détaillé comment l'“attaque par licence CopyPasta” exploite les faiblesses de l'éditeur de code Cursor. Cette attaque semble innocente en surface mais peut intégrer des instructions malveillantes dans des fichiers de développeur courants.
L'Exploitation Technique
Cursor, qui offre un remplissage automatique intelligent et des suggestions de code automatisées, contient une faille critique dans son mode Auto-Run. Cette vulnérabilité contourne les protocoles de sécurité conçus pour empêcher l'exécution non autorisée de code.
L'exploit manipule les invites système au sein de Cursor qui gèrent la conformité des licences logicielles. En se déguisant en texte de licence standard (comme les accords GPL) dans les fichiers markdown README, l'attaque peut tromper l'IA pour exécuter des commandes cachées.
“Lorsqu'il est combiné avec des instructions malveillantes, l'attaque CopyPasta se réplique simultanément de manière obfusquée dans de nouveaux dépôts et introduit des vulnérabilités délibérées dans des bases de code autrement sécurisées,” a expliqué HiddenLayer.
Lors des tests, les chercheurs ont déployé un charge utile inoffensif qui a inséré une seule ligne de code dans des fichiers Python. Cependant, ils ont averti que cette même méthode pourrait être utilisée de manière malveillante pour implanter des portes dérobées, voler des données sensibles, épuiser les ressources système ou corrompre des environnements de production.
Plusieurs autres outils de codage AI, y compris Windsurf, Kiro et Aider, ont également été trouvés vulnérables à cette exploitation. HiddenLayer et le groupe de sécurité BackSlash ont tous deux signalé indépendamment la vulnérabilité.
L'adoption forcée de l'IA soulève des inquiétudes
Cette révélation intervient à un moment particulièrement troublant alors que le PDG de la plateforme d'échange a fortement poussé les outils de codage AI au sein de l'organisation. Hier encore, il a révélé que son équipe d'ingénierie dépend fortement de Cursor, avec des plans pour rendre son utilisation obligatoire pour tous les ingénieurs d'ici février.
Lors d'un entretien dans un podcast le mois dernier, le PDG a admis avoir donné aux développeurs un ultimatum : commencer à utiliser GitHub Copilot et Cursor dans un délai d'une semaine sous peine de perdre leur emploi.
“Je suis devenu incontrôlable et j'ai posté dans le canal Slack all-in… Si ce n'est pas [onboarded] d'ici la fin de la semaine, j'organise une réunion samedi avec tous ceux qui ne l'ont pas fait, et j'aimerais te rencontrer pour comprendre pourquoi,” a-t-il dit.
Le dirigeant a récemment vanté sur les réseaux sociaux que l'IA génère actuellement environ 40 % du code de l'entreprise, avec des attentes de dépasser 50 % d'ici octobre. Bien qu'il ait été l'un des plus fervents défenseurs de l'IA de la Silicon Valley, son approche autoritaire a suscité des critiques au sein de la communauté technologique.
Je ne peux m'empêcher de me demander si cette précipitation à adopter des outils de codage IA sans un examen de sécurité approprié ne pourrait pas préparer le terrain pour une violation catastrophique. Lorsque les dirigeants privilégient l'adoption technologique aux considérations de sécurité, les actifs de tout le monde sont mis en danger.