Les LLMs hallucinent des dépendances, des hackers malveillants les créent

Les modèles de langage (LLMs) génèrent fréquemment des noms de packages inexistants, ouvrant la voie au ‘slopsquatting’, une pratique malveillante où des attaquant·e·s exploitent ces références imaginaires pour créer de faux packages. Cette situation soulève des préoccupations importantes concernant la sécurité des développements assistés par l’IA. Commentaires L'article Les LLMs hallucinent des dépendances, des hackers malveillants les créent a été posté dans la catégorie Sécurité de Human Coders News

Apr 14, 2025 - 16:24
 0
Les LLMs hallucinent des dépendances, des hackers malveillants les créent

Les modèles de langage (LLMs) génèrent fréquemment des noms de packages inexistants, ouvrant la voie au ‘slopsquatting’, une pratique malveillante où des attaquant·e·s exploitent ces références imaginaires pour créer de faux packages. Cette situation soulève des préoccupations importantes concernant la sécurité des développements assistés par l’IA.


Commentaires
L'article Les LLMs hallucinent des dépendances, des hackers malveillants les créent a été posté dans la catégorie Sécurité de Human Coders News