Des personnes malveillantes utilisent ChatGPT à des fins d’escroquerie

Clara Valoudou
Clara Valoudou Tags:
11 Min de lecture
Écoutez cet article
Notez cet article !
Avec l’essor de l’intelligence artificielle, nous sommes aujourd’hui confrontés à la réalité inattendue de l’arnaque ChatGPT. Cet outil d’IA révolutionnaire, le ChatGPT d’OpenAI, s’est répandu dans le monde entier, révolutionnant la façon dont nous interagissons en ligne. Pourtant, les mêmes caractéristiques qui le rendent attrayant pour des milliards de personnes sont exploitées par les cybercriminels d’une manière nouvelle et inquiétante.

Ne tombez pas dans le piège de ces escroqueries à ChatGPT

Comme on dit, chaque rose a son épine, et dans ce cas, les capacités florissantes des chatbots d’IA ont apporté avec elles un effet secondaire épineux. Pénétrons donc dans les recoins sombres de ces escroqueries du ChatGPT, afin que vos interactions restent sûres, productives et sans danger.

Escroquerie par courriel générée par ChatGPT

Les courriels, un moyen d’escroquerie bien connu, ont été utilisés pour diffuser des logiciels malveillants, extorquer des victimes ou dérober des informations cruciales. Aujourd’hui, le nom ChatGPT est incorporé sans scrupules dans des courriels frauduleux pour tromper les destinataires. En avril 2023, plusieurs médias ont commencé à signaler une vague de courriels d’hameçonnage explicitement conçus par ChatGPT. Grâce à la capacité du chatbot à générer du contenu à la demande de l’utilisateur, les malfaiteurs se sont tournés vers cet outil pour créer des courriels de phishing dans le cadre de leurs campagnes malveillantes. Prenons l’exemple d’un cybercriminel qui ne parle pas couramment l’anglais, mais qui souhaite cibler des victimes anglophones. Avec l’aide de ChatGPT, il peut générer un e-mail de phishing parfait, dépourvu de toute faute d’orthographe ou de grammaire. Ces courriels rédigés de manière convaincante peuvent tromper plus efficacement les victimes, en renforçant le vernis d’authenticité que l’expéditeur frauduleux cherche à donner. Essentiellement, l’utilisation de ChatGPT dans l’élaboration de courriels d’hameçonnage pourrait potentiellement rationaliser le processus d’escroquerie pour les cybercriminels, ce qui pourrait entraîner une augmentation de la fréquence des attaques d’hameçonnage.

Extensions de navigateur ChatGPT malveillantes

Les extensions de navigateur, bien que populaires et pratiques pour des millions de personnes, servent également de chevaux de Troie pour les versions illicites de ce logiciel, qui sont utilisées pour implanter des logiciels malveillants et exfiltrer des données. Il s’agit d’une escroquerie de ChatGPT qui s’applique également à ChatGPT. Bien qu’il existe des extensions légitimes axées sur ChatGPT (comme Merlin et Enhanced ChatGPT), toutes les extensions apparaissant dans la boutique d’applications de votre navigateur ne sont pas dignes de confiance. Par exemple, une pseudo-extension ChatGPT appelée “Chat GPT for Google” s’est rapidement répandue sur les appareils en mars 2023. Au fur et à mesure de sa propagation, cette extension ChatGPT trompeuse volait les informations Facebook de milliers d’utilisateurs. 7 escroqueries ChatGPT à surveiller L’extension a été nommée stratégiquement pour semer la confusion, en reprenant le nom de l’authentique outil ChatGPT pour Google. De nombreux utilisateurs, pensant qu’il n’y avait pas de danger, ont installé l’extension sans se poser de questions sur sa légitimité. En réalité, l’extension était un moyen clandestin d’implanter des portes dérobées sur les comptes Facebook et d’obtenir un accès administrateur non autorisé.

Fausses applications tierces ChatGPT

Les cybercriminels ont souvent recours à des noms respectés, tels que ChatGPT, pour diffuser des applications nuisibles. Ces applications malveillantes, bien que le concept ne soit pas nouveau, sont depuis longtemps utilisées pour diffuser des logiciels malveillants, siphonner des données et surveiller les activités des appareils. La reconnaissance de ChatGPT est maintenant exploitée pour propager ces applications malveillantes. En février 2023, on a découvert que des cybercriminels avaient conçu une application ChatGPT contrefaite destinée à diffuser des logiciels malveillants pour Windows et Android. Comme le rapporte Bleeping Computer, les individus malhonnêtes ont profité du ChatGPT Plus d’OpenAI pour tromper les utilisateurs en leur faisant croire qu’ils pouvaient accéder à une version gratuite de l’outil habituellement payant. L’objectif ultime de ces cybercriminels est de voler des informations d’identification ou de diffuser des logiciels malveillants. 7 escroqueries au ChatGPT à surveiller Pour se protéger de ces applications malveillantes, il est essentiel de procéder à des vérifications approfondies des antécédents de tout logiciel afin de s’assurer de sa réputation. Quelle que soit l’attractivité d’une application, le jeu n’en vaut pas la chandelle si sa sécurité ne peut être vérifiée. Tenez-vous-en aux boutiques d’applications de confiance et lisez les commentaires des utilisateurs avant de télécharger une application.

Logiciel malveillant créé par ChatGPT

L’IA et la cybercriminalité sont des sujets qui ont fait couler beaucoup d’encre ces dernières années, car on craint que cette technologie ne simplifie le processus permettant à des individus malveillants de commettre des escroqueries et des agressions contre les victimes. Cette inquiétude est loin d’être infondée, étant donné que le ChatGPT peut être utilisé pour créer des logiciels malveillants. Il n’a pas fallu longtemps après le lancement pour que des individus peu scrupuleux commencent à créer des codes malveillants à l’aide de cet outil populaire. Au début de l’année 2023, une souche de logiciel malveillant basée sur Python, prétendument créée à l’aide de ChatGPT, a été mentionnée dans un message sur un forum de piratage.
Sur le même sujet :  Quand GPT 5 sera-t-il publié et que peut-on en attendre ?
7 escroqueries ChatGPT à surveiller Bien que le logiciel malveillant ne soit pas très complexe et qu’aucun logiciel malveillant extrêmement dangereux, tel qu’un ransomware, n’ait encore été identifié comme étant un produit de ChatGPT, la capacité de ChatGPT à créer des programmes malveillants, même simplistes, ouvre une porte à ceux qui aspirent à se lancer dans la cybercriminalité mais qui manquent de prouesses techniques substantielles. Cette capacité émergente basée sur l’IA pourrait bien poser un problème important dans un avenir proche.

Sites d’hameçonnage

Les attaques par hameçonnage prennent souvent la forme de sites Web malveillants, conçus pour enregistrer vos frappes au clavier et s’emparer de données précieuses pour les utiliser à mauvais escient. Si vous êtes un utilisateur de ChatGPT, vous pouvez potentiellement être la proie de ce type d’escroquerie par hameçonnage. Imaginez que vous arrivez sur un site web que vous croyez être la page officielle de ChatGPT. Vous créez un compte en saisissant votre nom, vos coordonnées et d’autres détails. Si le site web est en fait un site dangereux, il y a de fortes chances que les informations que vous avez saisies soient volées à des fins d’exploitation. Vous pouvez également recevoir un email d’une personne se faisant passer pour un membre de l’équipe ChatGPT, indiquant que votre compte ChatGPT a besoin d’être vérifié. Cet email peut contenir un lien vers une page web où il vous est demandé de vous connecter à votre compte et d’effectuer la prétendue vérification. Mais voici le piège de cette escroquerie ChatGPT : le lien sur lequel vous êtes tenté de cliquer vous conduit à une page web dangereuse capable de voler toutes les données que vous saisissez, y compris vos identifiants de connexion. Soudain, une personne non autorisée peut accéder à votre compte ChatGPT et consulter l’historique de vos demandes, vos informations de compte et d’autres données sensibles. Il est essentiel de savoir identifier les escroqueries par hameçonnage pour éviter cette forme de cybercriminalité. 7 escroqueries ChatGPT à surveiller

L’arnaque à l’abonnement au ChatGPT

Les services par abonnement attirent souvent les escrocs, et malheureusement, ChatGPT ne fait pas exception à la règle. Une escroquerie de plus en plus fréquente concernant ChatGPT consiste en de fausses offres d’abonnement au service. Vous pouvez rencontrer une offre attrayante en ligne promettant un abonnement réduit ou même gratuit à ChatGPT Plus, qui est normalement payant. Après avoir cliqué sur l’annonce ou le lien, vous êtes redirigé vers un site web ressemblant à la page officielle d’OpenAI. On vous demande de fournir vos informations personnelles et les détails de votre carte de crédit pour accéder à l'”offre spéciale”. Mais dès que vous le faites, vos données sensibles tombent entre de mauvaises mains, prêtes à être exploitées.

Faux messages sur les médias sociaux

Les plateformes de médias sociaux regorgent également d’escroqueries potentielles de la part de ChatGPT. Des messages directs frauduleux ou des posts prétendant provenir du compte officiel de ChatGPT peuvent vous atteindre. Ils peuvent vous demander de cliquer sur un lien pour gagner un prix, vérifier votre compte ou mettre à jour vos coordonnées. Cependant, ces messages ne sont rien d’autre qu’un stratagème pour collecter des informations personnelles ou installer des logiciels malveillants sur votre appareil. Vérifiez toujours le compte qui envoie ces messages ; les comptes officiels sont généralement vérifiés par une coche bleue. 7 escroqueries au ChatGPT dont il faut se méfier

Restez toujours vigilant

Ces escroqueries ne sont que quelques exemples des risques potentiels liés à ChatGPT qui se cachent dans le monde numérique. Elles illustrent l’importance de maintenir un niveau élevé de vigilance lorsque l’on interagit avec des outils d’intelligence artificielle comme ChatGPT ou tout autre service numérique. Rappelez-vous toujours que si une offre semble trop belle pour être vraie, c’est probablement le cas. Méfiez-vous des courriels, liens, extensions, applications et sites web suspects qui pourraient potentiellement faire partie d’une arnaque ChatGPT. Comme le dit le proverbe, “Mieux vaut prévenir que guérir”. Restez donc informés et en sécurité, et continuez à profiter du monde merveilleux de l’IA de manière responsable.

RSLNmag, site d'amateurs passionnés, a besoin de VOUS ! Ajoutez nous à vos favoris sur Google News (icône ☆) pour nous faire connaître, merci d'avance !


--> Google News

Partagez cet article