Après le lancement de ChatGPT, plusieurs autres chatbots ont vu le jour, et ce n’est pas forcément dans notre intérêt…
Depuis sa création, la société OpenAI (qui a créé ChatGPT) met en ligne l’ensemble de ses travaux sur l’intelligence artificielle. Elle a depuis revu sa copie en limitant l’accès à ses résultats de recherche. Pourquoi ? Notamment à cause de l’apparition de chatbots s’inspirant du modèle de ChatGPT.
En effet, sur les différentes boutiques d’applications, il est possible de tomber sur de nombreuses applications ressemblant à ChatGPT. Ces dernières ne sont souvent développées qu’à des fins malveillantes, par exemple dans le but d’installer sur votre smartphone un virus qui permettra aux cybercriminels de collecter des informations.
Mais pire encore, en juillet 2023, l’existence de deux chatbots intentionnellement frauduleux a été publiquement révélée par deux entreprises (Neten Rich et Slash Next).
Le premier, WormGPT, a été identifié le 13 juillet 2023. Et le second FraudGPT, le 22 juillet 2023. Disponibles sur Telegram et sur le dark web, tous deux ressemblent visuellement à ChatGPT, mais ça s’arrête là. Après le paiement d’un abonnement, l’utilisateur pourra facilement poser une question à l’un de ces deux outils et créer du code malveillant, rédiger des messages de phishing, concevoir des malwares, trouver des vulnérabilités et apprendre à pirater.
Ces deux chatbots permettent ainsi aux plus novices de devenir de véritables cybercriminels. Une question, et l’outil génère un texte de phishing en mesure de tromper son destinataire, par exemple en lui demandant de régler une facture impayée ou de confirmer des informations bancaires.
Ces tentatives d’attaques sont aujourd’hui connues de tous, ou presque. Rappelons donc l’importance de ne jamais communiquer d’informations personnelles sans bonne raison.
Et puis ChatGPT n’est pas lui non plus sans défaut. En mars 2023, les détails de paiement des abonnés à la version payante ont été accessibles pendant neuf heures.
De même, les utilisateurs de ChatGPT eux-mêmes peuvent volontairement fournir à l’outil des informations confidentielles en les collant dans ChatGPT. Certaines entreprises, dont Apple et Samsung, ont déjà limité la façon dont leurs collaborateurs peuvent utiliser l’outil dans le cadre de leurs fonctions.
Terminons enfin par un chatbot qui se veut conçu à des fins vertueuses : DarkBERT. Né des travaux d’une équipe de chercheurs sud-coréens, l’outil est destiné à accélérer la recherche sur le dark web. Alimenté par un corpus de données exclusivement issues du dark web (données textuelles brutes sans données personnelles sensibles et à l’exclusion des images et des vidéos), DarkBERT vise à aider les autorités et les chercheurs à mieux appréhender le fonctionnement du dark web, qui est massivement utilisé par des criminels en tous genres. L’outil est en mesure de détecter des ransomwares, des fuites de données, la mise en ligne d’une nouvelle base de données volées ou encore l’apparition d’un nouveau ransomware.
Nous venons de le voir, les chatbots ont encore une belle vie devant eux, à nous de rester prudents !