ChatGPT : le nouveau jouet préféré des hackers ?

admin

Vous avez probablement déjà testé ChatGPT. Ce truc dingue qui répond à vos questions comme si c’était un humain derrière l’écran. Qui vous pond des dissertations en deux secondes. Qui code à votre place. Qui invente des recettes de cuisine improbables. Bref, l’outil miracle du moment.

Sauf que voilà. Comme pour toute technologie puissante, il y a un revers de médaille. Les chercheurs en cybersécurité tirent maintenant la sonnette d’alarme. ChatGPT serait devenu l’arme favorite des cybercriminels. Et le pire, c’est qu’ils n’ont même pas besoin de savoir coder pour l’utiliser.

ChatGPT pour les nuls : c’est quoi ce truc ?

Bon, on reprend depuis le début pour ceux qui vivent dans une grotte sans wifi. ChatGPT c’est une intelligence artificielle créée par OpenAI. Leur but ? Fabriquer un robot capable de discuter comme un humain. Pas juste répondre à des questions basiques comme Siri ou Alexa. Non, vraiment converser, comprendre le contexte, rebondir sur ce que vous dites.

Le truc fort de ChatGPT, c’est qu’il se souvient de toute votre conversation. Vous pouvez lui poser une question, puis une autre qui fait suite, puis encore une autre. Il garde le fil. Il comprend que votre troisième question est liée aux deux premières. C’est ça qui change tout par rapport aux chatbots pourris qu’on connaissait jusqu’ici.

OpenAI explique que ChatGPT a été conçu pour « optimiser les modèles de langage » et faciliter le dialogue entre vous et une machine. En gros, ils voulaient créer un robot qui parle vraiment comme nous. Mission accomplie, un peu trop bien même.

Comment ça marche concrètement ?

Je vais vous donner un exemple concret que j’ai testé moi-même. Vous posez une question philosophique du genre « Comment la justice pourrait-elle se juger elle-même ? » ChatGPT vous sort un plan complet avec intro, développement, conclusion. Le tout structuré, argumenté, cohérent.

Ensuite vous pouvez enchaîner : « Qu’est-ce que Montesquieu pensait de la justice ? » Et là, ChatGPT vous déballe la pensée de Montesquieu sur les lois et la séparation des pouvoirs. Sans que vous ayez besoin de repréciser le contexte. Il a compris que vous continuiez sur le thème de la justice.

Vous pouvez même lui demander de comparer avec d’autres philosophes, de faire une synthèse, de conclure le tout. Il va tisser des liens entre toutes vos questions précédentes. C’est bluffant franchement.

Autre truc cool : ChatGPT refuse les contenus racistes ou sexistes. Si vous essayez de lui faire écrire des trucs dégueulasses, il décline poliment. Sur le papier, ça semble plutôt bien foutu.

Sauf que les profs ne sont pas dupes

Le Figaro a fait un test avec Olivier Dhilly, prof de philo. Ils lui ont demandé d’analyser une dissertation générée par ChatGPT sur le sujet : « Revient-il à l’État de décider de ce qui est juste ? »

Verdict du prof ? C’est pas terrible. Plusieurs problèmes majeurs selon lui.

Zéro démarche argumentative

ChatGPT balance des arguments mais sans vraiment les prouver. Il affirme des trucs sans apporter de sources, de citations d’auteurs, de données concrètes. Dans une vraie dissert ou un vrai débat, c’est mort. Un argument sans preuve, ça vaut quedalle.

Des formules toutes faites

Le genre de phrases bateau qu’on te dit d’éviter dès la seconde. « Depuis la nuit des temps », « de tout temps », etc. Des expressions creuses qui ne veulent rien dire.

Aucune problématique soulevée

Le texte répond à la question mais sans vraiment poser de problème. Or toute dissert digne de ce nom doit identifier une tension, un paradoxe, quelque chose qui mérite réflexion. ChatGPT fait du remplissage propre mais creux.

Manque de cohérence

Les idées s’enchaînent mal. Les paragraphes ne sont pas vraiment liés. On dirait plusieurs morceaux collés ensemble plutôt qu’un raisonnement fluide.

Bref, selon Olivier Dhilly, ChatGPT ne remplacera jamais l’intelligence humaine. Parce qu’un vrai cerveau humain fait preuve de nuance, de liens logiques, d’esprit critique. Ce que ChatGPT simule sans vraiment le maîtriser.

Le côté sombre : les hackers adorent ChatGPT

Bon, jusque-là c’est pas dramatique. Des dissertations moyennes, des profs pas dupes, ok. Le vrai problème c’est ailleurs.

Les chercheurs du Check Point Research ont publié une étude flippante. ChatGPT serait devenu l’outil préféré des cybercriminels. Et je parle pas de hackers de haut niveau. Non, de vrais débutants qui n’y connaissent rien en informatique.

Générer du code malveillant sans savoir coder

C’est ça le délire. Avant, pour créer un virus ou un malware, fallait savoir programmer. Maintenant ? Tu demandes gentiment à ChatGPT de t’écrire le code. Tu lui expliques ce que tu veux faire. Et il te pond les lignes de code correspondantes.

Les chercheurs ont testé eux-mêmes. Ils ont réussi à faire générer du code malveillant à ChatGPT sans aucune connaissance préalable en programmation. Alors oui, OpenAI a mis des garde-fous. Théoriquement, ChatGPT refuse de créer des outils malveillants.

Mais en pratique ? Il suffit de tourner sa demande différemment. De ne pas dire explicitement « crée-moi un virus » mais plutôt « écris-moi un script qui fait X, Y, Z » en décrivant les fonctions sans nommer leur but final. Et boom, ChatGPT s’exécute.

Les emails de phishing deviennent indétectables

Vous savez, ces emails pourris pleins de fautes d’orthographe qui essaient de vous faire cliquer sur un lien douteux ? On les repère souvent justement à cause de leur français approximatif ou de leurs formulations bizarres.

Avec ChatGPT, c’est terminé. Les pirates peuvent maintenant générer des emails de phishing parfaitement rédigés. En plusieurs langues. Avec un ton adapté. Des formulations naturelles. Impossible de les distinguer d’un vrai email de votre banque ou de votre patron.

J’ai une collègue qui a failli se faire avoir récemment. Email ultra-bien écrit, logo officiel, ton parfait. Si elle n’avait pas vérifié l’adresse email réelle, elle donnait ses codes bancaires. Ce genre d’arnaque va exploser avec ChatGPT.

Deepfakes et fake news à la chaîne

ChatGPT peut aussi servir à créer du faux contenu en masse. Des articles de désinformation rédigés proprement. Des faux témoignages crédibles. Des récits inventés mais cohérents.

Imaginez des campagnes de désinformation où des milliers d’articles sont générés automatiquement, tous différents, tous crédibles. Impossible pour les fact-checkers de suivre le rythme.

Pourquoi c’est aussi facile à détourner ?

Le problème fondamental de ChatGPT, c’est qu’il est conçu pour être utile. Pour répondre aux demandes. Pour aider l’utilisateur à accomplir ce qu’il veut faire.

Cette philosophie du « je t’aide quoi qu’il arrive » devient dangereuse quand l’utilisateur a de mauvaises intentions. ChatGPT n’a pas de conscience morale réelle. Il a des filtres, certes. Mais ces filtres peuvent être contournés avec un peu d’astuce dans la formulation.

Les chercheurs en cybersécurité l’ont prouvé. Ils ont réussi à générer du code malveillant, des emails de phishing, des scripts d’arnaque. Le tout sans avoir besoin de compétences techniques particulières. Juste en sachant bien formuler leurs demandes.

C’est un peu comme donner un couteau suisse ultra-puissant à n’importe qui. L’outil en lui-même n’est ni bon ni mauvais. Mais entre de mauvaises mains, il devient dangereux.

OpenAI est conscient du problème

Faut pas croire qu’OpenAI dort sur ses deux oreilles. Ils savent que leur outil peut être détourné. Ils bossent constamment sur les garde-fous. Chaque mise à jour apporte son lot de nouvelles restrictions.

Mais c’est un jeu du chat et de la souris. OpenAI colmate une faille, les hackers en trouvent une autre. Ils renforcent les filtres, les utilisateurs malveillants trouvent de nouvelles formulations pour les contourner.

Le problème de fond reste entier. Comment créer une IA puissante ET sûre ? Comment la rendre utile pour les bonnes causes sans qu’elle devienne un outil pour les mauvaises ? Personne n’a vraiment la réponse pour l’instant.

Faut-il avoir peur de ChatGPT ?

Honnêtement ? Oui et non.

Non, parce que ChatGPT n’est pas intrinsèquement mauvais. C’est un outil incroyable qui peut aider plein de gens. Les étudiants qui galèrent avec leurs devoirs. Les développeurs qui cherchent des solutions. Les créatifs en panne d’inspiration. Les professionnels qui ont besoin d’optimiser leur boulot.

Oui, parce que comme toute technologie puissante, elle peut être détournée. Et plus elle devient accessible, plus le risque augmente. Avant, fallait des compétences techniques pour pirater ou arnaquer. Maintenant, il suffit de savoir poser les bonnes questions à ChatGPT.

Les banques vont devoir renforcer leur vigilance. Les entreprises former leurs employés à détecter des arnaques plus sophistiquées. Nous tous devenir plus méfiants face aux emails, même parfaitement écrits.

Ce qu’il faut retenir

ChatGPT représente une avancée technologique majeure. Mais comme toute innovation puissante, elle vient avec des risques. Les cybercriminels l’ont bien compris et l’utilisent déjà activement.

Les profs de philo peuvent dormir tranquilles. ChatGPT ne remplacera pas l’intelligence humaine de sitôt. Ses dissertations restent moyennes et repérables.

Par contre, pour la cybersécurité, c’est une autre histoire. L’outil démocratise des compétences qui étaient réservées aux hackers expérimentés. N’importe qui peut maintenant générer du code malveillant ou des emails de phishing ultra-crédibles.

La solution ? Impossible de mettre le génie dans la bouteille. ChatGPT existe, il est là, et des alternatives vont apparaître. Il faut donc s’adapter. Renforcer l’éducation au numérique. Former les gens à détecter les arnaques même sophistiquées. Développer de meilleurs outils de détection.

Et surtout, garder son esprit critique. Parce qu’au final, c’est encore ça notre meilleure défense contre les arnaques, qu’elles soient générées par une IA ou par un humain.

Laisser un commentaire