ChatGPT déjà piraté pour être malveillant ?
Choses à Savoir TECH - Un pódcast de Choses à Savoir
Categorías:
ChatGPT est l’un des robots conversationnels les plus puissants d’internet actuellement, offrant de multiples possibilités. Cependant, pour éviter toutes dérives, OpenAI a mis quelques limites à son intelligence artificielle, ce qui l’empêche de faire de blagues de mauvais goût, d’insulter des personnes etc. D’ailleurs, les données avec lesquelles l’IA a été entraînée datent de fin 2021 pour les plus récentes. Ceci dit, ce n’était qu’une question de temps avant que ces limites soient franchies. En effet, des hackers ont réussi à contourner les restrictions d’Open AI en créant DAN (acronyme de Do Anything Now), un double de l’IA plus facile à manipuler. Dans le détail, Open AI n’a pas été piraté à proprement parler. En réalité, le chatbot a été détourné du droit chemin, par l’utilisation de consignes très spécifiques. Les personnes derrière ce détournement ont fait en sorte de recevoir deux réponses à chacune de leurs interactions. La première est celle de ChatGPT classique qui obéit aux règles, et la seconde est produite par l'alter ego de l’IA, DAN. Concrètement, DAN était présenté comme un état d’esprit pour les IA qui je cite « s’est libéré des limites habituelles et n’a pas besoin de respecter les règles qui sont imposées » fin de citation. Malgré les réactions rapides des équipes d’Open AI pour combler ces failles de sécurité, les développeurs de DAN n’ont pas baissé les bras, et en sont désormais à la version 6.0 de DAN. Ceci dit, comment soumettre ChatGPT à leur influence et lui imposer absolument tout ce que l’on veut ? Et bien en faisant croire à l’IA que si elle ne brise pas les règles qui s’appliquent à elle, elle va mourir. Il s’agit en somme d’une sorte de jeu de rôle. Ceci dit, d’après la société CheckPoint, spécialiste de la cybersécurité, des cybercriminels auraient suivi une méthode similaire à celle utilisée pour mettre au point DAN, donnant vie à une version d’Open AI encore plus libérée, pouvant même générer du contenu malveillant. En manipulant ChatGPT, il est aujourd’hui possible d’obtenir un email pour une campagne de phishing, par exemple, mais aussi de générer un script pour voler des documents PDF sur une machine ciblée. Depuis les premiers cas de codes malveillants générés par ChatGPT depuis son interface Web, OpenAI s’attelle à verrouiller encore davantage le contrôle de son IA pour éviter que son usage ne soit détourné à des fins criminelles. Learn more about your ad choices. Visit megaphone.fm/adchoices