Une faille de sécurité très critique a été mis en évidence sur la fonction de « recherche approfondie » de ChatGPT. Alors que OpenAI a déjà corrigé le souci et envoyé rapidement des correctifs, on ignore si des pirates l’on exploité il y a quelques temps.
Résumé de l’article en 4 points :
De nombreuses personnes font aveuglément confiance aux outils d’intelligence artificielle en supposant qu’ils sont assez sécurisés. Nous utilisons désormais pour presque tout : résoudre un problème mathématique, besoins d’informations sur une question donnée, coder un programme, rédiger un émail ou un texte, résumer un livre, retranscrire un audio…
Les modèle d’IA comme ChatGPT font désormais partie de la vie de plusieurs personnes. Cependant, il y a quelques précautions à prendre avant d’ouvrir un agent IA pour lui confier un certain nombre d’informations sensibles. La première étant de disposer d’un anti-virus premium capable de détecter les potentielles menaces à vos données.
Mais cette fois-ci, la faille était difficilement détectable. On ignore encore si des pirates ont eu le temps de détecter la faille et de l’exploiter avant la correction d’OpenAI. Cela montre à quel point l’utilisation de plus en plus massive des agents d’IA peut rendre vulnérable les données des utilisateurs.
La faille critique pouvant rendre vos données Gmail a été détectée par l’équipe de sécurité Radware. L’information vient d’être rendue publique, amis elle remonte à deux mois et les correctifs ont été rapidement apportés par les ingénieurs d’OpenAI en août dernier.
La faille provenait précisément de l’outil « recherche approfondie » de ChatGPT. Cette fonction est très cruciale pour des réponses plus précises et poussées. L’outil va analyser de grosses quantités de données en se connectant à des applications comme Gmail ou Google Drive. Vous comprenez donc que les requêtes demandées par les utilisateurs concernent leur boite email Gmail ou leurs données dans Google Drive.
D’après les informations publiées par Radware, les hackers auraient pu créer une boite email unique en lui communicant des informations spécifiques. Alors, si un utilisateur envoyait une requête approfondie à ChatGPT pour qu’il trouve une information dans sa boite Gmail, ChatGPT pourrait se comporter autrement. Au lieu de donner simplement la réponse, il aurait pu scanner et envoyées les données sensibles de l’utilisateur vers un site Web contrôlé par les pirates.
Cette faille rappelle à quel point les pirates sont capables d’utiliser les outils IA pour voler les données sensibles des utilisateurs. Dans les faits, cela suppose que des modèles de langages conversationnels comme ChatGPT ou Gemini sont loin d’être à l’abri des vulnérabilités qui peuvent être exploitées par des hackers.
Le développement de l’IA est un enjeu majeur pour l’humanité. Cependant, s’assurer que ces IA ne constituent pas une vulnérabilité pour les utilisateurs et leurs données sera un défi majeur pour les entreprises opérant dans ce milieu sensible.
L’iPhone 17 Air s’était présenté en septembre lors de la Keynote d’Apple comme le téléphone…
Le smartphone haut de gamme Huawei Pura 80 Ultra est considéré comme le meilleur mobile…
Coca-Cola ne se laisse pas démonter et persiste pour créer une nouvelle publicité par l’intelligence…
Google ne devrait plus être considéré comme une marque outsider sur le marché compte tenu…
Samsung, Apple et Google intègrent pour chacun une batterie de 5 000 mAh au plus…
La prochaine course spatiale n’est pas plus les satellites destinés à une connexion internet. Désormais,…