Une faille de sécurité très critique a été mis en évidence sur la fonction de « recherche approfondie » de ChatGPT. Alors que OpenAI a déjà corrigé le souci et envoyé rapidement des correctifs, on ignore si des pirates l’on exploité il y a quelques temps.
Résumé de l’article en 4 points :
De nombreuses personnes font aveuglément confiance aux outils d’intelligence artificielle en supposant qu’ils sont assez sécurisés. Nous utilisons désormais pour presque tout : résoudre un problème mathématique, besoins d’informations sur une question donnée, coder un programme, rédiger un émail ou un texte, résumer un livre, retranscrire un audio…
Les modèle d’IA comme ChatGPT font désormais partie de la vie de plusieurs personnes. Cependant, il y a quelques précautions à prendre avant d’ouvrir un agent IA pour lui confier un certain nombre d’informations sensibles. La première étant de disposer d’un anti-virus premium capable de détecter les potentielles menaces à vos données.
Mais cette fois-ci, la faille était difficilement détectable. On ignore encore si des pirates ont eu le temps de détecter la faille et de l’exploiter avant la correction d’OpenAI. Cela montre à quel point l’utilisation de plus en plus massive des agents d’IA peut rendre vulnérable les données des utilisateurs.
La faille critique pouvant rendre vos données Gmail a été détectée par l’équipe de sécurité Radware. L’information vient d’être rendue publique, amis elle remonte à deux mois et les correctifs ont été rapidement apportés par les ingénieurs d’OpenAI en août dernier.
La faille provenait précisément de l’outil « recherche approfondie » de ChatGPT. Cette fonction est très cruciale pour des réponses plus précises et poussées. L’outil va analyser de grosses quantités de données en se connectant à des applications comme Gmail ou Google Drive. Vous comprenez donc que les requêtes demandées par les utilisateurs concernent leur boite email Gmail ou leurs données dans Google Drive.
D’après les informations publiées par Radware, les hackers auraient pu créer une boite email unique en lui communicant des informations spécifiques. Alors, si un utilisateur envoyait une requête approfondie à ChatGPT pour qu’il trouve une information dans sa boite Gmail, ChatGPT pourrait se comporter autrement. Au lieu de donner simplement la réponse, il aurait pu scanner et envoyées les données sensibles de l’utilisateur vers un site Web contrôlé par les pirates.
Cette faille rappelle à quel point les pirates sont capables d’utiliser les outils IA pour voler les données sensibles des utilisateurs. Dans les faits, cela suppose que des modèles de langages conversationnels comme ChatGPT ou Gemini sont loin d’être à l’abri des vulnérabilités qui peuvent être exploitées par des hackers.
Le développement de l’IA est un enjeu majeur pour l’humanité. Cependant, s’assurer que ces IA ne constituent pas une vulnérabilité pour les utilisateurs et leurs données sera un défi majeur pour les entreprises opérant dans ce milieu sensible.
Stellantis est la 3e plus grande marque automobile au monde avec environ 6 millions d’unités…
L’évènement Meta Connect 2025 s’est achevé hier aux États-Unis et pour la dernière journée, meta…
Il est certain que Samsung est en train de travailler sur son prochain smartphone à…
Depuis la sortie de la série iPhone 17, Apple ne cesse d’essuyer les critiques provenant…
Plusieurs grandes marques comme Samsung, HP, Lenovo ou Microsoft possèdent des modèles de PC portables…
Huawei demeure une entreprise à la pointe de la technologie et ce, malgré les sanctions…