Conseil en sécurité : Utiliser les outils d’IA en toute sécurité : ChatGPT, Gemini et autres outils IA 

INTRODUCTION

Le secteur du tourisme retrouve progressivement ses chiffres d’avant la pandémie grâce à la levée des restrictions de voyage et de confinement à l’échelle mondiale. Malheureusement, les cybercriminels profitent également de cette reprise en lançant des campagnes sophistiquées pour compromettre les systèmes des sites de réservation, des hôtels et des agences de voyage. Une fois ces systèmes compromis, les cybercriminels s’en servent pour envoyer des courriels d’hameçonnage aux clients existants.

NE JAMAIS PARTAGER D’INFORMATIONS SENSIBLES AVEC UN AGENT CONVERSATIONNEL IA

La politique de confidentialité d’OpenAI stipule que les données des utilisateurs peuvent être exploitées pour améliorer la performance de ses modèles. En clair : lorsque vous utilisez des services comme ChatGPT, Sora ou Operator, vos interactions peuvent servir à entraîner l’IA. 

Une étude menée par Harmonic Security a révélé que 8,5 % des requêtes envoyées aux IA contenaient des informations sensibles. 

Évitez absolument de saisir des données personnelles telles que mots de passe, numéros de passeport, coordonnées bancaires, adresses, numéros de téléphone, noms ou informations confidentielles d’entreprise. En cas de besoin, remplacez ces données par des astérisques ou des mentions comme « [CONFIDENTIEL] ». 

Les professionnels, notamment les développeurs utilisant l’IA pour la revue de code, doivent veiller à supprimer toute information pouvant révéler l’architecture ou les secrets techniques de leur entreprise. 

Tout ce que vous partagez avec un agent conversationnel IA est potentiellement stocké et analysé 

LES SERVICES IA GRATUITS : DES RISQUES ACCRUS

De nombreux outils IA en version gratuite précise ouvertement qu’ils s’entraînent sur les données des utilisateurs. Les organisations qui font appel à ces outils devraient envisager de passer à des offres payantes comme ChatGPT Enterprise, qui garantit que les données échangées ne sont pas utilisées à des fins d’entraînement. 

Les experts recommandent les formules payantes comme solution plus sûre pour les entreprises souhaitant limiter les risques. 

BONNES PRATIQUES POUR UNE UTILISATION SÉCURISÉE DE L’IA EN ENTREPRISE 

Pour intégrer les outils d’IA générative tout en limitant les risques, Harmonic Security recommande de renoncer aux interdictions totales et de miser sur des stratégies de gouvernance efficaces. Cela implique : 

  • La mise en place de politiques claires d’usage de l’IA accompagnée de processus encadrés.
  • Une surveillance en temps réel de l’usage des outils IA pour contrôler les entrées et assurer la conformité.
  • L’interdiction d’usage des outils gratuits qui exploitent les données d’entrée.
  • La classification des données sensibles pour éviter leur exposition.
  • La formation des collaborateurs à une utilisation responsable de l’IA et aux risques associés.

COMMENT RICHTER GUARDIAN PEUT VOUS ACCOMPAGNE

Richter Guardian propose des solutions concrètes pour renforcer votre stratégie de cybersécurité, réduire les risques de fuites de données et sécuriser l’usage des outils IA. 

En suivant ces recommandations, les particuliers comme les entreprises peuvent tirer parti de l’IA de manière sécurisée, tout en préservant la confidentialité de leurs données.