mars 8, 2024

Faut-il interdire l’usage des IA en entreprise ?

9 minutes de lecture

Faut-il interdire l’usage des IA en entreprise ?

Certaines organisations publiques ou privées ont pris la décision radicale d’interdire l’usage d’IA comme ChatGPT dans un environnement professionnel.
Avec quelques mois de recul, cette mesure d’urgence pallie plutôt au manque de connaissances des organisations et à l’absence de formation des utilisateurs aux usages de l’IA. Mais est-ce opportun d’interdire l’usage d’outils apportant un gain significatif de la productivité, face à des concurrents qui auraient moins de scrupules ?



En effet, l’avènement de l’intelligence artificielle (IA) générative ouvre de nouvelles perspectives, mais soulève également des préoccupations majeures en matière de sécurité pour les organisations. Une étude récente menée par Salesforce met en évidence le besoin pressant de sensibiliser les collaborateurs aux risques associés à cette technologie émergente.

L’IA en entreprise


Dans le milieu professionnel, l’IA générative peut transformer notre manière de travailler, offrant une assistance précieuse dans la rédaction de documents, la création de contenu marketing et le support client. Ces outils permettent un gain de temps incontestable, stimulent l’innovation et fournissent un soutien essentiel à la prise de décision grâce à leur capacité à traiter et à générer des informations à grande échelle.


Les collaborateurs ont bien compris que ces solutions pouvaient leur apporter un gain de productivité conséquent et sont donc de plus en plus nombreux à les utiliser dans un contexte professionnel.


Le fameux ChatGPT de la société OpenAI a ouvert la voie à de nombreuses autres solutions comme Microsoft (qui l’a intégré dans Copilot) et Gemini (Anciennement Bard) développé par Google. Dans le domaine de l’image, Midjourney est la solution la plus utilisée et améliore sans cesse son algorithme offrant des rendus de plus en plus réalistes. Récemment, ce sont des solutions de type “text to video” qui font leur apparition, permettant de générer une séquence vidéo à partir d’un prompt. La solution la plus prometteuse dans ce domaine étant Sora éditée par les créateurs de ChatGPT.


L’utilisation non contrôlée de l’IA générative expose les organisations à divers risques, allant de la sécurité des données à l’intégrité de la propriété intellectuelle. Des pratiques telles que l’utilisation d’outils non autorisés ou l’attribution erronée du travail généré par l’IA peuvent compromettre la réputation et la sécurité des organisations.

Sécurité des données dans les IA


Les IA génératives sont basées sur des algorithmes d’apprentissage automatique (Machine learning, réseaux de neurones / deep learning…) et se nourrissent également des informations qui leur sont fournies.


Aujourd’hui, il apparaît évident que de nombreux utilisateurs d’outils d’intelligence artificielle ne mesurent pas les conséquences d’un partage de données personnelles, sensibles ou professionnelles (comme des secrets industriels). L’efficacité apportée fait oublier les précautions élémentaires de sécurité.


Bien que ChatGPT s’engage à protéger la confidentialité des données, les conditions et délais de conservation sont encore flous. Et rien ne garantit que les nombreuses alternatives à OpenAI, qui se multiplient ces derniers mois, apportent un niveau suffisant de sécurité et de confidentialité.

La confidentialité des données dans ChatGPT


La FAQ de Chat GPT en est une bonne illustration – https://help.openai.com/en/articles/6783457-what-is-chatgpt :

Qui peut consulter mes conversations ?
Dans le cadre de notre engagement envers une IA sûre et responsable, nous examinons les conversations pour améliorer nos systèmes et veiller à ce que le contenu respecte nos politiques et nos exigences en matière de sécurité.


Utiliserez-vous mes conversations pour la formation?
Oui. Vos conversations peuvent être examinées par nos formateurs en IA pour améliorer nos systèmes.


Une information confirmée dans les conditions d’utilisation du service –
https://openai.com/policies/terms-of-use :


Notre utilisation du contenu : Nous pouvons utiliser le contenu pour fournir, maintenir,développer et améliorer nos services, nous conformer à la législation en vigueur, faire respecter nos conditions et politiques et assurer la sécurité de nos services.


La politique de protection de la vie privée de Chat GPT est elle aussi sans équivoque
https://openai.com/policies/privacy-policy (Chapitre 3. Disclosure of personal information) :
Les données personnelles des utilisateurs peuvent être partagées avec différents tiers comme des partenaires ou les autorités.

Fiabilité des IA


L’utilisation des résultats fournis par les IA pose également question. N’étant pas infaillibles, il n’est pas garanti que l’information générée soit exacte et non biaisée. L’utilisation systématique d’intelligences artificielles peut donc induire en erreur une personne voire un ensemble d’individus si l’information est diffusée à grande échelle.


Cette dépendance grandissante peut devenir problématique voire critique lorsqu’un processus métier fait appel systématique à un outil IA (comme un appel API). L’approximation et même l’indisponibilité du service peuvent paralyser une organisation.

Deepfake : phishing et fake news


Le deepfake est une technologie d’IA sophistiquée. Elle présente des dangers significatifs en raison de sa capacité à générer des contenus vidéo ou audio réalistes et falsifiés. Son évolution rapide, alimentée par des progrès continus dans les algorithmes de deep learning, rend la détection des contrefaçons de plus en plus difficile. Cette technologie est devenue un outil privilégié pour les arnaques et le phishing, dans lesquelles des vidéos ou des enregistrements audio manipulés sont utilisés pour induire en erreur les victimes et les inciter à divulguer des informations sensibles ou à effectuer des transactions financières. Les deepfakes sophistiqués peuvent imiter parfaitement les voix (Voice cloning) et les expressions faciales de personnes réelles (Face swap), ce qui accroît le risque de manipulation et de fraude en ligne.


Les progrès réalisés dans le domaine de la traduction automatique sont aussi préoccupants lorsque l’usage est détourné. Ils permettent désormais à un pirate de cibler une multitude de pays avec un contenu traduit sans erreur et donc crédible. Il est fini le temps où un e-mail de phishing était repéré facilement à cause d’une maîtrise de la langue approximative et d’une mise en forme hasardeuse.


Cette technologie présente également des risques majeurs en matière de désinformation et de manipulation de l’opinion publique. Les deepfakes peuvent être utilisés pour créer de fausses vidéos ou de faux enregistrements audio de personnalités politiques, de dirigeants d’entreprises ou de personnalités publiques visant à diffuser de fausses déclarations ou des scénarios fictifs à des fins de propagande.


Exemple de DeepFake France 24 relatif à Emmanuel Macron :

L’interdiction des IA, bonne idée ?


Le tsunami de l’IA est en train d’inonder la planète. Il ne se passe pas une journée sans que soit annoncées de nouvelles solutions ou de nouvelles évolutions des plateformes existantes.


Il faut se rendre à l’évidence en se rappelant la citation de William Shakespeare “Ce qui ne peut être évité, il faut l’embrasser.” En d’autres termes, face au raz-de-marée des solutions basées sur de l’Intelligence Artificielle il serait illusoire d’interdire complètement leur utilisation. Chaque bond technologique qu’a connu l’humanité a suscité des craintes et induit de nouveaux risques.


Pour rappel, au début du XXe siècle, plus particulièrement à la campagne, les gens avaient peur de l’électricité. Pour la majorité, le passage du courant électrique du fil à l’ampoule relevait de la magie, ce qui rendait l’électricité perçue comme incontrôlable et donc dangereuse. Cette méfiance était renforcée par la réticence à voir les fils électriques intégrés dans les structures des maisons, alimentant la croyance que l’électricité pouvait s’échapper et causer du tort.


En réalité, cette peur de l’électricité découlait d’une incompréhension générale de son fonctionnement.


Comme l’électricité, l’IA semble magique et va envahir notre quotidien, il est donc indispensable de se former et de s’informer. Cela permettra aussi d’éviter un fossé générationnel, que l’on connaît encore de nos jours avec l’informatique. Certaines générations ne sont pas encore à l’aise avec l’usage des technologies faute d’avoir tout de suite pris le virage.


Comme dans toute technologie, il existe bel et bien des risques, il faut les connaître. La maîtrise des IA prendra du temps, comme toute nouvelle technologie et effraie à sa naissance. Pour éviter d’être dépassé par cette avancée, il est nécessaire de tout connaître.

L’urgence de la formation


Il devient donc impératif pour les organisations de sensibiliser leurs collaborateurs aux dangers potentiels et aux bonnes pratiques pour les contrer. Malheureusement, de nombreuses personnes ne bénéficient pas encore d’une formation spécifique sur les techniques de phishing sophistiquées, ce qui expose les entreprises à des menaces sérieuses en matière de sécurité,de réputation et de confiance. De plus, l’utilisation d’IA générative soulève des préoccupations supplémentaires, notamment en termes de partage de données personnelles ou confidentielles et de risques d’inexactitude des données générées.

Les solutions de sensibilisation aux risques des IA


Certaines organisations ont pris l’initiative d’intégrer des programmes de formation spécialisés pour sensibiliser leurs collaborateurs aux défis de sécurité posés par l’IA générative. Ces programmes visent à relever le niveau de vigilance des collaborateurs face aux risques potentiels et à promouvoir une culture de la sécurité au sein des organisations.


Bluesecure propose une gamme complète de formations en cybersécurité, couvrant notamment l’utilisation responsable de l’IA et les dangers liés aux deepfake.


Le programme de sensibilisation de BlueSecure repose sur plusieurs piliers pédagogiques combinant formations en ligne, jeux interactifs et simulations de phishing évoluées basés sur l’IA.


Cette approche alliant théorie, pratique et expérimentation permet de responsabiliser les utilisateurs sans les faire culpabiliser.

Découvrez une application all-in-one

BlueSecure renforce vos équipes contre les cybermenaces. Découvrez tout ce que nous pouvons faire pour vous.