Par Steve Tait - Directeur de la technologie
13 août 2025 3 Lecture minute
Devrions-nous commencer à parler d'IA de génération en même temps que d'IA générative ?
Le 14 mars 2023, Chat GPT4 a été lancé, propulsant les discussions académiques et de niche sur l'IA générative dans le courant dominant. En quelques jours, il est devenu évident qu'il ne s'agissait pas d'un nouveau pas en avant, mais plutôt d'un pas de géant.
L'interaction homme-machine. Toutefois, en raison de mon statut de "vétéran" (merci Skyhigh Security), j'ai été immédiatement préoccupé par la manière dont nous gérions les risques. Plus j'y réfléchissais, plus cela me semblait risqué. Ne pas utiliser cette technologie n'est pas une option. Nous devons l'utiliser, mais nous devons le faire de manière sûre et intentionnelle.
C'est alors que j'ai compris. Si j'avais commencé l'université en 2023, j'entrerais sur le marché du travail l'année prochaine (2026). Ma vie à l'université aura été entièrement vécue avec cet assistant d'IA à mes côtés. Il m'aura aidé à trouver des choses, à analyser des données pour moi et m'aura probablement aidé à créer pas mal de contenu. Il aura peut-être même planifié une bonne soirée ! Voici Gen(eration)AI.
L'année prochaine, l'IA générative fera son entrée sur le marché du travail. Sommes-nous prêts ?
À l'université, vous comprendrez que ces modèles peuvent halluciner et qu'ils peuvent être cassés pour créer un mauvais contenu. Vous savez également que le résultat peut être, disons, un peu douteux ! Mais à quelle fréquence pensez-vous à manipuler des données sensibles de l'entreprise ? Jamais bien sûr, vous êtes à l'université.
Vous entrez donc dans le monde du travail et nous vous fournissons généralement un grand nombre de formations d'entreprise sous la forme de documentation et de vidéos "interactives" standard. Vous signez ensuite la politique d'utilisation acceptable (PUA).
Pendant toute votre carrière universitaire, l'IA a été là, pour vous aider. Et ce n'est pas parce que vous avez signé la PUA que vous allez soudainement vous arrêter... faire une pause... et ne pas demander à Chat GPT d'analyser cet ensemble de données que votre patron vous a demandé d'analyser en quelques heures ? Il n'y a aucune chance ! Ce n'est pas malveillant, c'est simplement la nature humaine. Pour moi et mes pairs, il s'agit d'une nouvelle technologie qui arrive après plus de 25 ans dans l'industrie, mais pour Gen(eration) AI, ce sont des natifs de l'IA.
Que faire alors ? Bien sûr, nous avons toujours besoin de la formation, nous avons besoin de la PUA, mais lorsque cette main-d'œuvre entre sur le lieu de travail, la stratégie la plus efficace est celle qui permet de contenir les risques et de former la nouvelle main-d'œuvre au fur et à mesure qu'elle remplit ses fonctions. Une formation initiale de type "check-box" n'est tout simplement pas suffisante. Il faut donc adopter une approche en plusieurs étapes grâce aux technologies Web Gateway, CASB et DLP, adaptées à l'IA et fonctionnant de concert. Ma recommandation pour cette approche serait la suivante :
- Découverte, classification et restriction : Découvrez ce qui est utilisé, déterminez votre appétence au risque et utilisez des politiques web pour bloquer l'accès à l'IA qui est tout simplement trop risquée par rapport à l'appétence au risque de votre entreprise.
- Effectuez une DLP sur ce qui est autorisé et accompagnez les utilisateurs en temps réel : Une DLP efficace peut bloquer et surtout fournir un "coaching" aux utilisateurs sur les raisons du blocage, ce qui permet à l'utilisateur d'apprendre en temps réel, ce qui est bien plus efficace qu'une formation préalable.
- Contrôle avancé du copilote : Pour les applications de copilotage d'entreprise, il est possible d'appliquer des contrôles plus granulaires tels que la prévention de l'apprentissage par la classification automatisée des documents (par exemple, la classification AIP pour Microsoft Co-Pilot). Les moteurs DLP efficaces peuvent le faire automatiquement et informer l'utilisateur de ce qui se passe pour renforcer l'apprentissage.
- Suivi ciblé / recyclage : L'analyse du comportement des utilisateurs permet d'identifier les cohortes d'utilisateurs qui ne respectent généralement pas les conditions DLP, ce qui permet d'organiser des formations de suivi ciblées.
Ma conclusion : oui, nous devons commencer à parler de la Génération IA. Comme toutes les générations, celle-ci transformera les entreprises et, un jour, nous écrirons des blogs comme celui-ci sur la prochaine génération, ou, plus probablement, nous penserons simplement au blog que l'IA créera automatiquement ! Notre responsabilité envers cette nouvelle main-d'œuvre est de permettre à la Gen(eration)AI d'avoir cet impact en toute sécurité et sans compromettre les données sensibles des organisations qu'elle rejoint. Les technologies d'ESS axées sur l'IA ne sont pas agréables à avoir, elles sont essentielles pour y parvenir.
A propos de l'auteur
Steve Tait
Directeur de la technologie
Steve est un leader technologique exécutif, avec plus de 25 ans d'expérience dans la fourniture de solutions logicielles d'entreprise dans un large éventail de secteurs industriels, y compris la sécurité, la défense, les services financiers et les soins de santé. Spécialisé dans la fourniture d'applications critiques, Steve a occupé plusieurs postes de direction et de cadre supérieur pour des entreprises du FTSE 100 et des PME, qu'elles soient publiques ou financées par des fonds d'investissement privés.
Retour à Blogs