Skip to main content
Retour à Podcasts

Les nouvelles technologies de l'IA et leur impact sur la cybersécurité

Publié le : 11 septembre 2024

Aujourd'hui, je suis accompagné de Sekhar Sarukkai, technologue, entrepreneur, éducateur et conseiller à l'adresse Skyhigh Security , pour examiner comment les entreprises peuvent tirer parti de l'intelligence artificielle pour stimuler la productivité et renforcer leurs mesures de sécurité face à l'évolution des cybermenaces. Nous discuterons de stratégies pratiques et de l'évolution du paysage de l'IA qui peuvent aider les organisations à rester en tête dans ce monde en mutation rapide.

Vous pouvez trouver Sekhar Sarukkai sur sa page LinkedIn ici.

----

CloudCast est animé par le responsable de l'expérience numérique de Skyhigh Security, Scott Schlee. L'attitude engageante et l'esprit de Scott, soutenus par plus de 20 ans de production de médias numériques et de développement web, ont conduit à des collaborations fructueuses avec des marques de premier plan. Son expérience comprend l'animation et la production d'un large éventail de podcasts et de vidéos. Scott a été reconnu pour son travail exceptionnel, notamment pour un court métrage numérique primé et une nomination aux Webby Awards pour le marketing viral (marque). Au-delà de ses réalisations professionnelles, le parcours personnel de Scott, qui a survécu pendant dix ans à un cancer du pancréas, l'a amené à partager son histoire avec le Congrès américain et d'autres organisations pour plaider en faveur d'un financement accru de la recherche sur le cancer.

Scott Schlee:
Nous sommes le 11 septembre 2024. Je suis votre hôte, Scott Schlee, et vous écoutez Skyhigh Security Cloudcast . Aujourd'hui, je suis accompagné de Sekhar Sarukkai, technologue, entrepreneur, éducateur et conseiller à Skyhigh Security , pour explorer la manière dont les entreprises peuvent tirer parti de l'intelligence artificielle pour stimuler la productivité et renforcer leurs mesures de sécurité contre les cybermenaces en constante évolution.

Nous discuterons de stratégies pratiques et de l'évolution du paysage de l'IA qui peuvent aider les organisations à garder une longueur d'avance dans ce monde en mutation rapide. Sekhar, merci de vous joindre à nous aujourd'hui. Comment allez-vous ?

Sekhar Sarukkai :
Oh, je suis très bien. Merci beaucoup, Scott, de m'avoir invité.

Scott Schlee:
Sekhar, pouvez-vous me dire quelle est votre position au sein de Skyhigh Security?

Sekhar Sarukkai :
Oui, c'est une question intéressante. Comme vous le savez peut-être, j'étais l'un des Sekhar de Skyhigh Networks. Après son rachat par McAfee, je suis resté quelques années chez McAfee, puis je suis parti pour faire d'autres choses, comme enseigner la cybersécurité à l'UC Berkeley, et j'ai travaillé avec beaucoup de sociétés de capital-risque et autres.

Mais récemment, lorsque Vishal, le nouveau PDG, est arrivé, il m'a contacté pour voir s'il y avait un peu de conseil, plutôt pour m'aider avec certaines des tendances et des nouvelles questions à traiter, dans l'industrie. C'est ainsi que je me suis engagé auprès de Skyhigh, uniquement en tant que conseiller, essentiellement sur une base consultative.

Scott Schlee:
Je sais que nous sommes très heureux que vous fassiez partie de l'équipe, et je suis encore plus heureux que vous nous rejoigniez aujourd'hui pour parler de l'IA, des tendances futures, de ce que Skyhigh Security fait avec l'IA, et j'espérais donc que nous pourrions peut-être passer quelques minutes à parler, tout d'abord, de certaines technologies d'IA émergentes qui sont susceptibles de façonner l'avenir de la cybersécurité.

Sekhar Sarukkai :
C'est une question très délicate qui peut faire partie de notre conversation, mais nous pensons tous que le monde, littéralement le monde de l'informatique, s'est transformé il y a quelques années lorsque le ChatGPT a décollé, n'est-ce pas ? Il y a quelque chose là où les gens ont senti dans leurs tripes que c'était différent et qu'il y avait beaucoup d'utilisations différentes, qui ont germé, une quantité incroyable d'innovation dans l'espace.

Et je pense que cela va continuer à se développer. Je pense que certains domaines clés sont stables et que les gens savent où ils vont évoluer, comme les modèles de base. Mais ce que l'IA ouverte et. Mais ce que font l'IA ouverte et un tas d'autres. Je pense que l'évolution est constante. Il y a beaucoup de travaux intéressants autour de la multimodalité, c'est-à-dire non seulement le texte, qui est généré, mais aussi les images audio et vidéo.

Il est fascinant de voir à quel point les choses ont changé. Aujourd'hui, vous pouvez donner une consigne. Et les résultats, un clip vidéo d'un espace imaginé, n'est-ce pas ? Ce qui semble assez réaliste. Il y a donc beaucoup de travail dans ce domaine, je pense, qui va évoluer. Et comme l'imitation profonde est l'une d'entre elles. Les mauvaises utilisations de cette technologie où je peux faire croire que je suis utilisé Dieu dit quelque chose qu'il n'a jamais fait et il va être très difficile de discerner cela de la réalité Donc c'est toute cette IA multi modale qui a beaucoup de choses cool que vous pouvez faire mais qui a aussi vous savez des problèmes de sécurité qui viennent avec elle l'autre grand domaine que je dirais est Il a attiré l'attention récemment dans les derniers, Si vous allez sur ChatGPT, vous lui demandez de résumer un document ou un film, il fera peut-être un excellent travail, mais si vous voulez lui demander de réserver un billet pour vous rendre au cinéma, de coordonner les calendriers avec vos amis pour aller voir le film.

Elle ne sera pas en mesure de le faire. C'est pourquoi on assiste à une nouvelle évolution qui consiste à étendre les LLM et l'IA pour qu'ils puissent réellement agir. Il s'agit donc de grands modèles d'action. Et il y a beaucoup d'utilisation en entreprise. Ou des cas d'utilisation de ce type qui, en quelque sorte, alimentent ce vers quoi je pense que la grande valeur de toutes ces technologies d'IA pourrait évoluer.

C'est ce que certains appellent la nouvelle génération de SaaS, n'est-ce pas ? Aujourd'hui, si vous, si quelqu'un parle de SaaS, c'est comme Office 365 ou Salesforce ou le reste du monde. Il s'agit essentiellement de logiciels en tant que services. Tout ce qui devait auparavant être téléchargé ou déployé sur vos serveurs, vous le consommez en tant que service.

La prochaine génération, que les systèmes agentiques et d'autres évolueront pour aider, consistera à créer ce que l'on appelle, ce que l'on peut considérer comme un service en tant que logiciel, c'est-à-dire, si vous regardez ce qu'un vendeur fait aujourd'hui, mais Salesforce l'a fait. Ils utilisent Salesforce comme un moyen de les rendre plus productifs et de conclure une affaire ou de mener une campagne ou autre chose, ce que la prochaine génération ferait, c'est passer à l'étape suivante, ce qui n'est pas le cas.

C'est un peu comme un copilote, mais c'est un autopilote qui vous permet d'avoir un agent commercial virtuel, n'est-ce pas ? Ainsi, plutôt que d'aider un humain à mieux accomplir sa tâche, il va pouvoir faire ce que l'humain fait, n'est-ce pas ? C'est l'automatisation. C'est l'analyse des tâches.

Il y a évidemment du bon et du mauvais dans tout cela. Je ne sais pas où cela va nous mener en termes de société, d'emplois et de personnes. Je ne sais pas où cela va nous mener en termes de société, d'emplois et de personnes, mais le mouvement qui consiste à dire, d'accord, je veux accomplir quelque chose, à lui donner un objectif et à être capable de le décomposer en tâches qui doivent être accomplies et à aller les exécuter.

Les tâches à accomplir ont évolué très rapidement. Je dirais qu'il existe des démonstrations fascinantes que vous pouvez voir en ligne. Il y a celle d'un développeur, d'un agent développeur, si vous voulez. Vous pouvez rechercher une vidéo sur YouTube pour Devin. Devin est le personnage d'un développeur, mais il est fascinant de le voir fonctionner en temps réel, où il génère du code.

Et s'il y a une exception ou une erreur, il va chercher. Tous les points d'eau pour les développeurs, les sous-piles ou tout autre endroit où il peut aller, le trouver, résoudre le problème, lire sur lui et déployer tout cela. Cette notion d'automatisation est donc bien réelle et peut avoir un impact profond sur les entreprises.

Scott Schlee:
Et je suppose que beaucoup de gens, des développeurs comme moi, vont regarder cela et le prendre de deux façons, en ayant peur que cela me prive de mon travail, ou en le considérant comme un assistant qui va me permettre d'être plus efficace dans mon travail ?

Sekhar Sarukkai :
Oui, et c'est la question à un million de dollars, n'est-ce pas ?

Je ne sais pas où cela va se terminer et certains, vous voyez certaines démos, vous dites, vous savez quoi, ce n'est pas vrai. Cela ne peut pas faire ce qu'un programmeur expert ferait. Et puis vous voyez une autre démo où c'est wow, ça le fait. Oui, c'est vrai. Ou vous n'avez pas besoin de 20 personnes dans une équipe, peut-être qu'il y a un développeur unique.

Qui peut créer une startup à partir de zéro et développer le code à l'aide de certaines de ces technologies,

Scott Schlee:
Je sais que l'on dit que l'IA d'aujourd'hui est la plus bête qu'elle ne sera jamais. Au cours des trois dernières années, entre six mois et un an, nous avons tous vu l'IA progresser à pas de géant par rapport à ce qu'elle était à ses débuts.

Sekhar Sarukkai :
Absolument, Scott. Et je pense que cela dépend aussi du côté du lit où vous vous levez, je pense que c'est soit une énorme opportunité, soit une grande inquiétude.

Scott Schlee:
En quoi consistent ces avancées en matière d'IA générique ? Nous parlons d'IA ouvertes, de sorte que n'importe qui peut mettre la main dessus et l'utiliser à des fins bonnes ou mauvaises.

Comment ces progrès vont-ils influer sur la cybersécurité en termes de menaces et de défenses ?

Sekhar Sarukkai :
Oui, encore une fois. L'évolution est si rapide que vous avez déjà vu des problèmes que vous n'auriez pas imaginés il y a seulement deux ans. Et je pense qu'en tant que praticiens de la cybersécurité, notre travail va devenir de plus en plus difficile.

Je pense que c'est dû à beaucoup de choses. Aujourd'hui, si vous regardez, si vous interrogez les gens sur la sécurité avec, dans le contexte du RNB, il y a beaucoup de startups et, même des entreprises établies comme Skyhigh, vous regardez dans, dans ce que cela signifie de sécuriser LLM lui-même, n'est-ce pas ? Il y a cette notion de jailbreaking, ou, comment pouvez-vous réellement contraindre le modèle à donner une réponse qui n'est pas appropriée, des choses comme ça.

Il y a également des préoccupations concernant la fuite de données, il y a un exemple classique avec l'entreprise Fortune 100 où le salaire du PDG a été révélé par le chatbot, qui avait été créé au-dessus d'une plateforme JNI. Des choses comme ça, qui sont très importantes et sur lesquelles beaucoup de gens travaillent et qui continueront à être augmentées dans des plateformes comme Skyhigh SSE ou dans des partenariats avec des startups émergentes pour aider à combler ce fossé naturel.

Mais il y a d'autres problèmes qui viennent du côté offensif, n'est-ce pas ? Il s'agit donc d'un cas classique où les mauvais acteurs sont plus rapides à s'adapter à certains de ces changements, n'est-ce pas ? Je vais vous donner un exemple classique. Nous avons parlé de Devin, n'est-ce pas ? Permettez-moi d'utiliser cet exemple. Devin, lorsqu'il trouve un problème, peut aller à l'un de ces points d'eau.

stack overflow pour voir, ok, pourquoi j'ai eu cette erreur ? Et quel est le correctif ? Et il regardera les commentaires des différents développeurs, choisira le bon et mettra en œuvre ce correctif. Il s'est avéré qu'il y a un mauvais acteur, comme cela a été publié il y a quelques mois.

Je pense qu'il s'agit d'un acteur parrainé par un État qui fait quelque chose de très intéressant. Ils publiaient en fait des bibliothèques Python malveillantes backdoored dans Stack Overflow et ne se contentaient pas de les publier. Ils les publiaient sur GitHub et en parlaient sur Stack Overflow. Et

Scott Schlee:
Comme solution à un problème.

Sekhar Sarukkai :
À cela, exception ou autre.

Imaginez que vous soyez un humain et qu'un copilote, comme celui de GitHub, me dise d'aller réparer ça, mais j'irais sur stack overflow, je le trouverais. Je le prendrais, j'utiliserais mon jugement pour dire, vous savez quoi, ça a l'air d'être quelque chose que je n'utiliserai peut-être pas ou quoi que ce soit, d'accord ? Et c'est à moi de décider si je dois mettre à jour avec cette nouvelle bibliothèque Python.

Mais s'il est agentique comme Devin, quels sont les contrôles et comment, parce que tout est question de vitesse et d'efficacité et de la rapidité et des moyens cool qu'il peut résoudre. Et je ne sais même pas s'il existe un moyen quantitatif de juger si ces commentaires sur Stack Overflow doivent être ignorés ou non.

Dans ce cas, le risque d'une attaque de la chaîne d'approvisionnement des données est donc très réel pour l'IA. Il est donc très réel pour l'IA car je parle dans cet exemple, au moment de l'inférence, au moment où vous utilisez réellement le modèle. Il y a beaucoup de problèmes de ce type autour de la chaîne d'approvisionnement des données, c'est-à-dire autour des données qui ont été utilisées pour former le modèle lui-même.

Et il y a certainement des questions concernant les logiciels malveillants et les données malveillantes, mais il y a aussi des questions fondamentales concernant la propriété des données, les questions de droits d'auteur, etc. Et ces questions peuvent devenir de plus en plus difficiles pour les entreprises qui peuvent être tenues responsables de la violation d'un droit d'auteur, qu'il ait été ou non généré par Gen AI pour elles, n'est-ce pas ?

S'ils l'utilisent dans quelque chose qui a de la valeur pour eux ou qui est public, quelqu'un peut les poursuivre pour cela. Il y a donc certainement ce genre de questions qui, je pense, devront faire l'objet d'une réflexion plus approfondie. Enfin, je dirais qu'il s'agit d'une question fondamentale. Parce qu'il y a cette forte tendance vers un monde agentique, cette automatisation des choses et le remplacement des personnes et des choix que nous faisons par l'IA, la campagne d'un mauvais acteur peut ne même pas toucher un humain parce qu'elle se produit à la vitesse de l'IA.

Il y a donc un mauvais acteur qui lance une attaque, qui est basée purement sur l'IA parce que l'IA trouve une vulnérabilité dans votre environnement et lance l'attaque. Comme Devin l'a fait pour de bonnes raisons en créant du code, un mauvais acteur peut l'utiliser pour pénétrer dans un réseau, n'est-ce pas ? Pour exfiltrer des données. Et si cela se produit, réagir à la vitesse des humains ne va pas aider parce que les humains devront alors, comme dans le monde d'aujourd'hui, créer un, il va dans la chaussette et vous créez un ticket et quelqu'un doit trouver qui en est le propriétaire, trouver un problème.

Cela ne fonctionnera pas.

Scott Schlee:
Des heures, voire des jours, avant qu'elle ne soit traitée.

Sekhar Sarukkai :
Et donc vous avez besoin, c'est presque comme ces bandes dessinées, qui étaient là avant, je sors de mon enfance, qui sont un espion était un espion, c'est le même genre de chose, l'IA contre l'IA, n'est-ce pas ? C'est le même genre de choses, l'IA contre l'IA, n'est-ce pas ? Je pense que c'est là que se situe la véritable action en matière de cybersécurité au fil du temps.

Scott Schlee:
C'est un concept intéressant et je sais que beaucoup de gens ont théorisé sur la façon dont cela fonctionnerait entre l'IA et l'IA. Dans un scénario plus proche du Far West, il faut se préparer au pire.

Sekhar Sarukkai :
Oui, non, en fait je pense que Skyhigh est l'un des pionniers du CASB, Skyhigh, quand Skyhigh était le réseau de Skyhigh et ensuite il s'est transformé en Skyhigh Security.

Et le domaine lui-même, le Lingo de Gartner, est passé de CASB à SSE Secure Service Edge, et il a CASB, il a SWG, RBI, un tas d'autres fonctionnalités, mais là où je pense que Skyhigh va, et je pense que c'est une extension naturelle de la plateforme SSC, c'est d'aborder l'IA de manière holistique, parce que si vous pensez aux entreprises comme nous l'avons fait, Skyhigh a étudié les données des entreprises, et je crois qu'ils vont publier ce rapport sur des données très fascinantes, et je suis sûr que vous ferez un autre podcast à ce sujet.

Et à un moment donné, pour ne pas révéler trop de données, certaines des conclusions intéressantes sont que beaucoup d'entreprises, elles adoptent vraiment l'IA générique, mais beaucoup de grandes entreprises bloquent en fait ChatGPT parce que c'est une, c'est presque comme une perspective contradictoire, mais en réalité ce qu'elles disent c'est que c'est si important.

Et il y a tellement d'inconnues que je veux déployer dans ma propre instance privée. Plutôt que d'utiliser ChatGPT comme un SASS, n'est-ce pas ? Ils n'autorisent donc pas leurs employés à interroger ChatGPT, mais ils disposent de leur propre instance d'entreprise. Là où vous pouvez, les employés peuvent aller et poser ces questions parce qu'ils s'inquiètent que les données pourraient, Être divulguées dans cet environnement rapide de ChatGPT et ils sont d'accord pour obtenir la valeur. S'il s'agit de données internes.

Scott Schlee:
Tant qu'ils ont mis en place les garde-fous qu'ils ont approuvés.

Sekhar Sarukkai :
Oui, non, non seulement cela, mais dans presque tous ces cas, ils utilisent Azure AI, c'est un déploiement de passage sur une infrastructure publique, mais dans leur VPC, essentiellement seuls leurs employés utilisent cette instance de GPT.

Soit par l'API, soit par l'interface utilisateur, qui est un ChatGPT, et de la même manière avec AWS, tous ces environnements de cloud public ont développé une activité assez saine autour de cela. La première étape consiste donc à obtenir une visibilité sur l'utilisation de l'IA. C'est presque l'informatique fantôme d'il y a 10 ans, lorsque le cloud était utilisé par toutes les entreprises.

Aujourd'hui, beaucoup de RSSI veulent savoir ce qu'est l'IA, ce qui est utilisé par mon entreprise, quelles sont les lignes d'activité, si c'est risqué ou non. Il y a des LLM qui ne posent pas de problème. D'autres sont suspects parce que vous ne voulez pas, peut-être qu'ils sont plus propices aux attaques de logiciels malveillants et au jailbreaking, ce qui pourrait avoir un impact sur la perception qu'ont les employés ou les clients de cette entreprise.

C'est donc ce niveau de visibilité. Et avec des attributs qui sont spécifiques à JNI et LLM, c'est quelque chose que sky a été l'un des premiers, si ce n'est le premier vendeur d'ESS à mettre sur le marché, n'est-ce pas ? Il s'agit de pouvoir non seulement découvrir, mais aussi rendre compte de ce que l'A. I. a fait. Et de faire des rapports sur l'I.A. utilisée par une entreprise, mais aussi d'avoir une vue basée sur le risque pour savoir lesquelles sont risquées, lesquelles ne le sont pas et ainsi de suite.

Mais cela va plus loin, je pense, parce que je pense que la plateforme Skyhigh, comme nous le savons tous, n'est-ce pas ? Elle est en fait très forte en matière de sécurité des données. C'est le CASB qui est à l'origine de la sécurité des données. Une grande partie des préoccupations des clients concerne les fuites de données, n'est-ce pas ? C'est pourquoi ils bloquent même ChatGPT, mais ils autorisent l'utilisation privée, etc.

Et il y a un grand cas d'utilisation pour les ESS autour d'Office 365. L'autre résultat intéressant, que vous trouverez également dans le rapport SkyHive, est qu'il y a un LLM ou Gen AI, qui est vraiment, qui se démarque vraiment dans l'utilisation en entreprise par rapport à tout le reste, par des ordres de grandeur, comme trois ordres de grandeur.

Et c'est l'utilisation d'Office 365 Copilot. Il s'agit du Copilot de Microsoft et les Copilots sont construits au-dessus de vos modèles de base Gen AI. Le GPT 4.0 d'OpenAI, ou peut-être un modèle LLAMA ou un tas d'autres. Anthropique, peu importe. Mais Microsoft utilise OpenAI, mais a créé le Microsoft Office 365 Copilot, qui est une extension d'Office 365.

Cela permet non seulement aux utilisateurs d'Office 365 d'avoir une interaction libre comme dans un ChatGPT, mais aussi de la contextualiser avec toutes les données de l'entreprise, dont Office 365 a la visibilité. Et si vous pensez à une grande entreprise, elles sont toutes standardisées sur Office 365, n'est-ce pas ?

Ils ont tous SharePoint, OneDrive, Microsoft Teams, tous les courriels, tout ce qu'une entreprise et vous, les employés de l'entreprise, utilisez aujourd'hui pour interagir, être productifs et créer de la valeur se trouve dans une plateforme Microsoft, est stocké quelque part dans une plateforme Microsoft. Et Microsoft Copilot indexe tout cela.

Et ils ont quelques contrôles pour dire quels sont ceux que vous ne voulez pas indexer, etc. Mais du fait qu'il est intégré ou ajouté à Office 365, l'adoption de Microsoft Copilot est vraiment supérieure à tout le reste. Et cela peut entraîner l'utilisation d'OpenAI et d'autres choses, mais parce que les employés utilisent Office 365, parce qu'ils interagissent avec Copilot, parce que beaucoup de données sensibles se trouvent dans l'environnement Microsoft, je pense que la protection des données, les extensions naturelles naturelles de Sky a la protection des données.

Dans le monde des copilotes, les clients peuvent bénéficier d'une valeur énorme. De nombreuses questions se posent à ce sujet. Je sais que Microsoft a mis en place des contrôles de base, mais si l'ESS est nécessaire pour certaines de ces grandes entreprises, je pense qu'avec les copilotes, il devient encore plus important.

Il y a des exemples classiques avec Microsoft Copilot, par exemple, il y a des applications qui peuvent se connecter à Copilot par le biais d'API. Elles deviennent ainsi un vecteur potentiel d'exfiltration de données. Il y a des utilisations, des situations où il peut y avoir des attaques très intéressantes, qui ont été présentées pour Copilot lors de la récente conférence Black Hat, vous devriez, si quelqu'un est intéressé, il devrait chercher Copilot et vous verrez certains vecteurs d'attaque, qui tentent de faire, par exemple, une attaque de spear phishing en utilisant l'intelligence, qui est là dans la plate-forme Microsoft Copilot.

Vous pouvez même demander au copilote de vous indiquer qui était présent lors d'une réunion ou quelle est l'adresse électronique de la personne avec laquelle vous avez le plus communiqué. Et qu'est-ce que c'est ? De quoi avez-vous parlé en dernier avec cette personne ? Vous pouvez ensuite extraire suffisamment d'informations de cette interaction avec le copilote et rédiger un message pour demander à cette personne de faire quelque chose.

Scott Schlee:
Aux membres en tant que groupe, de la part de votre directeur général

Sekhar Sarukkai :
Exactement.

Scott Schlee: Shaker, quelles sont les solutions d'IA dont dispose Skyhigh Security et comment nous préparons-nous pour l'avenir ?

Sekhar Sarukkai :
Je pense que les clients demandent une meilleure façon de gérer les déploiements de Copilot aujourd'hui. Et ce que j'ai vu, c'est que ce n'est pas tant l'avenir qu'un besoin, n'est-ce pas ? Et je sais que Skyhigh est positionné pour prendre la force de la protection des données pour les environnements Office 365 et l'appliquer à Copilot en faisant le même type de test DLP, n'est-ce pas ?

Par exemple, Skyhigh dispose déjà de capacités permettant de dire, et si je collabore avec vous sur un document et que soudain je, et disons que je suis un entrepreneur. Ou disons que je suis un conseiller dans ce cas, Scott, vous partagez quelque chose avec moi et vous êtes sur le point de partager quelque chose de très sensible, ce qui n'est pas acceptable pour les non-employés ou les non-cadres ou quoi que ce soit d'autre.

SkyHive a déjà la capacité de dire, d'arrêter la collaboration sur quelque chose qui a changé en termes de contenu et qui est plus sensible qu'il ne devrait être autorisé à être partagé, n'est-ce pas ? C'est donc la même chose. Avec Copilot qui peut dire, au fur et à mesure que vous générez du contenu, s'il y a quelque chose de sensible, qui est plus sensible, désolé, que ce que j'ai, ils devraient être en mesure de le bloquer.

Sky peut donc potentiellement vous aider dans ce domaine. Sky travaille en fait avec une entreprise d'IA, une startup d'IA spécifique, qui se concentre sur la création de garde-fous. Il s'agit d'une startup appelée Encrypt que nous avons intégrée pour l'évaluation des risques du point de vue de l'équipe rouge, mais nous l'intégrons également pour les garde-fous, n'est-ce pas ?

Donc les mêmes garde-fous que vous avez pour ChatGPT pour dire, vous ne devriez pas jailbreak, sont importants pour Office 365 aussi, n'est-ce pas ? Vous ne voulez pas qu'Office 365 recrache quelque chose d'inapproprié. C'est pourquoi Skyhigh peut aider ses clients à résoudre ce problème.

Je pense qu'il est possible de comprendre la sensibilité. En termes de collaboration, en termes de qui peut voir le document et être capable d'y remédier en temps quasi réel, soit par le biais de nos intégrations API, que nous avons déjà avec Office 365, soit par le biais de notre proxy, qu'il s'agisse d'un proxy avant ou d'un proxy arrière, nos approches, qui, je pense, sont envisagées et font l'objet d'un travail en ce moment.

Scott Schlee:
J'apprécie vraiment que vous soyez venu clarifier beaucoup de choses, parce que je sais que, comme je l'ai déjà dit, c'est le Far West en ce moment avec l'IA et il y a beaucoup d'informations contradictoires qui circulent. Certaines personnes ne comprennent tout simplement pas ce qu'est l'IA, où elle va et comment protéger vos données sensibles.

J'espère vraiment que nous pourrons nous reparler très bientôt, car je suis sûre que d'ici trois mois, tout sera complètement différent. J'aimerais donc vous recevoir à nouveau pour faire le point.

Sekhar Sarukkai :
Absolument, Scott. J'en suis ravi. Et je serais ravi d'y participer. Il y a beaucoup de sujets intéressants autour de cela et nous les couvrons.

Et je pense qu'il y a beaucoup, il y a un besoin pour les entreprises d'avoir une certaine visibilité sur la façon dont l'industrie réfléchit. Cette évolution de l'espace et, certaines des questions que vous avez posées sur la pertinence de Gen AI. Pour la sécurité et la sécurité de Jenny, les deux sont super importants, et cela va être une conversation plus longue, c'est sûr.

Scott Schlee:
C'est vrai. Shaker. Comment les gens peuvent-ils vous contacter s'ils veulent vous trouver en ligne ?

Sekhar Sarukkai :
Je pense que le meilleur moyen est de chercher shaker sur LinkedIn. Alors d'accord, connectons nous et aimons avoir le point de vue de tout le monde sur ce domaine émergent. Ce qui est de la plus haute importance.

Scott Schlee: Très bien.

Vous trouverez ses coordonnées dans les notes de l'émission. J'aurai un lien rapide pour vous. N'hésitez pas à le contacter, à me contacter, à Skyhigh Security. Nous serions ravis de parler avec vous de l'avenir de l'IA et de la manière dont nous pouvons vous aider.

Sekhar Sarukkai :
Je vous remercie.

Scott Schlee:
Merci encore d'avoir écouté Skyhigh Cloudcast. Si vous avez apprécié cet épisode, n'oubliez pas de vous abonner sur votre plateforme préférée pour ne jamais manquer une mise à jour.

Si vous avez aimé l'émission, laissez-nous un commentaire. Cela aidera d'autres personnes à trouver le podcast. Pour de plus amples informations sur Skyhigh Security ou Cloudcast, veuillez consulter le site SkyhighSecurity.com.


Remarque : toutes les transcriptions sont générées à l'aide d'un logiciel de reconnaissance vocale et d'une transcription humaine, et peuvent contenir des erreurs. Veuillez vérifier l'audio correspondant avant de le citer en version imprimée.

Retour à Podcasts
Scott Schlee

Hébergé par

Scott Schlee

Responsable de l'expérience numérique