Zum Hauptinhalt springen
Zurück zu Podcasts

Aufstrebende KI-Technologien und ihre Auswirkungen auf die Cybersecurity

Veröffentlicht am: September 11, 2024

Heute bespreche ich mit Sekhar Sarukkai, Technologe, Unternehmer, Pädagoge und Berater von Skyhigh Security , wie Unternehmen künstliche Intelligenz nutzen können, um ihre Produktivität zu steigern und ihre Sicherheitsmaßnahmen gegen die sich entwickelnden Cyberbedrohungen zu verbessern. Wir werden praktische Strategien und die sich entwickelnde KI-Landschaft diskutieren, die Unternehmen helfen können, in dieser sich schnell verändernden Welt die Nase vorn zu haben.

Sie können Sekhar Sarukkai auf seiner LinkedIn-Seite hier finden.

----

CloudCast wird von Skyhigh Security, dem Digital Experience Manager, Scott Schlee moderiert. Scotts einnehmendes Auftreten und sein Witz, gestützt auf über 20 Jahre Erfahrung in der Produktion digitaler Medien und in der Webentwicklung, haben zu einer erfolgreichen Zusammenarbeit mit hochkarätigen Marken geführt. Zu seinen Erfahrungen gehört auch die Moderation und Produktion einer breiten Palette von Podcasts und Videos. Scott wurde für seine herausragende Arbeit ausgezeichnet, darunter ein preisgekrönter digitaler Kurzfilm und eine Webby Awards-Nominierung für Viral Marketing (Branded). Neben seinen beruflichen Erfolgen hat Scotts persönlicher Weg als jahrzehntelanger Überlebender von Bauchspeicheldrüsenkrebs ihn dazu gebracht, seine Geschichte mit dem US-Kongress und anderen Organisationen zu teilen, um sich für mehr Mittel für die Krebsforschung einzusetzen.

Scott Schlee:
Es ist der 11. September 2024. Ich bin Ihr Gastgeber, Scott Schlee, und Sie hören Skyhigh Security Cloudcast . Heute ist Sekhar Sarukkai, Technologe, Unternehmer, Pädagoge und Berater von Skyhigh Security bei mir, um zu erkunden, wie Unternehmen künstliche Intelligenz nutzen können, um ihre Produktivität zu steigern und ihre Sicherheitsmaßnahmen gegen die sich entwickelnden Cyberbedrohungen zu verbessern.

Wir werden praktische Strategien und die sich entwickelnde KI-Landschaft diskutieren, die Unternehmen helfen können, in dieser sich schnell verändernden Welt die Nase vorn zu haben. Sekhar, vielen Dank, dass Sie heute bei uns sind. Wie geht es Ihnen?

Sekhar Sarukkai:
Oh, mir geht es gut. Vielen Dank, Scott, dass ich hier sein darf.

Scott Schlee:
Sekhar, können Sie mir Ihre Position bei Skyhigh Security nennen?

Sekhar Sarukkai:
Ja, das ist eine interessante Frage. Ich war, wie Sie vielleicht wissen, einer der Sekhar von Skyhigh Networks. Nach der Übernahme durch McAfee war ich einige Jahre bei McAfee und habe dann andere Dinge getan, wie z.B. an der UC Berkeley Cybersicherheit gelehrt und mit vielen VCs und anderen Unternehmen zusammengearbeitet.

Aber vor kurzem, als Vishal, der neue CEO, an Bord kam, fragte er mich, ob ich ihm bei einigen Trends und neueren Problemen in der Branche helfen könnte. Und so bin ich jetzt für Skyhigh tätig, und zwar auf einer rein beratenden Basis, im Wesentlichen als Berater.

Scott Schlee:
Ich weiß, dass wir sehr froh sind, Sie im Team zu haben, und noch mehr freue ich mich, dass Sie heute bei uns sind, um über KI zu sprechen, über zukünftige Trends, darüber, was Skyhigh Security mit KI macht, und ich hatte gehofft, dass wir vielleicht ein paar Minuten damit verbringen könnten, darüber zu sprechen, erstens: Was sind einige aufkommende KI-Technologien, die wahrscheinlich die Zukunft der Cybersicherheit beeinflussen werden?

Sekhar Sarukkai:
Das ist eine sehr schwierige Frage, die in unser Gespräch einfließen kann, aber wir alle, ich denke, die Welt, buchstäblich die IT-Welt, hat sich zumindest vor ein paar Jahren verändert, als ChatGPT einfach durchstartete, oder? Die Menschen hatten das Gefühl, dass es anders ist und dass es viele verschiedene Anwendungsmöglichkeiten gibt, die eine unglaubliche Menge an Innovationen in diesem Bereich hervorgebracht haben.

Und ich denke, das wird weiter zunehmen. Es gibt einige Schlüsselbereiche, die meiner Meinung nach stabil sind und von denen man weiß, wohin sie sich entwickeln werden, wie z.B. die Grundmodelle. Aber das, was Open AI und. Bunch of others tun. Ich denke, es ist ein stetiger Weg. Es gibt eine Menge interessanter Arbeiten im Bereich der multimodalen KI, d.h. nicht nur mit Text, sondern auch mit Audio, Video und Bildern.

Faszinierend, wie sehr es sich verändert hat. Heute können Sie eine Aufforderung geben. Und Ergebnisse, ein Videoclip von einem imaginären Raum, richtig? Das sieht ziemlich realistisch aus. Es gibt also eine Menge Arbeit in diesem Bereich, die sich weiterentwickeln wird, denke ich. Und Deep Fake ist eine dieser Möglichkeiten. Schlechte Anwendungen dieser Technologie, bei denen ich es so aussehen lassen kann, als ob ich Gott benutze, der etwas sagt, was er nie getan hat, und es wird sehr schwierig sein, das von der Realität zu unterscheiden. Das ist also die ganze multimodale KI, mit der man viele coole Dinge tun kann, die aber auch Sicherheitsprobleme mit sich bringen, Das heißt, wenn Sie ChatGPT bitten, ein Dokument oder einen Film zusammenzufassen, macht es das vielleicht ganz gut, aber wenn Sie es bitten, eine Kinokarte für Sie zu buchen und die Termine mit Ihren Freunden zu koordinieren, damit Sie den Film sehen können.

Dazu wird sie nicht in der Lage sein. Und so gibt es diese neue Entwicklung, LLMs und KI zu erweitern, um tatsächlich Maßnahmen zu ergreifen. Es handelt sich also um große Aktionsmodelle. Und es gibt viele Anwendungsfälle in Unternehmen. Oder Anwendungsfälle, die meiner Meinung nach dazu beitragen, dass sich der große Wert all dieser KI-Technologien entwickelt.

Und das ist es, was manche Leute die nächste Generation von SaaS nennen, nicht wahr? Wenn heute jemand von SaaS spricht, dann ist das so etwas wie Office 365 oder Salesforce oder die ganze Welt. Im Grunde handelt es sich um Software als Service. Alles, was Sie früher herunterladen oder auf Ihren Servern installieren mussten, nutzen Sie heute als Service.

Die nächste Generation, zu der sich Agentensysteme und andere Systeme entwickeln werden, ist die Schaffung dessen, was man als Dienstleistung als Software bezeichnen könnte. Wenn Sie sich ansehen, was ein Vertriebsmitarbeiter heute tut, aber Salesforce hat Sie nutzen Salesforce, um produktiver zu werden und ein Geschäft abzuschließen oder eine Kampagne durchzuführen oder was auch immer, was die nächste Generation tun würde, ist den nächsten Schritt zu tun, was nicht der Fall ist.

Es ist fast wie ein Copilot, aber es ist ein Autopilot, mit dem Sie tatsächlich einen virtuellen Verkaufsagenten bekommen können, richtig? Anstatt einem Menschen bei der Erledigung seiner Aufgaben zu helfen, kann er im Grunde das tun, was der Mensch tut, oder? Und das ist die Automatisierung. Das ist die Aufgabenanalyse.

Und es gibt offensichtlich gute und schlechte Seiten. Ich weiß nicht, wo das in Bezug auf die Gesellschaft und die Menschen enden wird. Ich weiß nicht, was das für die Gesellschaft, die Arbeitsplätze und die Menschen bedeutet, aber es ist eine Bewegung, die darauf abzielt, dass man sagt: "Okay, ich möchte etwas erreichen, ich gebe mir ein Ziel und bin in der Lage, dieses Ziel in Aufgaben zu zerlegen, die erledigt werden müssen, und diese dann tatsächlich auszuführen.

Und die Erledigung der Aufgaben ist etwas, das sich ziemlich schnell entwickelt hat. Ich würde sagen, es gibt einige faszinierende Demos, die Sie online sehen können. Es gibt eine von einem Entwickler, einem Entwickler-Agenten, wenn Sie so wollen. Und das ist ein Video, das Sie auf YouTube unter dem Namen Devin finden können. Devin ist die Persona eines Entwicklers, aber es ist faszinierend zu sehen, wie er in Echtzeit arbeitet und Code generiert.

Und wenn dann eine Ausnahme oder ein Fehler auftritt, geht es auf die Suche. Alle Wasserlöcher für Entwickler, Sub-Stacks oder wo auch immer, werden durchsucht, um das Problem zu beheben, zu lesen und all das einzusetzen. Der Gedanke, diese Automatisierung zu erreichen, ist also real und kann tiefgreifende Auswirkungen für Unternehmen haben.

Scott Schlee:
Ich schätze, dass viele Leute, Entwickler wie ich, das auf zwei Arten sehen werden: Habe ich Angst, dass mir das irgendwie meinen Job wegnehmen wird, oder sehe ich es als einen Assistenten, der mir hilft, meine Arbeit effizienter zu machen?

Sekhar Sarukkai:
Ja, und das ist die Millionen-Dollar-Frage, nicht wahr?

Ich weiß nicht, wo das enden wird, und wenn Sie einige Demos sehen, sagen Sie: "Wissen Sie was, das stimmt nicht. Das kann nicht wirklich das tun, was ein erfahrener Programmierer tun würde. Und dann sehen Sie die nächste Demo, bei der Sie sagen, wow, das ist es. Ja, genau. Oder Sie brauchen keine 20 Leute in einem Team, sondern vielleicht nur einen Entwickler.

Wer kann ein Startup von Grund auf aufbauen und auch den Code mit einigen dieser Technologien entwickeln,

Scott Schlee:
Ich weiß, dass das Sprichwort besagt, dass die heutige KI die dümmste ist, die es je geben wird. Sie wird nur noch intelligenter und besser werden. In den letzten drei Jahren, sechs Monaten bis zu einem Jahr, haben wir alle gesehen, wie sich die KI im Vergleich zu ihren Anfängen sprunghaft weiterentwickelt hat.

Sekhar Sarukkai:
Auf jeden Fall, Scott. Und ich denke, je nachdem, auf welcher Seite des Bettes man aufsteht, ist das entweder eine große Chance oder eine große Sorge.

Scott Schlee:
Wie sehen diese Fortschritte bei der Gen-KI aus? Wir sprechen hier von einer offenen KI, so dass jeder sie in die Finger bekommen und für gute oder ruchlose Zwecke nutzen kann.

Wie werden sich diese Fortschritte auf die Cybersicherheit in Bezug auf Bedrohungen und Abwehrmaßnahmen auswirken?

Sekhar Sarukkai:
Ja, das ist wieder so eine Sache. Die Entwicklung ist so rasant, dass Sie bereits Probleme gesehen haben, die Sie vor zwei Jahren noch nicht für möglich gehalten hätten. Und ich denke, dass die Arbeit für Cybersicherheitsexperten noch schwieriger werden wird.

Ich denke, das liegt an vielen Dingen. Wenn Sie heute Leute nach der Sicherheit von BNE fragen, gibt es viele Startups und sogar etablierte Unternehmen wie Skyhigh, die sich mit der Frage beschäftigen, was es bedeutet, LLM selbst zu sichern, richtig? Da gibt es die Idee des Jailbreakings, oder wie kann man das Modell dazu bringen, eine Antwort zu geben, die nicht angemessen ist, solche Dinge.

Es gibt auch Bedenken im Hinblick auf Datenlecks. Es gibt ein klassisches Beispiel eines Fortune 100-Unternehmens, bei dem das Gehalt des CEO durch einen Chatbot, der auf einer JNI-Plattform erstellt wurde, offengelegt wurde. Dinge wie diese sind sehr wichtig und etwas, an dem viele Leute arbeiten, und es wird weiterhin entweder in Plattformen wie Skyhigh SSE oder durch Partnerschaften mit aufstrebenden Startups ergänzt werden, um diese natürliche Lücke zu füllen.

Aber es gibt noch andere Probleme, die von der offensiven Seite kommen, richtig? Dies ist also ein klassischer Fall, bei dem sich die bösen Akteure schneller an einige dieser Veränderungen anpassen, oder? Ich gebe Ihnen also einen Klassiker. Wir haben über Devin gesprochen, nicht wahr? Lassen Sie mich also dieses Beispiel verwenden. Wenn Devin also ein Problem findet, kann er zu einem dieser Wasserlöcher gehen.

Stack Overflow, um zu sehen, okay, warum habe ich diesen Fehler bekommen? Und was ist die Lösung für diesen Fehler? Und es schaut sich die Kommentare verschiedener Entwickler an, wählt den richtigen aus und implementiert die Lösung. Es hat sich herausgestellt, dass es einen bösen Akteur gibt, der vor ein paar Monaten veröffentlicht wurde.

Ich glaube, es handelt sich um einen staatlich geförderten Akteur, der etwas sehr Interessantes tut. Sie haben tatsächlich hinterhältige bösartige Python-Bibliotheken in Stack Overflow veröffentlicht und nicht nur veröffentlicht. Sie haben sie in GitHub veröffentlicht und in Stack Overflow darüber gesprochen. Und

Scott Schlee:
Als Lösung für ein Problem.

Sekhar Sarukkai:
Dazu, Ausnahme oder was auch immer.

Stellen Sie sich also vor, Sie sind ein Mensch und es ist ein Copilot, wie der GitHub Copilot, der mir sagt, dass ich das reparieren soll, aber ich würde zu Stack Overflow gehen, es finden. Dann würde ich sagen: "Wissen Sie was, das klingt nach etwas, das ich vielleicht nicht brauche" oder so ähnlich. Und dann entscheide ich, ob ich die neue Python-Bibliothek aktualisieren möchte.

Aber wenn es wie bei Devin ein Agent ist, was sind die Kontrollen und wie, denn es geht um Geschwindigkeit und Effizienz und darum, wie schnell und auf coole Art und Weise er es lösen kann. Und ich weiß nicht einmal, ob es eine quantitative Methode gibt, mit der Sie beurteilen können, ob diese Kommentare in Stack Overflow ignoriert werden sollten oder nicht.

In diesem Fall besteht also das Risiko eines Angriffs auf die Datenlieferkette, oder? Das Risiko eines Angriffs auf die Datenversorgungskette ist in diesem Fall sehr groß, denn ich spreche in diesem Beispiel von der Zeit der Inferenz, also der Zeit, in der Sie das Modell tatsächlich verwenden. Es gibt viele dieser Probleme im Zusammenhang mit der Datenversorgungskette, d.h. mit den Daten, die tatsächlich zum Trainieren des Modells verwendet wurden.

Und es gibt definitiv Fragen zu Malware und bösartigen Daten, aber auch grundlegende Fragen zu Dateneigentum, Urheberrechtsfragen und dergleichen. Und diese Fragen werden für Unternehmen immer schwieriger, da sie für die Verletzung von Urheberrechten haftbar gemacht werden können, unabhängig davon, ob die Daten von Gen AI für sie erstellt wurden oder nicht, oder?

Wenn sie es in etwas verwenden, das für sie selbst von Wert ist oder das öffentlich ist, kann jemand sie dafür verklagen. Es gibt also definitiv diese Art von Problemen, die meiner Meinung nach weiter durchdacht werden müssen. Und abschließend würde ich sagen, dass es grundsätzlich wichtig ist. Da es diese starke Entwicklung hin zu einer agentenbasierten Welt gibt und diese Automatisierung von Dingen und die Ersetzung von Menschen und unseren Entscheidungen durch KI, wird die Kampagne eines bösen Akteurs vielleicht nicht einmal einen Menschen berühren, weil sie mit der Geschwindigkeit der KI geschieht.

Es gibt also einen bösen Akteur, der einen Angriff starten würde, der rein auf KI basiert, weil die KI eine Schwachstelle in Ihrer Umgebung findet und den Angriff startet. So wie Devin aus guten Gründen Code erstellt hat, kann ein böser Akteur damit in ein Netzwerk eindringen, oder? Um Daten zu exfiltrieren. Und wenn das passiert, hilft es nicht, mit der Geschwindigkeit von Menschen darauf zu reagieren, denn Menschen müssen dann, wie in der heutigen Welt, ein Ticket erstellen und jemand muss herausfinden, wem es gehört, ein Problem finden.

Das ist, das wird nicht funktionieren.

Scott Schlee:
Stunden bis Tage, bevor er bearbeitet wird.

Sekhar Sarukkai:
Sie brauchen also fast so etwas wie diese Comics, die es früher gab, ich bin ja schon etwas älter. Als ich aufgewachsen bin, war ein Spion ein Spion. Das ist das Gleiche, nämlich KI gegen KI, oder? Das ist der Punkt, an dem sich meiner Meinung nach im Laufe der Zeit die wirkliche Cybersicherheit abspielen wird.

Scott Schlee:
Das ist ein interessantes Konzept, und ich weiß, dass viele Leute darüber nachgedacht haben, wie das mit KI gegen KI und so weiter funktionieren würde. In einem Wildwest-Szenario müssen Sie sich wirklich auf das Schlimmste vorbereiten.

Sekhar Sarukkai:
Ja, nein, so wie ich darüber denke, ist Skyhigh einer der Pioniere im Bereich CASB, Skyhigh, als Skyhigh noch das Netzwerk von Skyhigh war und sich dann in Skyhigh Security verwandelte.

Und der Bereich selbst, Gartners Lingo, hat sich von CASB zu SSE Secure Service Edge gewandelt und verfügt über CASB, SWG, RBI und einen Haufen anderer Funktionen, aber ich denke, dass Skyhigh, und ich denke, dass es eine natürliche Erweiterung der SSC-Plattform ist, KI ganzheitlich anzugehen, Denn wenn Sie über Unternehmen nachdenken, so wie wir es bei Skyhigh mit Unternehmensdaten getan haben, und ich glaube, sie werden diesen Bericht über einige sehr faszinierende Daten veröffentlichen, über den Sie sicher einen weiteren Podcast machen werden.

Ich möchte nicht zu viel von den Daten preisgeben, aber einige der interessanten Ergebnisse sind, dass viele Unternehmen KI wirklich begrüßen, aber viele der großen Unternehmen blockieren ChatGPT, weil es eine widersprüchliche Perspektive ist, aber sie sagen, dass es so wichtig ist.

Und es gibt so viele Unbekannte, die ich in meiner eigenen privaten Instanz einsetzen möchte. Anstatt ChatGPT als SASS zu verwenden, richtig? Sie erlauben ihren Mitarbeitern also nicht, Abfragen an ChatGPT zu stellen, aber sie haben ihre eigene Unternehmensinstanz davon. Dort können die Mitarbeiter diese Abfragen stellen, weil sie befürchten, dass Daten in diese schnelle ChatGPT-Umgebung durchsickern könnten, und es ist in Ordnung, wenn sie den Wert erhalten. Wenn es intern ist.

Scott Schlee:
Solange sie die Leitplanken aufgestellt haben, die sie genehmigt haben.

Sekhar Sarukkai:
Ja, nein, nicht nur das. In fast allen diesen Fällen verwenden sie Azure AI, es handelt sich um eine Pass-Implementierung auf einer öffentlichen Infrastruktur, aber innerhalb ihrer VPC nutzen im Wesentlichen nur ihre Mitarbeiter diese Instanz von GPT.

Entweder über die API oder über die Benutzeroberfläche, die ein ChatGPT ist. Ähnlich verhält es sich mit AWS, alle diese öffentlichen Cloud-Umgebungen haben ein ziemlich gesundes Geschäft in diesem Bereich aufgebaut. Der erste Schritt besteht also darin, sich einen Überblick darüber zu verschaffen, welche Art von KI genutzt wird. Dies ist fast die Schatten-IT von vor 10 Jahren, als die Cloud von allen Unternehmen genutzt wurde.

Viele CISOs wollen jetzt wissen, welche KI in meinem Unternehmen eingesetzt wird, welche Geschäftsbereiche, ob sie riskant ist oder nicht. Es gibt einige LLMs, die in Ordnung sind. Einige sind verdächtig, weil Sie nicht wollen, dass sie für Malware-Angriffe und Jailbreaking anfälliger sind, was sich auf die Wahrnehmung des Unternehmens durch Mitarbeiter oder Kunden auswirken könnte.

Diese Sichtbarkeit ist also gegeben. Und mit Attributen, die spezifisch für JNI und LLM sind, ist etwas, das sky als einer der ersten, wenn nicht sogar als erster SSE-Anbieter auf den Markt gebracht hat, richtig? Das heißt, dass Sie nicht nur entdecken können. Sie können nicht nur herausfinden und darüber berichten, welche künstlichen Intelligenzen in einem Unternehmen eingesetzt werden, sondern auch eine risikobasierte Übersicht darüber erhalten, welche davon riskant sind und welche nicht usw.

Aber ich denke, es geht noch weiter, denn ich denke, die Skyhigh-Plattform ist, wie wir alle wissen, nicht wahr? Sie ist tatsächlich sehr stark in der Datensicherheit. Auch die CASB hat ihre Wurzeln in der Datensicherheit. Viele der Bedenken, die Kunden haben, beziehen sich auf Datenlecks, richtig? Deshalb sperren sie sogar ChatGPT, aber sie ermöglichen die private Nutzung und so weiter.

Und es gibt einen großen Anwendungsfall für SSEs rund um Office 365. Ein weiteres interessantes Ergebnis, das Sie auch im SkyHive-Bericht sehen werden, ist, dass es eine LLM oder Gen AI gibt, die bei der Nutzung in Unternehmen im Vergleich zu allen anderen wirklich heraussticht, und zwar um Größenordnungen, etwa um drei Größenordnungen.

Und das ist die Verwendung von Office 365 Copilot. Es ist der Microsoft Copilot und Copiloten bauen auf Ihren Gen AI-Grundmodellen auf. OpenAIs GPT 4. 0, oder vielleicht ist es ein LLAMA-Modell oder ein Haufen anderer. Anthropic, was auch immer es sein mag. Aber im Grunde genommen verwendet Microsoft OpenAI, aber sie haben diesen Microsoft Office 365 Copilot entwickelt, der eine Erweiterung für Office 365 ist.

Es ermöglicht den Nutzern von Office 365 nicht nur eine freie Interaktion wie bei einem ChatGPT, sondern kontextualisiert sie auch mit allen Unternehmensdaten, in die Office 365 Einblick hat. Und wenn Sie an ein großes Unternehmen denken, dann sind sie alle auf Office 365 standardisiert, richtig?

Sie alle haben SharePoint, OneDrive, Microsoft Teams, alle E-Mails, alles, was ein Unternehmen und Sie, die Mitarbeiter im Unternehmen, heute nutzen, um zu interagieren, produktiv zu sein und Werte zu schaffen, ist in einer Microsoft-Plattform, ist irgendwo in einer Microsoft-Plattform gespeichert. Und der Microsoft Copilot indiziert all dies.

Und es gibt einige Kontrollmöglichkeiten, mit denen Sie festlegen können, welche Dokumente Sie nicht indizieren möchten und so weiter. Aber aufgrund der Tatsache, dass der Microsoft Copilot in Office 365 enthalten ist oder als Zusatz zu Office 365 angeboten wird, ist die Akzeptanz von Microsoft Copilot wirklich höher als bei allen anderen. Und das mag die Nutzung von OpenAI und so weiter nach sich ziehen, aber weil die Mitarbeiter Office 365 nutzen, weil sie mit dem Copilot interagieren, weil sich viele sensible Daten in der Microsoft-Umgebung befinden, denke ich, dass der Datenschutz, die natürlichen Erweiterungen von Sky, Datenschutz hat.

In der Copilot-Welt können sie für Kunden enorm wertvoll sein. Da gibt es eine Menge Probleme. Ich weiß, dass Microsoft einige Basiskontrollen hat, aber gerade SSE wird für einige dieser größeren Unternehmen benötigt, und ich denke, mit Copilots wird es noch wichtiger.

Es gibt klassische Beispiele mit Microsoft Copilot, z.B. gibt es Anwendungen, die sich über APIs mit Copilot verbinden können. Und so werden sie zu einem potenziellen Vektor für die Exfiltration von Daten. Es gibt Situationen, in denen es einige sehr interessante Angriffe gibt, die für Copilot auf der jüngsten Black Hat-Konferenz vorgestellt wurden. Wenn Sie daran interessiert sind, sollten Sie nach Copilot suchen und Sie werden einige Angriffsvektoren sehen, mit denen versucht wird, einen Spear-Phishing-Angriff mit Hilfe der Intelligenz der Microsoft Copilot-Plattform durchzuführen.

Sie können den Copiloten sogar dazu bringen, Ihnen zu antworten, wer alles an einem Meeting teilgenommen hat oder wie die E-Mail-Adresse von jemandem lautet, mit dem Sie am meisten kommuniziert haben. Und was ist. Worüber haben Sie zuletzt mit dieser Person gesprochen? Und dann erhalten Sie genügend Informationen aus dieser Interaktion mit Copilot, um eine Nachricht zu verfassen, in der Sie diese Person auffordern, etwas zu tun, was

Scott Schlee:
An die Mitglieder als Gruppe, von Ihrem CEO

Sekhar Sarukkai:
Ganz genau.

Scott Schlee: Shaker, über welche KI-Lösungen verfügt Skyhigh Security und wie bereiten wir uns auf die Zukunft vor?

Sekhar Sarukkai:
Ich glaube, die Kunden fragen heute nach einer besseren Möglichkeit, Copilot-Implementierungen zu verwalten. Es ist also weniger eine Frage der Zukunft als vielmehr eine Notwendigkeit, oder? Und ich weiß, dass Skyhigh in der Lage ist, die Stärken des Datenschutzes für Office 365-Umgebungen zu nutzen und sie auf Copilot anzuwenden, indem es im Grunde dieselbe Art von DLP-Test durchführt, richtig?

Skyhigh verfügt zum Beispiel bereits über Funktionen, um zu sagen: Wenn ich mit Ihnen an einem Dokument arbeite und ich plötzlich, sagen wir, ich bin ein Auftragnehmer. Oder nehmen wir an, ich bin in diesem Fall ein Berater. Scott, Sie teilen etwas mit mir und sind dabei, etwas sehr Sensibles zu teilen, das für Nicht-Mitarbeiter oder Nicht-Führungskräfte oder was auch immer nicht zugänglich ist.

SkyHive bietet bereits die Möglichkeit zu sagen: "Okay, stoppen Sie die Zusammenarbeit an etwas, dessen Inhalt sich geändert hat, weil er sensibler ist, als er sein sollte". Das ist also die gleiche Art von Sache. Wenn Copilot in der Lage ist, bei der Erstellung von Inhalten zu sagen, dass etwas sensibler ist, als ich es habe, dann sollte er es blockieren können.

Sky kann also möglicherweise dabei helfen. Sky arbeitet derzeit mit einem KI-Startup zusammen, das sich auf die Erstellung von Leitplanken konzentriert. Dabei handelt es sich um ein Startup namens Encrypt, das wir für die Risikobewertung aus der Red Teaming-Perspektive integriert haben, aber wir integrieren es auch für Leitplanken, richtig?

Die gleichen Sicherheitsvorkehrungen, die Sie für ChatGPT getroffen haben, um zu sagen, dass Sie nicht jailbreaken sollten, sind also auch für Office 365 wichtig, oder? Sie wollen also nicht, dass Office 365 etwas ausspuckt. Skyhigh kann seinen Kunden also dabei helfen, diese Probleme zu lösen.

Ich denke, dass wir in der Lage sind, die Sensibilität zu verstehen. Aber in Bezug auf die Zusammenarbeit, in Bezug darauf, wer das Dokument sehen kann und in der Lage ist, es nahezu in Echtzeit zu bereinigen, entweder über unsere API-Integrationen, die wir bereits mit Office 365 haben, oder über unseren Proxy, entweder einen Forward- oder Reverse-Proxy, unsere Ansätze, die gerade in Betracht gezogen werden und an denen wir arbeiten.

Scott Schlee:
Ich weiß es wirklich zu schätzen, dass Sie hierher gekommen sind und uns einiges erklärt haben, denn ich weiß, wie ich schon sagte, dass die KI derzeit ein wildes Spiel ist und dass es eine Menge widersprüchlicher Informationen gibt. Einige Leute verstehen einfach nicht, wo die KI steht, wohin sie sich entwickelt und wie Sie Ihre sensiblen Daten schützen können.

Ich hoffe wirklich, dass wir bald wieder miteinander sprechen können, denn ich bin mir sicher, dass in drei Monaten alles ganz anders sein wird. Ich würde mich also freuen, wenn Sie uns wieder auf den neuesten Stand bringen würden.

Sekhar Sarukkai:
Auf jeden Fall, Scott. War mir ein Vergnügen. Und ich bin gerne bereit, mitzumachen. Es gibt viele interessante Themen zu diesem Thema, und wir werden sie behandeln.

Und ich denke, dass es für Unternehmen wichtig ist, einen Einblick zu bekommen, wie die Branche darüber denkt. Die Entwicklung in diesem Bereich und einige der Fragen, die Sie bezüglich der Relevanz von Gen AI gestellt haben. Für die Sicherheit und die Sicherheit von Jenny ist beides sehr wichtig, und das wird mit Sicherheit ein längeres Gespräch werden.

Scott Schlee:
Das ist wahr. Shaker. Wie kann man Sie erreichen, wenn man Sie online finden möchte?

Sekhar Sarukkai:
Ich denke, der beste Weg ist, über LinkedIn nach Shaker zu suchen. Also gut, lassen Sie uns in Kontakt treten, und ich würde mich freuen, wenn Sie uns Ihre Meinung zu diesem aufstrebenden Bereich mitteilen. Das ist von größter Wichtigkeit.

Scott Schlee: Sehr gut.

Seine Informationen finden Sie in den Anmerkungen zur Sendung. Ich werde dort einen kurzen Link für Sie bereithalten und. Sie können sich gerne an ihn, an mich oder an Skyhigh Security wenden. Wir würden gerne mit Ihnen über die Zukunft der KI sprechen und darüber, wie wir Ihnen helfen können.

Sekhar Sarukkai:
Ich danke Ihnen.

Scott Schlee:
Vielen Dank, dass Sie Skyhigh Cloudcast zugehört haben. Wenn Ihnen diese Folge gefallen hat, sollten Sie sie auf Ihrer bevorzugten Plattform abonnieren, damit Sie kein Update verpassen.

Wenn Ihnen die Sendung gefallen hat, hinterlassen Sie uns bitte eine Bewertung. Das hilft anderen, den Podcast zu finden. Für weitere Informationen über Skyhigh Security oder Cloudcast besuchen Sie bitte SkyhighSecurity.com.


Bitte beachten Sie: Alle Transkripte werden mit Hilfe von Spracherkennungssoftware und menschlicher Transkription erstellt und können Fehler enthalten. Bitte überprüfen Sie das entsprechende Audio, bevor Sie es in gedruckter Form zitieren.

Zurück zu Podcasts
Scott Schlee

Gehostet von

Scott Schlee

Digital Experience Manager