Webinar: Säkerhetsrisk med generativ AI på jobbet – så skyddar du kunddata, källkod och affärshemligheter
Användningen av generativ AI med verktyg som ChatGPT, Copilot och andra språkmodeller ökar snabbt i de flesta organisationer. De effektiviserar arbetet och skapar konkurrensfördelar – men samtidigt ökar risken för att känslig information oavsiktligt delas med externa tjänster.
Många verksamheter saknar idag insyn i hur AI används i praktiken: Vilka data matas in? Av vem? Och hur skyddas kundinformation, källkod och affärskritiska hemligheter när medarbetare använder AI i vardagen?
I detta webinar går vi igenom hur en modern AI-säkerhetslösning kan ge din organisation full insyn och kontroll över AI-användningen – utan att hämma innovation eller produktivitet.
När: Den 5 juni 09.00-09.30
Plats: Online (vid din dator)
På 30 minuter lär du dig:
- Hur känslig information kan läcka till språkmodeller utan att det märks, och hur prompt injection-attacker fungerar i praktiken
- Hur du får realtidsinsyn i all AI-användning inom organisationen
- Hur en AI-säkerhetslösning automatiskt identifierar och censurerar känslig information innan den skickas till externa tjänster
- Hur du kan styra åtkomst till AI-applikationer och övervaka vilken information som matas in
- Hur implementeringen kan göras smidigt med ett webbläsartillägg utan tunga integrationsprojekt
- Hur lösningen stöttar GDPR-arbetet och ger bättre kontroll på personuppgifter, – både tekniskt och vid införande.
Vem riktar sig webinaret till?
Webinaret är för dig som har ansvar för säkerhet, data eller verksamhetsutveckling och vill dra nytta av generativ AI utan att tappa kontrollen över riskerna.
Webinaret passar dig som är:
- IT-chef eller informationssäkerhetsansvarig med ansvar för organisationens säkerhetspolicy
- CISO eller dataskyddsansvarig som bedömer risker kopplade till AI-användning
- IT-manager som ansvarar för de verktyg och tjänster som används av medarbetarna
- Affärsansvarig som vill driva innovation med generativ AI utan att äventyra kundförtroende eller regelefterlevnad
- Utvecklingschef eller arkitekt som planerar säker integration av AI i företagets system
Talare
Carl-Johan Wahlberg, cybersecurity Lead, HiQ
Carl-Johan har lång erfarenhet av att stötta företag inom cybersäkerhet, riskhantering och regelefterlevnad. I dag är han med i HiQs arbete med att hjälpa företag att möta AI-eran med både trygghet och framåtanda.
Patrick Reischl, Staff Solutions Engineer, SentinelOne
Patrick har över 18 års erfarenhet inom cybersäkerhet och teknsik försäljning, där han har avancerat från customer support på Symantec till sales/solution engineering på Palo Alto Networks, Cybereason och SentinelOne. Idag arbetar han som Staff Solutions Engineer på SentinelOne i Stockholm, där han leder komplexa kundengagemang och bidrar med tekniskt ledarskap inom endpoint-, moln-, identitets- och data-säkerhet.