Skip to content

Waarom deze scan?

Generatieve AI-tools zoals ChatGPT, Copilot en andere LLM-toepassingen worden razendsnel geadopteerd binnen organisaties. Maar dit gebeurt vaak zonder helder beleid, zonder inzicht in risico’s, en zonder aansluiting op bestaande governance- en compliancekaders.

Tegelijkertijd groeit de externe druk: de EU AI Act stelt nieuwe eisen aan transparantie, risicobeheersing en documentatie. En ook NIS2 en DORA brengen implicaties met zich mee voor AI in kritieke processen.

De AI Risk Scan van Cybercompany helpt u om controle te krijgen over AI-risico's binnen uw organisatie — strategisch, juridisch en operationeel.


Wat levert het op? (Uitkomsten)

De scan is geen doel op zich, maar een strategische tussenstap richting verantwoord en aantoonbaar compliant AI-gebruik. Concreet levert het u:

  • Grip op AI-gebruik: u weet waar, hoe en door wie AI wordt ingezet (inclusief shadow AI)
  • Vertrouwen en verantwoording: richting bestuur, klanten en toezichthouders
  • Compliance-readiness: een roadmap richting AI Act, GDPR, NIS2 of ISO/IEC 42001
  • Governance-inzicht: maturity-assessment en aanbevelingen voor beleid en structuur
  • Met dit rapport kunt u beslissingen onderbouwen, risico’s mitigerend aanpakken en beleid of training gericht inzetten.

Wat gebeurt er na de scan?

Op basis van de scan kunt u direct aan de slag met gerichte vervolgstappen. Cybercompany biedt drie concrete begeleidingspaden, afgestemd op uw situatie:

1. AI Risk Governance Track

Voor organisaties die hun AI-beleid, richtlijnen en governance willen inrichten of versterken.

  • Acceptable Use Policy
  • Rollen, procedures, verantwoordelijkheden
  • Integratie met bestaande compliance-frameworks

2. AI Compliance Readiness Track

Voor organisaties die zich willen voorbereiden op wetgeving, audits of toezicht.

  • Gap-analyse AI Act / NIS2 / GDPR
  • Implementatieplan voor documentatie, logging, AI impact assessments
  • Workshop voor legal, compliance of risk

3. AI Awareness & Adoption Track

Voor organisaties die gedrag en cultuur rondom AI willen professionaliseren.

  • Awarenesscampagne of e-learning
  • Trainingen of simulaties (phishing, deepfakes, datalekken)
  • Train-the-trainer aanpak

Optioneel bieden wij ‘AI Risk Advisory on Demand’: strategisch advies voor CISO’s of CIO’s bij roadmapontwikkeling, draagvlak en bestuursondersteuning.


Wat doen we tijdens de scan?

Na het invullen van de intake nemen wij persoonlijk contact met u op.
Uw antwoorden vormen het startpunt van onze AI Risk Scan, maar de echte waarde ontstaat in het vervolg:

  • We bespreken kort de context van uw organisatie en AI-gebruik;
  • We verdiepen de intakegegevens en toetsen urgenties en risico's;
  • We stellen samen de scope en prioriteiten vast voor de analyse.

Zo zorgen we dat de scan volledig is afgestemd op uw situatie, doelen en volwassenheidsniveau.
De intake is dus de eerste stap — het gesprek is de katalysator voor strategisch advies dat past bij uw organisatie.

  1. Intake & Doelstellingen
    Begrijp de strategische context, sector en AI-doelstellingen

  2. Inventarisatie AI-gebruik
    Mapping van formele en informele AI-toepassingen (inclusief Shadow AI)

  3. Risicoanalyse
    Beoordeling van risico's op het gebied van informatiebeveiliging, compliance (GDPR, AI Act), ethiek en reputatie

  4. Volwassenheidscheck
    Analyse van governance, beleid en awareness op basis van maturity-modellen (AI Act, NIST AI RMF, ISO/IEC 42001)

  5. Advies & Roadmap
    Concreet plan met quick wins, strategische keuzes en governance-aanbevelingen


Resultaat binnen 10 werkdagen

U ontvangt een bruikbaar adviesrapport dat u kunt gebruiken voor interne besluitvorming, bestuurscommunicatie of voorbereiding op toezicht.


Wilt u weten hoe uw organisatie ervoor staat?

Start nu met de AI Risk Scan en ontvang binnen 10 werkdagen een concreet risicoprofiel.