• Beste gast, wij willen dit platform constant verbeteren maar hebben daarbij jouw hulp nodig!
    Wil je een paar minuten van je tijd spenderen aan deze korte enquête?

Beleid omtrent gebruik van LLM's

Eerste voorlopige afspraken binnen MUMC+:​

Samenvatting / Doel​

Doel huisregels:
  • Ethisch en verantwoordelijk gebruik van LLMs, zoals ChatGPT.
  • Duidelijk bepalen welk gedrag acceptabel is
  • Duidelijkheid over de behandeling en bescherming van informatie bij het gebruik van LLMs.
Ter overbrugging tot landelijke richtlijnen: zie werkwijze.

Uitvoerenden en verantwoordelijken (evt. bevoegdheden)​

Uitvoerende en verantwoordelijkheden zijn in principe de medewerkers zelf. Zij maken gebruik van de LLM’s en moeten dat zorgvuldig doen.

Afkortingen / definities​

AI: Artificial Intelligence
LLM: Large Language Model

Aandachtspunten​

Bescherming van gegevens bij input
Controle op juistheid en interpretatie van de output
Voldoen aan geldende wet- en regelgeving

Werkwijze​

Context​

Voorbeelden van LLMs zijn de modellen GPT-3 en GPT-4. De volgende huisregels gelden voor toepassingen van deze modellen in AI chatbots die gemaakt zijn door commerciële partijen zoals ChatGPT (OpenAI), Bard (Google) en Bing AI (Microsoft).

Huisregels​

  1. Bescherming van privacy
Vermijd altijd het delen van identificeerbare persoonsgegevens (van zowel patiënten als medewerkers). Maak bijvoorbeeld gebruik van geanonimiseerde gegevens. Deze mogen niet herleidbaar zijn naar een individu.

  1. Bescherming bedrijfsgegevens
Vermijd altijd het delen van gegevens die vertrouwelijk zijn en/of niet openbaar gemaakt mogen worden (bijvoorbeeld financiële, strategische of audit gegevens).

  1. Bescherming van je input
Gebruik altijd de instelling dat je input niet gebruikt wordt voor trainingsdoeleinden.

Instellingen ChatGPT:
Settings -> Data controls -> Chat history & training

  1. Professionele controle op correctheid
LLMs zijn een (taalkundig) hulpmiddel en geen vervanging voor professioneel (medisch) advies. Zorg ervoor dat een (zorg)professional altijd de controle heeft over de output en de verantwoordelijkheid draagt voor de juistheid en de interpretatie.

  1. Compliance met nationale en internationale wet- en regelgeving
Gebruik LLMs altijd in overeenstemming met de geldende wet- en regelgeving op het gebied van gezondheidszorg en gegevensbescherming. Zorg er tevens voor dat de toepassing aan de wet- en regelgeving voldoet.
Voor eventueel juridisch advies: juridischezaken@mumc.nl en voor eventueel informatiebeveiliging advies: soc@mumc.nl.

Aanbevelingen​

Hoe je je vraag aan een LLM opschrijft heeft veel invloed op het antwoord dat je krijgt. Hieronder een aantal adviezen:

Beschrijf het publiek voor het antwoord (bijvoorbeeld management, studenten, collega’s, patiënten).
Beschrijf het taalniveau van het publiek (A1/A2 beginner, B1/B2 gevorderd, C1/C2 gevorderd).
Beschrijf het doel van het antwoord (bijvoorbeeld informeren, entertainen, overtuigen).
Beschrijf de vorm van het antwoord (bijvoorbeeld bulletpoints, dialoog, folder).
Beschrijf het perspectief van het antwoord (bijvoorbeeld enthousiast, kritisch, expert).
Geef limitaties zoals het aantal woorden dat het antwoord mag bevatten.
Vraag de AI om meerdere perspectieven en standpunten.

LLMs moeten altijd beschouwd worden als taalmodel, niet als kennismodel. Dit betekent bijvoorbeeld dat je ze niet kan inzetten voor het stellen van een diagnose, maar wel voor het herschrijven van jouw input.

Bronvermeldingen​

Gezien er nog geen landelijke richtlijnen zijn is dit document opgesteld door een intern expert-panel.
 
Uitgangspunten van het RKZ:
Human in the loop
-nog- niet op zorgbeslissende processen, human in the loop (wel voorspellingen)
Geen publieke versies ivm privacy (een standaard GPT voor brieven)

In het kort, het komt, je kan er niet omheen, Denk aan de privacy, gebruik je gezonde verstand, het is een hulpmiddel.
Bij twijfel, vraag ICT voor ondersteuning en kennis.

Succes allemaal
 
In het UMCG hebben we sinds vorige week de volgende richtlijn:

AI-richtlijn voor het UMCG: kansen en verantwoordelijkheden​

04-04-2024
Kunstmatige of Artificiële Intelligentie (AI) speelt een steeds grotere rol in onze maatschappij en ook binnen het UMCG. Het aantal UMCG-collega’s dat gebruikmaakt van AI neemt toe, vooral sinds de komst van gebruikersvriendelijke AI-taalmodellen (Large Language Models of LLM’s) zoals ChatGPT, MS Copilot en Google Gemini.

Voordelen en risico's​

Als UMCG zien we de voordelen van AI; het kan een belangrijke bijdrage leveren aan onze kerntaken onderzoek, onderwijs en zorg. Zo maken we binnen het EPD al gebruik van AI en hiermee zijn we landelijk koploper. Maar het gebruik van AI kan ook risico’s met zich meebrengen, bijvoorbeeld op het gebied van privacy of bedrijfsinformatie.
De kansen en risico’s van het gebruik van AI hebben we gebundeld in de richtlijn ‘Gebruik van generatieve AI in het UMCG'. In dit document geven we kaders voor het veilig gebruik van generatieve AI-taalmodellen (Large Language Models of LLM’s). Het document is bedoeld voor UMCG-medewerkers, studenten en derden die handelen namens het UMCG.
Enkele regels uit het document hebben we op een rijtje gezet:

Gebruik officiële AI-systemen​

Voor teksten: gebruik Microsoft Copilot, altijd in combinatie met inloggen met je UMCG-account.
Voor gebruik in het EPD: ChatGPT in Epic op basis van Epic Nebula.
Voor beide systemen geldt dat deze veilig in gebruik zijn en zowel technisch als contractueel aan de eisen en regels voldoen. Zo weet je zeker dat je gebruikmaakt van veilige en vertrouwde toepassingen.
Zijn dit dan de enige AI-systemen die je mag gebruiken binnen het UMCG?
Wel voor persoonlijke, bedrijfsgevoelige of bedrijfsgegevens. In de praktijk betekent dit dat de volgende tools binnen het UMCG mogen worden ingezet:
Vertrouwelijkheid: Hoog Vertrouwelijkheid: Midden Vertrouwelijkheid:
Standaard
Openbaar
(Bijzondere) persoonsgegevens Bedrijfsgevoelige gegevens Bedrijfsgegevens Openbare gegevens
Epic AI (nebula) ✅ ✅ ✅ ✅
Copilot (na inlog UMCG) ❌ ✅ ✅ ✅
Copilot algemeen ❌ ❌ ❌ ✅
Chat GPT ❌ ❌ ❌ ✅
Google Gemini (voorheen Bard) ❌ ❌ ❌ ✅

Weet wat je doet​

  • Als gebruiker ben je te allen tijde verantwoordelijk voor het gebruik en het resultaat.
  • Gebruik een LLM alleen als hulpmiddel en inspiratiebron
  • Neem kennis van de mogelijkheden en risico’s van Generatieve AI tools en LLM’s
  • Ken de mogelijkheden en beperkingen van de tools die je inzet.
  • Bij twijfel: stel een vraag.

Laat zien wat je doet​

Geef duidelijk aan dat bij de totstandkoming van je product gebruik is gemaakt van Generatieve AI-tooling. Benoem daarbij in ieder geval:
  • Naam en versie van de gebruikte tool
  • Doel van het gebruik
  • Wijze van gebruik

Verifieer​

  • Neem de resultaten van een LLM niet onomstotelijk als waarheid aan. Verifieer de antwoorden, en controleer waar mogelijk de bronverwijzingen (een model als Microsoft Copilot geeft naast de uitkomsten ook een verwijzing naar de gebruikte bronnen). Weet zeker dat je kunt instaan voor de integriteit en juistheid van jouw eindproduct.

Wees bewust​

  • Voer in een publiek LLM geen gevoelige gegevens in. Dus geen bedrijfsgevoelige informatie, geen persoonsgegevens, tenzij dit uitdrukkelijk is toegestaan.
  • Zorg dat je voldoet aan de Informatiebeveiliging- & Privacybeschermingsrichtlijnen, de integriteitscode en de Research Code van het UMCG, waarin Eerlijkheid, Zorgvuldigheid, Transparantie, Onafhankelijkheid en Verantwoordelijkheid centraal staan.
 

Bijlagen

  • Richtlijn Generatieve AI in het UMCG (Versie 1).pdf
    1,1 MB · Weergaven: 39
Terug
Bovenaan