Du ville bare omformulere et avsnitt. Gjøre notatet litt mer strukturert. Så du limte pasientdata i ChatGPT. Det tok ti sekunder. Men dataene var allerede på vei ut av landet.


Det er ikke vanskelig å forstå hvorfor det skjer. Du har hatt en lang dag med pasienter, journalnotatene hoper seg opp, og du vet at ChatGPT er god til å strukturere tekst. Så du kopierer et notat, limer det inn, skriver «gjør dette mer strukturert og kortfattet» — og får tilbake noe som faktisk er bedre enn det du startet med.

Problemet er ikke at du bruker AI. AI er et nyttig verktøy, og impulsen om å jobbe smartere er helt riktig. Problemet er hva som skjer med pasientinformasjonen i det øyeblikket du trykker enter.

Pasientdata i ChatGPT forlater Norge

Når du limer inn tekst i ChatGPT, sendes den til OpenAIs servere — som ligger i USA. Det samme gjelder DeepSeek (Kina), Google Gemini (USA) og de fleste andre generelle AI-verktøy. Dataene forlater norsk jurisdiksjon, og du har begrenset kontroll over hva som skjer med dem etterpå.

OpenAI har riktignok oppdatert vilkårene sine: innhold fra betalte kontoer brukes ikke til modelltrening med mindre du aktivt velger det. Men gratisversjonen? Der er standardinnstillingen at samtalene dine kan brukes til å forbedre modellen. Og uansett betalingsplan: dataene lagres på servere utenfor Norge, underlagt amerikansk lovgivning.

For pasientdata er dette ikke en teoretisk problemstilling. Helsepersonelloven stiller klare krav til hvordan pasientinformasjon skal behandles. Og GDPR setter strenge rammer for overføring av personopplysninger til land utenfor EØS. Å lime et journalnotat med pasientinformasjon inn i ChatGPT er i praksis en dataoverføring du sannsynligvis ikke har hjemmel for.

Det handler ikke om dårlig dømmekraft

La oss være ærlige: dette er ikke noe som skjer fordi helsepersonell er uforsiktige. Det skjer fordi det mangler gode alternativer. Dokumentasjonsbyrden er enorm — vi har skrevet om hvordan den bidrar til utbrenthet blant leger — og når et verktøy som ChatGPT ligger to tastetrykk unna og faktisk gjør jobben enklere, er det naturlig å bruke det.

Ifølge Helsedirektoratets helsepersonellundersøkelse fra 2025 har bare 10 % av alt helsepersonell tilgang til verktøy som genererer journalforslag fra lydopptak. Det betyr at 90 % ikke har fått et dedikert verktøy for dette — og da er det ikke overraskende at mange finner sine egne løsninger.

Problemet er ikke at folk bruker AI. Problemet er at de må bruke verktøy som ikke er laget for helsevesenet, fordi de ikke har noe bedre.

En arbeidsflyt som starter et annet sted

Tenk på hva som egentlig skjer når du bruker ChatGPT til journalarbeid. Du har allerede hatt samtalen med pasienten. Du har allerede skrevet et notat — eller i hvert fall et utkast. Så sender du det notatet til et eksternt verktøy for å gjøre det bedre. Det er et ekstra steg som introduserer et personvernproblem som ikke trenger å være der.

Medivox snur denne arbeidsflyten. I stedet for å skrive et notat først og deretter bruke AI til å forbedre det, starter du med selve samtalen. Medivox transkriberer pasientsamtalen mens den pågår og genererer et journalutkast basert på det som faktisk ble sagt. Du gjennomgår, justerer og kopierer det inn i journalsystemet ditt.

Det betyr to ting: Du slipper det ekstra steget der du sender pasientdata til et verktøy utenfor din kontroll. Og du får et bedre utgangspunkt — fordi notatet er basert på samtalen, ikke på det du husker fra samtalen.

All pasientdata pseudonymiseres før AI-en ser noe. Pasientens navn erstattes med et fiktivt navn, og all databehandling skjer på norske datasentre. Ingen data forlater Norge.

Bedre notat, tryggere flyt

Forskjellen er ikke bare personvern — det er også kvalitet. Et notat du skriver fra hukommelsen og deretter ber ChatGPT forbedre, er fortsatt basert på det du husket. Et notat generert fra selve samtalen fanger det som faktisk ble sagt — inkludert formuleringer, detaljer og vendepunkter du kanskje hadde glemt.

Forskning publisert i NEJM AI viser at leger som bruker ambient AI-dokumentasjon sparer 30 minutter daglig uten at kvaliteten på notatene synker. I Norge har leger rapportert at de sparer opptil 50 minutter daglig med slike verktøy. Det er ikke bare tidsbesparelse — det er tid du slipper å bruke på å lime tekst mellom systemer og bekymre deg for om du gjør noe du ikke burde.

Medivox har et gratis abonnement du kan bruke så lenge du vil — tre ganger om dagen, uten tidsbegrensning. Det er nok til å prøve det i din egen praksis og se om det fungerer for deg.

Vanlige spørsmål

Hva skjer egentlig med pasientdata jeg limer inn i ChatGPT?
Dataene sendes til OpenAIs servere i USA. På gratisversjonen kan innholdet brukes til å trene modellen videre. Selv på betalte planer lagres dataene utenfor Norge, underlagt amerikansk lovgivning — ikke norsk personvernlovgivning.

Er det ulovlig å bruke ChatGPT med pasientdata?
Det er i beste fall en juridisk gråsone. GDPR setter strenge krav til overføring av personopplysninger utenfor EØS, og helsepersonelloven krever forsvarlig håndtering av pasientinformasjon. Å lime inn identifiserbar pasientdata i et generelt AI-verktøy uten databehandleravtale er vanskelig å forsvare.

Hva gjør Medivox annerledes?
Medivox starter med samtalen i stedet for et ferdigskrevet notat. Pasientdata pseudonymiseres før AI-en behandler noe, og all databehandling skjer på norske datasentre. Du slipper å sende pasientinformasjon ut av landet.

Kan jeg bruke Medivox gratis?
Ja. Medivox har et gratis abonnement med tre bruk per dag — uten tidsbegrensning. Du kan bruke det så lenge du vil for å se om det passer din arbeidshverdag.

Fungerer dette for andre enn fastleger?
Ja. Medivox fungerer for alle som dokumenterer pasientsamtaler — fastleger, psykologer, fysioterapeuter, tannleger, kiropraktorer og spesialister. Systemet tilpasser notatstrukturen til din faggruppe.


Bruk Medivox gratisKom i gang helt gratis


Vil du se hvordan Medivox fungerer i praksis — uten å sende pasientdata ut av landet? Ta kontakt med oss – vi viser deg gjerne en demo.


Kilder: