
OpenAI har lanserat en ny ChatGPT-funktion i USA som svarar på medicinska frågor och ger råd om patienters hälsa. För läkemedelsindustrin kan den nya tjänsten innebära ett paradigmskifte i hur patienter konsumerar medicinsk information.
Den nya funktionen uppmanar användarna att dela sina journaler tillsammans med data från hälsoappar och smarta klockor, vilka sedan analyseras för att ge personliga råd och stöd. Det går att ladda upp röntgenutlåtanden, remisser eller sammanfattningar från läkarbesök för att få dem förklarade på ”vanlig svenska”.
Enligt OpenAI får tjänsten inte ställa medicinska diagnoser. Den ska i stället hjälpa patienter att förstå vad exempelvis provsvar betyder så att de kan ställa bättre frågor till sin läkare. Vid akuta symtom ska den hänvisa direkt till sjukvården. Det sistnämnda har dock visat sig vara bristfälligt då en del patienter fått rådet att boka ett läkarbesök i stället för att åka direkt till sjukhus.
Potentiella fördelar
- Genom att koppla upp sig mot patientens medicineringsschema kan AI:n fungera som en intelligent coach som förklarar verkningsmekanismer på en individanpassad nivå, vilket skulle kunna öka följsamheten.
- Om anonymiserade data kan slås samman, ger det läkemedelsföretag en unik inblick i hur läkemedel används och upplevs i vardagen utanför kliniska studier.
- AI:n kan matcha patienters journaldata mot kriterier för kliniska studier för att hitta lämpliga deltagare mer effektivt.
Potentiella nackdelar
- Risken finns att AI:n genererar felaktiga råd om dosering eller kontraindikationer, vilket skapar en osäkerhet kring medicinskt ansvar.
- Läkemedelsbolag tappar kontrollen över hur deras produkter presenteras. AI:n sammanställer information från olika källor, vilket kan leda till att viktiga säkerhetsvarningar tonas ned eller missuppfattas.
- Om patienter börjar förlita sig på en sluten AI-plattform kan kritisk information stanna där i stället för att nå behandlande läkare eller biverkningsrapporteringssystem.
- Vem bär ansvaret om en patient nämner en biverkning för AI:n? Det skapar en juridisk gråzon för bolagens lagstadgade skyldighet att monitorera säkerhet.
Vad kan läkemedelsföretag göra?
AI-modeller tränas på stora mängder data. Om ett läkemedelsföretags officiella information är svåråtkomlig eller tekniskt komplicerad kan AI:n istället hämta information från tredjepartskällor eller diskussionsforum. Exempel på åtgärder:
- Optimera medicinsk information (FASS, bipacksedlar, kliniska studier och egna hemsidor) så att den blir lättläst för AI. Användning av strukturerad data underlättar för ChatGPT att hämta korrekt fakta om verkningsmekanismer och säkerhetsprofiler.
- Samarbeta med OpenAI för att bygga in ”automatiska triggers”. Om en patient beskriver en möjlig biverkning i ChatGPT Health, kan AI:n uppmana användaren att skicka en rapport eller erbjuda en direktlänk till bolagets säkerhetsavdelning.
Lansering
I dagsläget (april 2026) rullas ChatGPT Health ut stegvis. Den finns tillgänglig i USA och flera andra regioner men på grund av strikta dataskyddslagar (som GDPR) kan vissa funktioner, såsom direktkoppling till patientjournaler, dröja eller se annorlunda ut i EU och Sverige.
Mer information:
Navigating Health | with ChatGPT
https://www.youtube.com/watch?v=305lqu-fmbg
ChatGPT Health launches: What a cardiologist thinks about using A.I. for health advice
https://www.youtube.com/watch?v=HxudOrrVM3A