ChatGPT Health är en ny specialiserad funktion inom ChatGPT som OpenAI lanserade i januari 2026 för att hjälpa användare att bättre förstå och hantera sin egen hälsa. Tjänsten gör det möjligt att säkert koppla samman medicinska journaler och hälsoappar som Apple Health, MyFitnessPal och Function för att få personliga hälsoinsikter baserade på din egen data. Health är inte tillgänglig i EU länder.
Även andra AI-företag har liknande tech som Google MedGemma 1.5 och Claude for Healthcare, ChatGPT Health och Claude for Healthcare är tillräckligt likartade för att kunna betraktas som direkta konkurrenter
Man kan ladda upp filer direkt eller ansluta appar via + knappen eller Inställningar.
Tillgängliga integreringar
- Medicinska journaler – laboratorieresultat, läkarbesök, medicinhistorik
- Apple Health – tränings- och sömndata (endast iOS)
- Funktion – blodprovanalys och nutritionsförslag
- MyFitnessPal – näringsinformation och recept
- Weight Watchers – måltidsidéer och kostråd för GLP-1-användare
Läkare varnar för farliga konsekvenser
AI kan ge felaktiga svar, missa farliga symtom eller ge råd som låter säkra men är direkt missvisande, särskilt när användare matar in känslig information som sjukdomshistoria, medicinlistor eller psykisk ohälsa.
Julia Borg läkare och ordförande i Läkarförbundets digitaliseringsråd, är skeptisk till att dela journaler med AI-chatbotar och påpekar att AI kan ”hallucinera” – det vill säga hitta på felaktig information. Hon varnar för att det kan bli ”farligt att utgå från att allt AI säger är sant” vilket kan leda till att människor antingen inte söker vård när de borde, eller att symptom med låg risk överutreds och tränger undan verkligt sjuka patienter.
Sofie Zetterström affärsområdeschef på Inera (bolaget bakom 1177), betonar att ”man kan inte lita blint på en AI-tjänst” och att det kan få ”väldigt allvarliga konsekvenser om man följer felaktiga råd”. Hon lyfter ett viktigt juridiskt problem: ”Får du personspecifika råd utifrån dina journaler av en AI så finns ingen ansvarig vårdgivare att återkoppla till om det blir fel”.
En Stanfordstudie som madinsweden.org rapporterar om visar att AI-terapeuter kan ”förstärka vanföreställningar och uppmuntra självmord” och att det redan inträffat dödsfall till följd av användning av kommersiella chattbottar.
Notera att OpenAI har börjat testa annonser i ChatGPT för gratisanvändare och användare av den nya Go-planen, Annonserna placeras längst ner i ChatGPT:s svar och märks tydligt som sponsrade innehåll. Med annonser följer spårning och supercookies är oundvikliga för att visa personliga annonser.
