OpenAIs Reasoning-Modell o1 hat in einer kontrollierten Studie an der Notaufnahme des Beth Israel Deaconess Medical Center in 67% der Fälle die korrekte oder nahezu korrekte Diagnose gestellt. Zwei erfahrene Internisten kamen auf 55% und 50%. Die Bewertung erfolgte verblindet durch zwei weitere Fachärzte, die nicht wussten, welche Diagnosen von Menschen und welche von der KI stammten.
Die Studie wurde von Forschern der Harvard Medical School durchgeführt und im Fachjournal Science veröffentlicht. Untersucht wurden 76 reale Notaufnahme-Patienten. Das o1-Modell erhielt dieselben Informationen wie die behandelnden Ärzte: Symptome, Vitalwerte, erste Laborergebnisse. Zusätzlich wurde das ältere GPT-4o-Modell getestet, das ebenfalls konkurrenzfähige Ergebnisse lieferte, aber hinter o1 zurückblieb.
Was bedeutet das für KI-Nutzer? Die Studie zeigt, dass künstliche Intelligenz bei strukturierten medizinischen Entscheidungen unter Zeitdruck bereits heute auf Augenhöhe mit Spezialisten arbeitet. Kein Ersatz für Ärzte, aber ein Werkzeug, das in schnellen Entscheidungssituationen Fehler reduzieren könnte. Gerade in überlasteten Notaufnahmen, wo Minuten zählen und Informationen unvollständig sind, liegt darin konkreter Nutzen.
Die Autoren betonen eine wichtige Einschränkung: Die Studie beweist nicht, dass KI Ärzte ersetzen sollte. Die Ergebnisse gelten für Triage und Erstdiagnose, nicht für komplexe Therapieentscheidungen. Und 76 Patienten sind ein Anfang, kein endgültiger Beweis. Aber sie sind ein Signal dafür, wo die Reise mit KI in der Medizin hingeht.
Quellen
- Science: AI is starting to beat doctors at making correct diagnoses
- TechCrunch: In Harvard study, AI offered more accurate emergency room diagnoses than two human doctors
- Harvard Magazine: AI Outperforms Doctors in Emergency Room Tasks
Ähnliche News
Diese Meldung wurde mit Unterstützung von Claude (Anthropic) recherchiert und verfasst. Inhaltliche Fehler sind möglich. Die verlinkten Quellen ermöglichen eine eigene Prüfung. Fachbegriffe erläutert das Glossar.