
Marcel Bucher, Professor für Pflanzenphysiologie an der Uni Köln, hat zwei Jahre lang mit ChatGPT gearbeitet. Förderanträge, Vorlesungen, Publikationsentwürfe, Klausuranalysen – alles über die KI strukturiert und verfeinert. Dann hat er in den Einstellungen die Datenweitergabe deaktiviert, nur um zu schauen, was passiert. Was wirklich geschah: Alle Chats wurden sofort und unwiderruflich gelöscht. Keine Warnung, kein Rückgängig, kein Backup. Zwei Jahre Arbeit, weg mit einem Klick.
OpenAI verwies auf »Privacy by Design«. Bucher verwies auf Nature, wo er seinen Fall veröffentlichte.
Sein Fehler war nicht, dass er die Einstellung geändert hat. Sein Fehler war, dass er kein Backup hatte. Diesen Fehler machen fast alle.




