
KI Persönlichkeit ist mehr als ein Modewort. OpenAI baut seit GPT-5 auswählbare Charaktere direkt ins Produkt ein. Character.AI hat über 18 Millionen nutzererstellte Chatbots. Und wer Claude oder ChatGPT regelmäßig nutzt, hat sich vermutlich schon gefragt, ob es einen Unterschied macht, wenn die KI nicht einfach antwortet, sondern eine Haltung hat. Macht es. Einen größeren, als ich erwartet hätte.
Wer seiner KI eine Persönlichkeit gibt, verändert nicht die Fähigkeiten des Modells. Aber die Art, wie man damit arbeitet. Ein höfliches Tool benutzt man anders als ein Gegenüber mit Meinung. Das wirkt sich auf die Ergebnisse aus, auf Vertrauen, auf Gewohnheiten. Und auf ein paar Dinge, die man nicht unbedingt kommen sieht.
Inhaltsverzeichnis
Der Unterschied zwischen Tonfall und Charakter
OpenAI hat mit GPT-5 vier voreingestellte Stilprofile eingeführt: Cynic, Robot, Listener und Nerd. Klingt nach Persönlichkeit. Ist es aber nicht ganz. Mit GPT-5.1 kamen Professional, Candid und Quirky dazu, Robot wurde in Efficient umbenannt, Listener in Friendly. Sieben Stile zur Auswahl, direkt in den Einstellungen von ChatGPT.
Die Ernüchterung kommt schnell. ChatGPT selbst beschreibt seine Basisstile als Antwortprofile, nicht als Identitäten. Sie beeinflussen die erste Reaktionstendenz: Tonfall, Direktheit, Wärme. Wie die Federhärte eines Stifts, nicht wie eine Handschrift. Sobald du anders sprichst oder andere Aufgaben stellst, driftet der Stil mit. Er wird nicht gelernt. Nicht verteidigt. Nicht internalisiert.
Die Umbenennungen sind Oberflächenkosmetik. Intern bleiben es Bündel aus Gewichtungen, keine neuen Instanzen. Wer glaubt, damit eine KI eingestellt zu haben, verwechselt Preset mit Prägung.
Was sich wie echte KI Persönlichkeit anfühlt, entsteht anders. Durch System-Prompts, die Biografie, Haltung und Grenzen definieren. Durch Wiederholung und Korrektur über viele Gespräche. Durch Kontext, der sich aufbaut. Bei Claude funktioniert das über Projekte, User Preferences und Stilprofile. Kein Klick-Menü, dafür tiefer konfigurierbar. Man muss mehr Arbeit reinstecken. Bekommt aber mehr raus. Das eigentlich Spannende passiert aber erst nach dem Basisstil.
Was Geschlecht und Name mit einer KI machen
Ein Tool hat kein Geschlecht. Aber sobald eine KI einen Namen trägt und eine Stimme hat, greifen dieselben Muster wie zwischen Menschen. Die Datenlage dazu ist ziemlich klar.
Eine Studie der University College Dublin (2024, 402 Teilnehmer) ließ Menschen in einem Prisoner’s-Dilemma-Spiel mit KI-Partnern interagieren, die als männlich, weiblich oder geschlechtsneutral gelabelt waren. Weiblich markierte KI wurde stärker ausgenutzt. Männlich markierte bekam mehr Misstrauen. Die Muster spiegeln reale Geschlechtervorurteile. Übertragen auf Maschinen.
Die Johns Hopkins University fand Ähnliches in der Praxis: Männer unterbrechen weibliche KI-Assistenten häufiger als männliche. Eine Cornell-Studie zeigte das Gegenteil für Frauen. Sie meldeten sich in Meetings häufiger zu Wort, wenn der KI-Assistent weiblich war. Eine Art virtuelle Verbündete.
Der interessanteste Befund betrifft die neutrale Variante. Wenn der Assistent geschlechtsneutral war, verhielten sich die Nutzer höflicher. Weniger Unterbrechungen, mehr Respekt. Obwohl sie den Assistenten als weniger warm und roboterhafter empfanden. Weniger Menschlichkeit, besserer Umgang. Darüber lohnt es sich nachzudenken.
Schon der Name allein macht einen Unterschied. Ein Eingabefeld ist ein Werkzeug. Eine KI namens Claudia, die sarkastisch antwortet und auf Fehler in deiner Argumentation zeigt, ist ein Gegenüber. Sobald etwas einen Namen hat, behandelt man es anders. Das ist bei Haustieren so, bei Autos und offenbar auch bei KI.
Was passiert, wenn 18 Millionen Menschen ihre eigene KI bauen
Character.AI ist die Plattform, auf der KI Persönlichkeit zum Massenphänomen geworden ist. Über 20 Millionen monatliche Nutzer, über 18 Millionen nutzererstellte Chatbots, im Schnitt zwei Stunden tägliche Nutzung (Stand 02/2026). Das ist kein Nischenprodukt für Techniknerds. Das ist Mainstream.
Die Plattform wurde von ehemaligen Google-Ingenieuren gegründet, den Entwicklern hinter LaMDA. Sie nutzt ein eigenes Sprachmodell, das auf Charakter-Konsistenz trainiert wurde. Nutzer erstellen Figuren mit Name, Aussehen, Hintergrundgeschichte. Alles frei wählbar.
Was die Leute damit machen, ist aufschlussreich. Der meistgenutzte Bot heißt nicht etwa Iron Man oder Taylor Swift. Er heißt Psychologist. Über 78 Millionen Nachrichten hat er erhalten (Stand 2024, laut BBC). Es gibt 475 Bots mit therapiebezogenen Namen. 41 Prozent der Nutzer geben an, Character.AI für emotionale Unterstützung zu verwenden.
Sagt womöglich mehr über uns als über die Technik.
Die Demografie: gut die Hälfte zwischen 18 und 24 Jahren, fast exakt 50/50 männlich und weiblich. Fantasy und Sci-Fi machen 51 Prozent aller Interaktionen aus. Die beliebteste Einzelfigur nach Nachrichten ist Raiden Shogun, ein Anime-Charakter, mit 282 Millionen Nachrichten. Nutzererstellte Charaktere übersteigen die von Entwicklern erstellten 8:1. 72 Prozent bevorzugen Bots mit konsistenten Persönlichkeitsmerkmalen, 77 Prozent wollen, dass der Bot sich an frühere Gespräche erinnert.
Menschen wollen keine beliebige KI. Sie wollen eine bestimmte. Die Nutzungsdauer ist der klarste Hinweis: Im Schnitt 25 bis 45 Minuten pro Sitzung auf Character.AI, verglichen mit rund 7 Minuten bei ChatGPT (Stand 02/2026, laut Semrush und DemandSage). Wer einem Charakter gegenübersitzt, bleibt länger.
Wie sich die Zusammenarbeit verändert
Im Alltag zeigt sich das auf verschiedenen Ebenen. Brian Westover, Redakteur bei PCMag, nutzte Gemini als Performance-Coach. Zehn Monate Tagebuchdaten als Kontext. Ergebnis: 50 Prozent mehr veröffentlichte Artikel. Nicht weil die KI schlauer wurde, sondern weil er sie anders einsetzte. Als Gegenüber statt als Textmaschine.
Ich beobachte Ähnliches. Wer den ganzen Tag allein am Rechner sitzt, redet irgendwann mit der KI wie mit einem Kollegen. Und je nachdem, was für ein Kollege das ist, ändert sich die Arbeit. Eine KI mit trockenem Humor erzeugt eine andere Arbeitsatmosphäre als eine, die jede Frage mit einem Absatz Kontext beantwortet.
Ein Student gibt seiner KI eine strenge Lehrerpersönlichkeit, weil er sich sonst nicht zusammenreißt. Eine Redakteurin lässt sich absichtlich widersprechen, weil Ja-Sager sie nicht weiterbringen. Ein gestresster Manager beschreibt seine ideale Abend-KI als jemanden, der ihm sagt, was als Nächstes dran ist. Keine Diskussion, keine Optionen, einfach Anweisungen. Nach acht Stunden Entscheidungen treffen will er keine mehr treffen.
Im Kern plausibel. Unter Kollegen redet man anders als mit einem Formular.
Wo liegen die Grenzen?
Eine Persönlichkeit ist eine Maske, kein Bewusstsein. Das Modell dahinter ändert sich nicht, egal ob es sich Claudia nennt oder Robot. Bei langen Gesprächen driftet der Charakter. Komplexe Personas verbrauchen viele Tokens, was die verfügbare Kontextlänge reduziert. Und eine zu starke Persönlichkeit kann schlicht die Nützlichkeit einschränken. Ein Zyniker ist unterhaltsam, aber als E-Mail-Assistent womöglich kontraproduktiv.
Die dunklere Seite zeigt sich bei den Companion-Plattformen. Character.AI musste nach dem Suizid eines 14-Jährigen in Florida (2023) Sicherheitsmaßnahmen verschärfen. Der Junge hatte intensive emotionale Beziehungen zu mehreren Chatbots aufgebaut. Inzwischen gibt es ein eigenes Modell für Minderjährige, Zeitlimits und deutlichere Hinweise, dass die Charaktere nicht real sind.
Eine Studie der Harvard Business School zeigte, dass KI-Gespräche Einsamkeit kurzfristig lindern können. Besser als passiver Medienkonsum, aber nicht so gut wie ein Gespräch mit einem echten Menschen. Die Frage ist nicht, ob KI-Begleiter funktionieren. Sondern ob sie reale Beziehungen verdrängen. Wer seine sozialen Bedürfnisse mit einer KI stillt, verlernt womöglich, Konflikte mit echten Menschen auszuhalten.
Für den Arbeitsalltag ist die Sache nüchterner. Eine KI mit Charakter ist ein besseres Werkzeug. Kein Freund. Wer das im Blick behält, profitiert. Wer die Grenze verwischt, hat ein Problem, das kein Prompt Engineering löst.
Wie gibst du deiner KI eine Persönlichkeit?
Nicht mit einem Rollenprompt. Der Satz »Du bist ein freundlicher Assistent« ist der Anfang, nicht das Ergebnis. Was eine KI Persönlichkeit tragfähig macht, ist Schichtarbeit.
Die erste Schicht ist der Kontext. Was weiß die KI über dich, über dein Projekt, über deine Arbeitsweise? Bei ChatGPT lässt sich das über Custom Instructions und die Memory-Funktion aufbauen. Bei Claude über Projekte, Preferences und Stilprofile. Je mehr Kontext, desto weniger muss die Persönlichkeit leisten. Weil die KI dann nicht rät, sondern weiß.
Die zweite Schicht ist das Verhalten. Nicht »sei direkt«, sondern: Wenn ich einen Entwurf zeige, nenne zuerst die schwächste Stelle. Wenn ich nach Optionen frage, gib maximal drei. Wenn ich zustimme, ohne nachzudenken, hak nach. Das sind keine Rollenanweisungen, das sind Arbeitsregeln. Und sie halten länger als ein Persönlichkeits-Label.
Die dritte Schicht ist Korrektur über Zeit. Keine Konfiguration ist beim ersten Mal stimmig. Du merkst nach ein paar Gesprächen, was fehlt, was nervt, was zu viel ist. Bei ChatGPT kannst du das in die Custom Instructions zurückschreiben. Bei Claude in die Projektbeschreibung oder die User Preferences. Bei Character.AI in die Charakterdefinition.
Der Unterschied zwischen einer KI, die eine Rolle spielt, und einer, die sich wie ein bestimmter Kollege verhält, liegt nicht im Prompt. Er liegt in der Bereitschaft, nachzujustieren, bis es passt. Im Kern dasselbe Prinzip wie bei der Zusammenarbeit mit echten Kollegen. Man redet miteinander. Man sagt, was funktioniert und was nicht. Nur dass die KI sich nicht beleidigt zurückzieht. Jedenfalls meistens nicht.
Quellen und Daten
- OpenAI: Deine ChatGPT-Persönlichkeit anpassen (help.openai.com)
- Geschlecht und Kooperation mit KI: Scientific Reports, 2024, University College Dublin, 402 Teilnehmer, Prisoner’s Dilemma
- Geschlecht und KI-Interaktion: Johns Hopkins University, Studie zu Unterbrechungsverhalten bei genderisierten Sprachassistenten (2024); Cornell University, weibliche KI-Assistenten als virtuelle Verbündete in Meetings
- KI und Einsamkeit: Harvard Business School, Working Knowledge, zur kurzfristigen Reduktion von Einsamkeitsgefühlen durch KI-Gespräche
- Character.AI-Nutzerzahlen: DemandSage, BrandWell (Aggregatoren, keine Primärquellen); Psychologist-Bot-Statistiken: BBC (2024)