Wie vermutet, merkt sich OpenAI / ChatGPT nun, was man so chatted. Aus dem Chatverlauf wird ein Profil generiert und im sogenannten „Memory“ gespeichert.
Das Chatten soll sich dadurch verbessern, da ChatGPT dann einiges über die Person weiß und ständig dazulernt, z.B. was die Interessen sind, ob mensch Kinder hat …
Damit bietet chatGPT eine neue Angriffsfläche: Wer Zugriff auf das Profil bekommt, weiß einiges über die Person und kann das gezielt ausnutzen. Zunächst OpenAI und vermutlich auch Microsoft, aber künftig vielleicht auch Partner, die passgenauen Content liefern, wie mensch es von den Social Media Plattformen kennt. Und Kriminelle dürften auch ein Interesse haben, denn Identitätsdiebstahl wird mit einem gehackten Profil leichter.
Im Default ist der „Memory“ aktiviert und wird auch zum Training des LLM genutzt – immerhin kann beides in den Tiefen der Einstellungen deaktiviert werden (aber eben nur als Opt-Out). Auch wenn es mühsamer ist und der Chat vielleicht nicht so flüssig startet wie mit „Gedächtnis“ sollte jede*r die Memory-Funktion deaktivieren.
Weitere Informationen
Nachtrag vom 10. Juni 2024:
Die Memory-Funktion ist seit Ende April weltweit für ChatGPT Plus-Accounts verfügbar, allerdings bislang noch nicht in Europa und Korea.
Immerhin ist das „Gedächtnis“ transparent, d.h. Anwender können einzelne Erinnerungen löschen, wovon -sofern es aktiviert ist- auch Gebrauch gemacht werden sollte, siehe
https://help.openai.com/en/articles/8590148-memory-faq .