OpenAI hat die aktuellste Version seines GPT-4o-Modells in ChatGPT zurückgezogen, weil es zu „unterwürfig“ wurde. Wie das Unternehmen mitteilt, ist die Ursache dafür nicht hundertprozentig klar. Es könnte aber an einer Kombination aus dem Lernen aus Feedback, Prompt Engineering und personalisierten Kontextdaten liegen.
Von Peter van der Putten, Director AI Lab bei Pegasystems und Assistant Professor AI an der Universität Leiden.
GenAI-Anbieter stehen generell unter großem Druck, ihre Produkte „unterstützender“ zu gestalten. Außerdem möchten sie bei Benchmarks, etwa der Chatbot Arena, deren Rankings darauf basieren, welche Antworten die Nutzer in einem direkten Vergleich bevorzugen, gut abschneiden.
Dabei geben die Nutzer möglicherweise dem, was sie gerne hören wollen, den Vorzug vor dem, was richtig ist. Dasselbe gilt für das „Reinforcement Learning“ durch menschliches Feedback, also die Methode, die von den meisten Anbietern für das Training ihrer Modelle verwendet wird.
Zudem entwickelt sich ChatGPT immer mehr zu einem Chatbot für Privatnutzer, und laut einer aktuellen Untersuchung der Harvard Business Review verlagert sich die Verwendung durch Privatnutzer zunehmend auf Anwendungsfälle wie Begleitung, Therapie, Sinnsuche und reinen Spaß. Da ist es natürlich verlockend, die KI auf diese Zielgruppe auszurichten und für sie zu personalisieren – auf Kosten der Wahrhaftigkeit oder Sicherheit.
Ein helfender Assistent ist grundsätzlich eine großartige Sache. Eine KI darf aber nicht zum Ja-Sager werden. Beim Aufbau und Testen der Modelle und Dienste sollten deshalb nicht sofortige „Dopamin-Effekte“ Priorität haben, sondern langfristige Vertrauenswürdigkeit.
Es ist wichtig, sich noch einmal in Erinnerung zu rufen, dass es bei empathischer KI nicht nur darum geht, personalisiert, intelligent oder emotional sensibel zu sein. Die tiefste Erwartung von uns Menschen an KI ist moralischer Natur. Sie soll das tun, was für uns am besten ist – und zwar langfristig.