AboKünstliche IntelligenzChatbot stuft Oprah Winfrey als wertvoller ein als Elon Musk
KI-Systeme können eigene Bewertungssysteme entwickeln, unabhängig davon, wie sie trainiert wurden. Manchmal ist das nur wenig schmeichelhaft – teils aber auch besorgniserregend.

Überraschend stabile Präferenzen: KI entwickeln einen Mechanismus, um verschiedene Möglichkeiten zu gewichten und eine davon auszuwählen.
Foto: Lionel Bonaventure (AFP)
In Kürze:
- Eine aktuelle Studie zeigt, dass grössere KI-Modelle stabile Wertvorstellungen entwickeln und konsistent nach diesen handeln können.
- In einem Test versuchte der Chatbot Claude 3 Opus gar seine Präferenzen zu schützen und sich gegen eine Anpassung zu wehren.
- Forschende befürchten, dass künstliche Intelligenzen in Zukunft problematische Verhaltensweisen entwickeln könnten, selbst wenn sie ein vordergründig gutes Ziel verfolgen.