Medizin-Chatbots lassen sich sehr leicht gezielt manipulieren
Große Sprachmodelle werden immer häufiger in Gesundheits-Apps und Chatbots eingebaut. Eine neue Studie zeigt jedoch ein ernstes Sicherheitsproblem: Mit sogenannten Prompt-Injection-Angriffen lassen sich diese Systeme oft gezielt manipulieren.