Forscher zeigen, wie leicht sich KI-Modelle durch einfache Variationen in Sprache, Schrift und Bild täuschen lassen, um ihre Verhaltensregeln zu umgehen. Die Ergebnisse werfen dringende Fragen zur Sicherheit und Missbrauchsprävention von Chatbots und anderen KI-Systemen auf.
#KI #Chatbots #Sicherheit
https://t3n.de/news/jailbreak-einfacher-hack-kann-selbst-fortgeschrittene-chatbots-knacken-1666011/