Große Sprachmodelle wie GPT-4 sind in der Lage sind, reale Sicherheitslücken zu erkennen und auszunutzen, indem sie lediglich Sicherheitshinweise lesen.
Die Künstliche Intelligenz (KI) GPT-4 wirkt beim Versuch, Menschen zu einer bestimmten Meinung zu bewegen, um 82 Prozent überzeugender als ein Mensch mit derselben Intention. Das haben Forscher der Eidgenössischen Technischen Hochschule Lausanne (EPFL) in einem Großversuch herausgefunden.
Neuer KI-König?
Claude 3 Opus ist das neueste KI-Modell aus dem Hause Anthropic, in das auch Amazon aggressiv investiert. Jetzt hat es den bisherigen Spitzenreiter GPT-4 von OpenAI in der renommierten “Chatbot-Arena” überholt und sich den ersten Platz in der Rangliste gesichert.
GPT-4, Llama 2, Gemini Pro und Co.
Vielen öffentlich zugänglichen KI-Assistenten mangelt es an angemessenen Sicherheitsvorkehrungen, um die massenhafte Generierung gesundheitsbezogener Desinformationen über ein breites Spektrum von Themen konsequent zu verhindern, warnen Forscher vom Institut für Cybersicherheit der Technischen Universität Warschau.
HAW Hamburg, Hochschule für Angewandte Wissenschaften
Hamburg, Home Office
Meistgelesene Artikel
27. Februar 2026
16. Februar 2026
12. Februar 2026
31. Januar 2026