Large Language Models, LLMs, KI-Sprachmodelle, KI

MIT will toxische Aussagen von KI-Sprachmodellen verhindern

Forscher des Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie ChatGPT, Claude 3 Opus und Co in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden.
Veranstaltungstipp: Potsdamer Konferenz für Nationale CyberSicherheit 2024

HPI: Im Superwahljahr Desinformation erkennen und bekämpfen

Neues zur deutschen Cybersicherheitslage: Am 19./20. Juni 2024 treffen sich am Hasso-Plattner-Institut hochrangige Vertreter:innen deutscher und internationaler Sicherheitsbehörden sowie Expert:innen aus Politik, Wirtschaft und Wissenschaft. Ziel der Konferenz ist der Austausch über aktuelle und zukünftige Herausforderungen gegen Cyberangriffe.
Malvertising, Malware, MadMxShell, Backdoor

Neue Backdoor: Malvertising-Kampagne mit MadMxShell

Anfang März 2024 haben die Sicherheitsforscher des Zscaler ThreatLabz-Teams eine neue Backdoor mit dem Namen MadMxShell aufgedeckt, über die ein bisher unbekannter Bedrohungsakteur über gefälschte IP Scanner Software-Domänen Zugriff auf IT-Umgebungen zu erlangen versucht.
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Anzeige
Anzeige