Large Language Models, LLMs, KI-Sprachmodelle, KI

MIT will toxische Aussagen von KI-Sprachmodellen verhindern

Forscher des Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie ChatGPT, Claude 3 Opus und Co in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden.
Veranstaltungstipp: Potsdamer Konferenz für Nationale CyberSicherheit 2024

HPI: Im Superwahljahr Desinformation erkennen und bekämpfen

Neues zur deutschen Cybersicherheitslage: Am 19./20. Juni 2024 treffen sich am Hasso-Plattner-Institut hochrangige Vertreter:innen deutscher und internationaler Sicherheitsbehörden sowie Expert:innen aus Politik, Wirtschaft und Wissenschaft. Ziel der Konferenz ist der Austausch über aktuelle und zukünftige Herausforderungen gegen Cyberangriffe.
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Anzeige
Anzeige