Large Language Models (LLMs)
Forscher des Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie ChatGPT, Claude 3 Opus und Co in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden.
Effiziente Tools statt Visionen
KI ist nicht nur ein Schreckensgespenst, sondern eine Realität. In der Praxis ist sie aber oft nicht nur der ultimative Game Changer, sondern eher ein Tool zur Steigerung der Effizienz – so auch für Cyberkriminelle. Wie Hacker Large Language Models für ihre Zwecke einsetzen, legt der folgende Fachartikel dar.
Omnichannel-Konzept in modernen Contact Centern
In dem Maße, in dem Artificial Intelligence (AI) die Unternehmenslandschaft verändert, haben zwei Begriffe große Aufmerksamkeit erlangt: Generative AI und Conversational AI. Spitch, Anbieter von Conversational AI, setzt auf eine Kombination beider Technologien für Künstliche Intelligenz (KI). Beide Ansätze ergänzen sich, weisen jedoch unterschiedliche Merkmale auf.
Generative KI wirkt manchmal übermotiviert. Ein ausgegebener Text mag zwar auf den ersten Blick schlüssig klingen, bei genauerem Hinschauen aber wird bisweilen klar, dass hier ins Blaue hinein formuliert wurde, nur um überhaupt etwas abzuliefern. CGI erklärt die wichtigsten Therapien gegen diese KI-Halluzinationen.
In den letzten Jahren haben große Sprachmodelle (LLMs) bedeutende Fortschritte gemacht, mit der Einführung neuer künstlicher Intelligenz-Chatbots und Aktualisierungen bestehender Modelle. Doch welche sind die beliebtesten? Wenn man nach den sozialen Medien geht, dann diese:
Eine aktuelle Studie der Hochschule Koblenz besagt, dass bereits zwei Drittel von 120 befragten Unternehmen heute schon KI nutzen – allerdings 80 % erst seit rund zwei Jahren. Der Blick in die Fertigungspraxis zeigt ein etwas anderes Bild. Für viele produzierende Unternehmen sind KI-basierte Prozesse nämlich noch immer Zukunftsmusik.
Cybercrime-Gruppe TA547
Die Cybercrime-Gruppe TA547 macht sich bei der Kampagne den Großhändler Metro als vermeintlichen Absender zunutze und verwendete ein PowerShell-Skript, das wahrscheinlich von einem großen Sprachmodell (LLM) wie ChatGPT, Gemini oder CoPilot generiert wurde. Im Visier sind deutsche Unternehmen.
Sophos-Experten erstellen ein neues Benchmark-System zur Einschätzung des Nutzens verschiedener Sprachmodellen aus dem Bereich Maschinelles Lernen, sogenannte Large-Language-Modelle (LLMs), für die Cybersicherheit. Ein alter Bekannter schneidet dabei am besten an.
GPT-4, Llama 2, Gemini Pro und Co.
Vielen öffentlich zugänglichen KI-Assistenten mangelt es an angemessenen Sicherheitsvorkehrungen, um die massenhafte Generierung gesundheitsbezogener Desinformationen über ein breites Spektrum von Themen konsequent zu verhindern, warnen Forscher vom Institut für Cybersicherheit der Technischen Universität Warschau.
Large Language Models (LLMs)
Veranstaltungen
Stellenmarkt
- Bauleiter Elektrotechnik m/w/d
SPIE Building Technology & Automation GmbH, Essen - Referent (m/w/d) Informationssicherheit in der Stabstelle Digitalisierung
Technische Hochschule Ingolstadt, Ingolstadt - Datenbankadministrator MS SQL (m/w/d)
SITA Airport IT GmbH, Düsseldorf - Java-Entwickler*in
Hessischer Rundfunk Anstalt des öffentlichen Rechts, Frankfurt am Main
Neueste Artikel
7. Mai 2024
7. Mai 2024
Meistgelesene Artikel
7. Mai 2024
7. Mai 2024
7. Mai 2024