Large Language Models for Cyber Threat Intelligence
Im derzeitigen Cyber Threat Intelligence (CTI) Umfeld ist es für eine/n Security Analyst:in schwierig und zeitaufwändig, relevante Informationen auf ihre Qualität, Vertraulichkeit und Integrität zu prüfen. Dies liegt unter anderem daran, dass in der Regel mehrere verschiedene Informationsquellen an die jeweiligen Cyber Threat Intelligence Umgebungen angebunden werden, um einer/m Security Analyst:in ausreichend Informationen für die Entscheidungsfindung bei einem Cybersecurityvorfall zur Verfügung zu stellen.
Gegenwärtige Cyber Threat Intelligence Analyzer sind nicht in der Lage, adäquate automatisierte Vorabbewertungen der Qualität, Vertraulichkeit und Integrität der eingehenden Daten vorzunehmen, Mehrfacheinträge korrekt zu identifizieren, die Vertrauenswürdigkeit der Quellen zu bewerten und aussagekräftige Lageberichte zu erstellen. Der/die Sicherheitsanalyst:in muss alle Informationen manuell auswerten, um die angemessenen nächsten Schritte bei einem potenziellen Vorfall ableiten zu können. In dieser Sondierung möchten wir das Potenzial von automatisierten Techniken auf Basis von Large Language Models (LLM) ausloten, um Security Analyst:innen zu entlasten und schneller und zielgerichteter auf Cybersecurityvorfälle reagieren zu können. Dabei soll untersucht werden, ob Lagebilder und Vorabeinschätzungen der Qualität, Vertraulichkeit und Integrität von Quellinformationen mit ausreichender Zuverlässigkeit generiert werden können. Auch eine mögliche Vorab-Erkennung von Anomalien soll untersuchtwerden.
Um der digitalen Souveränität Rechnung zu tragen, werden im Rahmen der Untersuchung vor allem Open SourceTools eingesetzt.
- Partner: SBA Research gemeinnützige GmbH, CONDIGNUM GmbH, cyan Security Group GmbH
- Laufzeit: 10/2024 – 09/2025
- Förderprogramm: FFG Mit Regulierung und Souveränität zur Innovation - Digitale Technologien 2023
