Everyone is finding vulns. The hard part is proving them.
LLMs are a genuine leap forward for vulnerability discovery. Anthropic reported 500+ zero-days from Opus 4.6 and OpenAI's Codex Security discovered 14 CVEs across projects like OpenSSH and GnuTLS. If you've experimented with LLMs for security testing, you've probably been impressed too. The...
Der Artikel bewertet LLMs als wichtigen Fortschritt bei der Schwachstellensuche. Er nennt Berichte über mehr als 500 Zero-Days durch Anthropic Opus 4.6 sowie 14 von OpenAI Codex Security entdeckte CVEs in Projekten wie OpenSSH und GnuTLS, betont aber, dass der Nachweis von Schwachstellen schwierig bleibt.
Sicherheits- und Entwicklungsteams, die LLMs für Security Testing einsetzen; genannte Projekte: OpenSSH und GnuTLS.
Viele gefundene Schwachstellen sind nur dann operativ nützlich, wenn sie zuverlässig validiert und priorisiert werden können.
Realistischer Worst Case: Organisationen erzeugen viele unbestätigte Schwachstellenmeldungen und übersehen dabei die Notwendigkeit belastbarer Validierung; konkrete Angriffe sind nicht im Artikel angegeben.
LLM-basierte Findings mit reproduzierbarer, defensiver Validierung, Code Review und etablierten Sicherheitsprozessen prüfen.
- ▸Defensiver Check 1: Prozess definieren, der LLM-Findings nur nach reproduzierbarer Validierung als bestätigte Schwachstellen akzeptiert.
- ▸Defensiver Check 2: LLM-Ergebnisse gegen traditionelle SAST-, DAST- oder manuelle Review-Ergebnisse abgleichen.
- ▸Defensiver Check 3: Tracking für False Positives, bestätigte Befunde und Fix-Status bei LLM-generierten Findings einführen.
- Konkrete CVE-IDs, technische Details der Schwachstellen, Exploitability, betroffene Versionen und IOCs sind nicht im Artikel angegeben.