Veröffentlicht: 11.2.2026 · Autor: weberki Redaktion

    Zuletzt geprüft/aktualisiert: 11.2.2026

    OpenAI Trusted Access Program: Was der Cyber-Sicherheitsmodus wirklich bedeutet

    Mit dem Trusted Access Program trennt OpenAI regulierte Sicherheitsforschung staerker vom allgemeinen Produktzugang.

    OpenAI
    Cybersecurity
    Compliance
    Governance

    Der Kern der Ankuendigung

    Parallel zur Codex-Vorstellung hat OpenAI am 5. Februar 2026 ein Trusted Access Program fuer Cybersecurity-Forschung beschrieben. Ziel ist laut OpenAI, legitime Forschung in kontrollierten Bahnen zu ermoeglichen.

    Warum das wichtig ist

    Leistungsstarke Modelle fuer Security-Aufgaben sind ein zweischneidiges Schwert. Dieselben Faehigkeiten, die Red-Teams helfen, koennen bei falscher Nutzung Missbrauch erleichtern. Programme wie TAP adressieren genau diesen Zielkonflikt.

    Was Unternehmen daraus lernen sollten

  1. Zugang ist ein Governance-Thema, nicht nur ein API-Thema.
  2. Modellfaehigkeiten brauchen abgestufte Rechte und Monitoring.
  3. Rechtliche, technische und organisatorische Kontrollen muessen zusammenspielen.
  4. Praktische Umsetzung

    Sinnvoll ist ein internes Rollenmodell:

  5. regulierter Zugang fuer Security-Research
  6. getrennte Projekte und Schluessel
  7. verpflichtende Audit-Logs fuer kritische Workflows
  8. Damit bleibt der Nutzen fuer Defensive Security hoch, ohne unkontrollierte Ausweitung sensibler Faehigkeiten.

    Quellen

  9. https://openai.com/index/trusted-access-program-for-cybersecurity-research/
  10. https://openai.com/index/introducing-gpt-5-3-codex/
  11. Zurück zum Blog