Standpunkt

AI ≠ Blackbox: Warum nachvollziehbare KI im öffentlichen Bau anders aussehen muss

Black-Box-KI ist im deutschen Vergaberecht keine Frage des Geschmacks – § 8 VgV verlangt nachvollziehbare Entscheidungen. Was das praktisch heißt und warum brixl deshalb anders gebaut ist.

Veröffentlicht am 20.02.20265 Min. Lesezeit

„Wir können doch nicht eine Software entscheiden lassen, ob ein Auftrag zu uns passt." Diesen Satz hören wir in fast jedem Verkaufsgespräch. Die Sorge ist verständlich — und sie hat im deutschen Vergaberecht mehr Substanz, als die meisten KI-Anbieter zugeben.

KI-Systeme gelten in der Vergabe-Diskussion routinemäßig als Black-Box. Niemand weiß, welche Schritte zur Bewertung geführt haben. Auftraggeber und Bieter bekommen damit ein Compliance-Problem, lange bevor irgendjemand über Trainingsdaten oder Modellgüte spricht. Und das Compliance-Problem hat eine konkrete Rechtsgrundlage: § 8 VgV.

§ 8 VgV verlangt nachvollziehbare Entscheidungen — nicht nur richtige

Öffentliche Auftraggeber sind nach § 8 VgV verpflichtet, das Vergabeverfahren laufend in Textform zu dokumentieren. Festgehalten werden müssen die Maßnahmen, die Feststellungen sowie die Begründungen für einzelne Entscheidungen – und zwar so, dass ein unbeteiligter Dritter den Entscheidungsweg ohne Zusatzinformationen versteht.

Wer eine KI-Empfehlung ungeprüft in den Vergabevermerk übernimmt, dessen Innenleben er nicht erklären kann, verletzt diese Dokumentationspflicht. Das ist nicht hypothetisch. Vergabekammern haben in der Vergangenheit Verfahren aufgehoben, weil die Begründung im Vermerk nicht nachvollziehbar war.

Für Bieter ist die Spiegelseite genauso scharf: Wer in einer Eignungsbewertung das Ergebnis eines KI-Tools übernimmt, ohne die Quelle prüfen zu können, übernimmt das Risiko mit. Wenn der Auftraggeber später nachfragt, warum ein bestimmter Eignungsnachweis als ausreichend eingeschätzt wurde, hilft „die KI hat das gesagt" niemandem.

Ab 2. August 2026: KI-Verordnung verschärft die Lage

Die EU-KI-Verordnung (Verordnung (EU) 2024/1689) tritt schrittweise in Kraft. Für Hochrisiko-KI-Systeme greifen die vollständigen Anforderungen ab dem 2. August 2026. KI-Systeme, die Entscheidungen über den Zugang zu öffentlichen Diensten oder Leistungen stützen, fallen häufig in diese Kategorie.

Die Pflichten im Hochrisiko-Bereich sind keine Lyrik:

  • Risikomanagementsystem über den gesamten Lebenszyklus
  • Hochwertige Trainingsdaten mit dokumentierter Datenherkunft
  • Technische Dokumentation, die eine Konformitätsbewertung erlaubt
  • Protokollierung der Vorgänge (Logging)
  • Transparente Information für Anwender
  • Menschliche Aufsicht über das System
  • Robustheits-, Genauigkeits- und Cybersicherheitsanforderungen

Wer als Bieter oder Auftraggeber KI-Werkzeuge im Vergabeprozess einsetzen möchte, kommt an diesen Anforderungen nicht vorbei. „Wir nutzen halt ChatGPT" ist ab August 2026 für vergaberelevante Bewertungen kein gangbarer Weg.

Was „nachvollziehbar" praktisch bedeutet

Drei Eigenschaften muss ein KI-System mitbringen, damit seine Ergebnisse vor § 8 VgV bestehen:

  1. Quellengebundenheit. Jede Aussage des Systems muss auf eine Textstelle in den Vergabeunterlagen oder einer öffentlichen Quelle zurückführbar sein. Keine Aussage, kein Zitat — kein Eingang in den Vermerk.
  2. Determinismus, wo Determinismus möglich ist. Aus einem Auftragswert von 5,4 Mio. € folgt mathematisch, dass eine EU-weite Bekanntmachung fällig ist. Das soll das System nicht raten, sondern aus einer Regel ableiten.
  3. Eigenständige Letztentscheidung. Die Vergabestelle muss die KI-Empfehlung aktiv prüfen und in eigener Verantwortung übernehmen. Eine kurze Prüfnotiz reicht — ein bloßes Abnicken nicht.

Das sind keine Marketing-Wünsche. Sie folgen direkt aus dem geltenden Recht.

Wie brixl deshalb gebaut ist

brixl ist die KI-Plattform für die deutsche Baubranche, die Bauausschreibungen aus allen öffentlichen Portalen aggregiert und mit nachvollziehbarer KI qualifiziert. Wir haben die Plattform um die drei Eigenschaften oben herum gebaut, nicht andersherum. Drei Designentscheidungen aus dem Maschinenraum:

Jede KI-Bewertung verlinkt zur Quelle. Wenn brixl sagt, eine Ausschreibung verlangt einen Mindestumsatz von 5 Mio. €, dann steht daneben der Verweis auf die Stelle in den Vergabeunterlagen, aus der die Information stammt. Klick, Sprung in das Original-PDF, Punkt im Dokument hervorgehoben. Wer es anders sieht als brixl, hat in zehn Sekunden die Quelle vor sich.

Strukturierte Daten kommen aus Regeln, nicht aus Modellen. Schwellenwertprüfung, Fristberechnung, Eignungs-Eckwert-Vergleich – das sind Rechenoperationen, keine Sprachmodell-Aufgaben. brixl trennt das, was ein LLM gut kann (Text verstehen, extrahieren) von dem, was Regeln besser können (Werte vergleichen, Schwellen prüfen).

Was das System nicht weiß, sagt es. Eine fehlende Information wird als fehlend ausgewiesen, nicht stillschweigend ergänzt. „Mindestumsatz nicht in Vergabeunterlagen gefunden" ist eine bessere Antwort als ein erfundener Wert.

Was das für Bauunternehmen praktisch ändert

Konkret für Bauleiter, GF und Bid-Manager im Mittelstand-Bau:

  • Eignungs-Bewertungen können in den Bewerbungsprozess übernommen werden, weil zu jedem Kriterium die Quelle benannt ist. Streitfall? Der Bieter zeigt das KI-Bewertungs-Memo plus den Auszug aus den Vergabeunterlagen.
  • Interne Compliance-Prozesse – „Wer hat hier was entschieden, mit welcher Begründung?" – werden bedient, statt umgangen.
  • Bid/No-Bid-Entscheidungen werden dokumentierbar. Ein „Wir steigen bei diesem Auftrag aus, weil die Eignungsanforderungen unklar formuliert sind und unser Risiko zu hoch ist" ist eine Begründung. „Wir steigen aus, weil unsere KI Nein gesagt hat" ist keine.

Was es für Vergabestellen ändert

Das DTVP fasst es nüchtern zusammen: Vergabestellen, die KI-Tools sinnvoll einführen wollen, brauchen Lösungen, die traceability mitbringen. Nicht weil es ein Marketing-Argument ist, sondern weil die Dokumentation andernfalls nicht haltbar ist.

Wer als Auftraggeber KI im Verfahren einsetzt, sollte vor dem ersten Klick drei Fragen beantworten können: Wo kommen die Bewertungen her? Wer entscheidet im Zweifel? Was schreiben wir in den Vergabevermerk? Wer das nicht beantworten kann, geht ohne Compliance-Netz in die Demo.

Häufige Fragen

Darf eine Vergabestelle eine KI-Empfehlung übernehmen? Ja, externe Bewertungen sind im Vergabeverfahren grundsätzlich zulässig. Die Entscheidung selbst muss aber bei der Vergabestelle bleiben. Eine kurze, eigenständige Prüfungsnotiz reicht aus – ein bloßes Abnicken einer KI-Empfehlung genügt nicht. Die Begründung gehört in den Vergabevermerk nach § 8 VgV.

Was ändert sich durch den EU AI Act ab August 2026? Ab dem 2. August 2026 gelten die vollständigen Anforderungen der KI-Verordnung für Hochrisiko-KI-Systeme. KI-Anwendungen, die Entscheidungen in öffentlichen Verfahren stützen, fallen häufig in diese Kategorie. Anbieter und Anwender werden Transparenz-, Dokumentations- und Aufsichtspflichten erfüllen müssen.

Was bedeutet „nachvollziehbar" im Vergaberecht konkret? Nach § 8 Abs. 2 VgV müssen Entscheidungen so dokumentiert sein, dass ein unbeteiligter Dritter sie ohne weitere Informationen verstehen kann. Bei KI-gestützten Bewertungen heißt das praktisch: Jede Aussage muss mit der konkreten Stelle in den Vergabeunterlagen verknüpft sein, aus der sie stammt.

Ist der Einsatz von KI bei der Eignungsprüfung zulässig? Ja, sofern die rechtlichen Anforderungen eingehalten werden: nachvollziehbare Begründung, Dokumentation im Vergabevermerk, eigenständige Letztentscheidung der Vergabestelle. KI-Werkzeuge dürfen die Bearbeitung beschleunigen, aber nicht die Entscheidung delegieren.

Wie das § 8-VgV-Argument je nach Vergabeverfahren wirkt, hängt am Verfahrensaufbau — und wer hinter brixl steht, ist beim Team zu finden.

Weitere Beiträge