MP-Law-Logo weiß

Künstliche Intelligenz im Claim Management – Risiken, Gefahren und Grenzen der KI (Teil 2)

In Teil 1 haben sich Mag. Markus Androsch-Lugbauer und Mag. Christoph Lintsche, beide Müller Partner Rechtsanwälte GmbH, mit den Möglichkeiten und Chancen des Einsatzes von Künstlicher Intelligenz im Claim Management beschäftigt. Der Einsatz von künstlicher Intelligenz bringt aber auch Gefahren mit sich, die bei der Verwendung jedenfalls zu berücksichtigen sind.

Datenqualität und Bias

KI‑Systeme liefern nur so gute Ergebnisse wie die Daten, mit denen sie trainiert wurden. Auf den Punkt gebracht: „Garbage in, garbage out“ (dt. „Müll rein, Müll raus“). Verzerrte oder unvollständige Datensätze können zu falschen Ergebnissen und falschen Entscheidungen mit weitreichenden Konsequenzen führen. Fehlerhafte oder unvollständige Datensätze, wie sie bei Bauwerkverträgen mit zahlreichen Dokumenten (z.B. Leistungsverzeichnissen, Planbeilagen, allgemeine und besondere Bedingungen, ÖNORMEN, etc.) häufig vorkommen, führen mitunter zu unberechtigten Mehrkostenforderungen und Ablehnungen. Eine sorgfältige Vertragsauslegung und die sachverständige Ermittlung des tatsächlichen Bau-Soll ist daher unerlässlich. Einfache Mustererkennung ersetzt keine bauwirtschaftliche Erfahrung; Bauwerke sind Prototypen, weshalb Auswertungen und Ergebnisse regelmäßig auf ihre Genauigkeit geprüft werden müssen.

Nachweisführung und Prüfbarkeit

Je stärker Daten verarbeitet und je öfter KI-Ergebnisse weiterverarbeitet werden, desto komplexer und aufwändiger wird die Überprüfung der Richtigkeit für das Gegenüber, egal ob dies der Bauherr, Generalunternehmer, Planer, das ausführende Unternehmen oder ein Sachverständiger bzw. Richter ist.

Mit dem Einsatz KI generierter Daten verschiebt sich das Claim-Management möglicherweise weg vom repräsentativen Einzelnachweis hin zum vermeintlichen Einzelnachweis. Dabei besteht jedoch das Risiko, dass derjenige erfolgreicher ist, der mehr – für die Gegenseite aufgrund des Umfangs und des hohen Verarbeitungsgrades nicht mehr prüfbare – Unterlagen produziert. Damit droht eine Wegentwicklung vom persönlichen, klärenden Gespräch auf der Baustelle, hin zu Diskussion von KI-Chatbots untereinander.

Einsatz von ungeübten KI-Verwendern

KI‑Tools können fehlerhafte oder teilweise halluzinierte Inhalte erzeugen. Es besteht daher die Gefahr, dass Chatbots von unerfahrenen Personen verwendet werden, die die Ergebnisse nicht plausibilisieren können. Dadurch ergibt sich eine erhebliche Quelle für Fehler und Fehlentscheidungen. Aus diesem Grund verlangt der europäische Gesetzgeber bereits heute Transparenz beim Einsatz von KI – insbesondere durch eine klare Dokumentation der Funktionsweise und eine Kennzeichnung KI-erzeugter Inhalte. Im Claim‑Management sollte daher offengelegt werden, welche Parameter und Datenquellen zum Ergebnis geführt haben, damit Sachverständige und Gerichte die Aussagekraft der Ergebnisse beurteilen können.

 

Datenschutz und Informationssicherheit

Sofern personenbezogene Daten, Betriebs- bzw. Geschäftsgeheimnisse oder sensible sowie urheberrechtlich relevante Unterlagen verarbeitet werden, gelangen erhebliche Mengen an vertraulichen und besonders geschützten Informationen in KI‑gestützte Systeme, wo sie gespeichert und (weiter-)verarbeitet werden. Bei unzureichender Sicherung und fehlender Anonymisierung der Datenbestände besteht das Risiko von Verstößen gegen die DSGVO sowie das Wettbewerbs- und Urheberrecht. Ebenso können Sicherheitslücken dazu führen, dass Dritte Zugang zu Algorithmen und Daten erhalten und diese manipulieren. Obwohl Datenschutz und Urheberrecht in einem gewissen Spannungsverhältnis zum Einsatz von KI stehen, schließen sich beide Zielsetzungen nicht gegenseitig aus. Entscheidend ist ein rechtskonformes und verantwortungsbewusstes KI-Design, dass im Rahmen der rechtlichen Möglichkeiten sensible Daten verschlüsselt bzw. anonymisiert, Zugriffsrechte klar definiert und Löschkonzepte umsetzt.

Noch einmal: Experten bleiben unverzichtbar

Ganz nach dem Grundsatz „Nicht alles, was glänzt, ist Gold“ ist somit auch beim Einsatz von KI im Claim Management besondere Vorsicht geboten. Obwohl das Potential von KI riesig ist, ist der Einsatz im Claim Management risikobehaftet. Die Beiziehung von bauwirtschaftlichen Sachverständigen und Juristen ist daher unerlässlich. KI-generierte Ergebnisse müssen stets einer sorgfältigen Prüfung und fachkundigen Bewertung unterzogen werden.

Im Ergebnis wird durch den Einsatz von KI die Aufarbeitung großer Datenmengen vereinfacht, sodass mehr Zeit für das Wesentliche bleibt. Dabei ist jedoch die menschliche Komponente in Verhandlungen zwischen Auftraggeber und Auftragnehmer nicht von der Hand zu weisen.

Wer haftet für KI?

Nach der derzeitigen Gesetzeslage in Österreich gilt: KI-Systeme selbst haften nicht; verantwortlich sind Hersteller, Anbieter oder Nutzer. Die allgemeine zivilrechtliche Haftung (Vertrag, Delikt) bleibt maßgeblich. Das Produkthaftungsgesetz (PHG) erfasst bislang nur körperliche Produkte — Software wird nach derzeitiger Sicht nicht davon erfasst. Um künftig auch Hersteller oder Anbieter von KI-Systemen in die Produkthaftung einzubeziehen, liegt bereits ein Entwurf einer neuen EU-Produkthaftungsrichtlinie vor, wonach in Zukunft Software bzw. KI als Produkt qualifiziert werden soll. Zudem sollen mit der neuen EU-Produkthaftungsrichtlinie Beweiserleichterungen, erweiterte Offenlegungspflichten und eine vermutete Fehlerhaftigkeit bei sogenannten Hochrisiko-KI-Systemen geschaffen werden.

Risiken und Grenzen

Die Qualität der Ergebnisse hängt von der Qualität der Eingabedaten ab. Der Einsatz von KI im Claim Management birgt erhebliche Risiken durch fehlerhafte Datengrundlagen, mangelnde Nachprüfbarkeit und die Gefahr falscher Entscheidungen durch unerfahrene Anwender.

 

Datenschutz und Verantwortung

Vor allem der Umgang mit sensiblen, personenbezogenen oder urheberrechtlich geschützten Daten erfordert ein rechtskonformes, sicheres und transparentes KI-Design, das Datenschutz, Datensicherheit und Nachvollziehbarkeit gewährleistet.

 

Haftung und rechtliche Entwicklung

KI-Systeme selbst haften nicht. Verantwortlich bleibt weiterhin der Hersteller, Anbieter oder Nutzer. Durch eine neue EU-Produkthaftungsrichtlinie sollen künftig auch Software und KI erfasst werden, um eine erweiterte Haftung und Beweiserleichterungen zu schaffen.

 

Fazit Der Einsatz von KI im Claim Management erfordert verantwortungsvolle Anwendung, rechtliche Absicherung und die unverzichtbare Kontrolle durch fachkundige Experten.

 

Markus Androsch-Lugbauer

Christoph Lintsche

Artikel aus dem Bau- & Immobilienreport Oktober 2025 als Download.