Eine futuristische Roboterhand, die nach oben greift und leuchtende, miteinander verbundene Netzwerkknoten vor einem blauen digitalen Hintergrund berührt.
  1. Startseite
  2. Magazin
  3. Wer haftet für KI-Fehler im Tourismus?

Wer haftet für KI-Fehler im Tourismus?
Wenn der Chatbot sich irrt

08.04.2026
Wer haftet, wenn ein Chatbot Gäste falsch informiert? Und worauf müssen Tourismusorganisationen, Destinationen und Betriebe achten, wenn sie KI einsetzen? Eine Annäherung an eine rechtliche Grauzone.

Ein Gast plant einen Städtetrip. Auf einer Hotel-Website fragt er den Chatbot nach dem Zimmerpreis. Die Antwort: 120 Euro pro Nacht. Das ist ein guter Preis. Der Gast bucht. Beim Check-out nach dem Aufenthalt dann die Überraschung: Das Zimmer kostet 180 Euro. Der Chatbot hat sich geirrt. Ein „Fehler im System“.

Derartige Szenarien hinterlassen nicht nur enttäuschte Gäste, sie werfen auch eine berechtigte Frage auf: Wer trägt die Verantwortung, wenn eine KI falsche Auskünfte gibt? Und worauf müssen Tourismusorganisationen, Destinationen und Betriebe achten, wenn sie KI einsetzen?

Alles, was rechtens ist

Ein Hinweis vorweg: Unsere Darstellungen sind keine und ersetzen keine Rechtsberatung. Wir skizzieren die aktuellen rechtlichen Rahmenbedingungen auf Basis von Gesprächen mit Fachleuten.

Demnach existiert in Österreich bislang keine spezielle Gesetzesnorm, die die Haftung für KI-Systeme ausdrücklich regelt. Das bedeutet jedoch nicht, dass ein rechtsfreier Raum besteht. In Österreich greifen vor allem das Vertragsrecht und vorvertragliche Haftung, das Schadenersatzrecht (ABGB) und das Prinzip der Gehilfenhaftung, die auch im KI-Bereich anzuwenden ist.

EU-Regeln schaffen zusätzliche Rahmenbedingungen. Im EU AI Act sind die Transparenzpflicht (Nutzer:innen müssen wissen, dass sie mit einer KI sprechen), die Pflicht zur Schulung von Mitarbeitenden sowie die Anforderungen an sichere KI-Systeme geregelt. Und die neue EU-Produkthaftungsrichtlinie behandelt KI und Software künftig ausdrücklich als Produkte, deren Hersteller bei technischen Defekten haften.

Grundsätzlich kann man laut Fachleuten aktuell davon ausgehen, dass:

1. KI selbst kann rechtlich nicht haften. Chatbots oder andere KI-Systeme sind rechtlich gesehen nur Werkzeuge. Die Verantwortung für deren Einsatz trägt immer ein Unternehmen oder eine Person, die KI einsetzt.

2. Im Tourismus haftet in der Praxis meist der Anbieter. Wenn ein Chatbot falsche Preise nennt oder falsche Informationen gibt, wird diese Auskunft dem Unternehmen zugerechnet, das den Chatbot anbietet, ähnlich einer falschen Auskunft eines Mitarbeitenden.

3. Anbieter können versuchen, den Schaden weiterzugeben. Wenn der Fehler auf einen technischen Mangel der Software zurückgeht, kann das Unternehmen versuchen, den IT-Dienstleister haftbar zu machen, der den Chatbot für das Unternehmen entwickelt hat. Für Kundinnen und Kunden ist jedoch der Anbieter selbst der erste Ansprechpartner in Sachen Haftung und Schadenersatz.

Ist KI-Einsatz also risikobehaftet und etwas, von dem man lieber die Finger lässt? Wir haben zwei Expertinnen befragt und die sehen das Thema keineswegs so kritisch – wenn man seine Hausaufgaben macht.

Unsere Darstellungen sind keine und ersetzen keine Rechtsberatung. Wir skizzieren die aktuellen rechtlichen Rahmenbedingungen auf Basis von Gesprächen mit Fachleuten.

Change Tourism Austria

Die CTA-Community beschäftigt sich mit Innovation, Nachhaltigkeit, Digitalisierung und Daten. Sie lebt von Austausch, Inspiration und neuen Perspektiven. Sei dabei!

Expertinnen-Interview zu Haftungsfragen im Bereich KI

Teresa Karan, KI-Expertin der Österreich Werbung, und Jeannette Gorzala, Juristin und Expertin für den EU AI Act, im Gespräch zu aktuellen Herausforderungen, rasanten Entwicklungen und geltenden Rahmenbedingungen.

Teresa, KI-Chatbots werden im Tourismus immer häufiger eingesetzt. Wo siehst du aktuell die größten Chancen für diese Technologie und wo aktuelle Grenzen?

Teresa: Die Chance liegt in der Vielfalt der Kanäle und der Unmittelbarkeit: KI begegnet Reisenden als Textchatbot, Sprachassistent, über WhatsApp, Social Media, als Avatar oder ganz klassisch am Telefon. Überall dort, wo Gäste sind, und das rund um die Uhr.

Durch Interaktionen mit KI sehen wir, wie Reisende tatsächlich fragen und welche Sprache sie nutzen. Daraus lässt sich ableiten, wie man Content schärft und wie man in KI-generierten Antworten sichtbar wird.

Die Grenze liegt aber nicht nur in der Technologie selbst. Gäste müssen erst lernen, mit diesen Systemen umzugehen. Hier Vertrauen aufzubauen ist die eigentliche Aufgabe, für die Technologie, aber auch für uns als Tourismusbranche.

Viele Menschen erwarten von KI perfekte Antworten. Warum sind Fehler trotzdem unvermeidbar und welche Faktoren beeinflussen die Qualität der Antworten eines Chatbots besonders stark?

Teresa: KI-Systeme lernen aus Daten, und Daten sind nie perfekt. Hinzu kommt, dass Sprachmodelle nicht wirklich ‚wissen‘, was wahr ist. Sie generieren das, was statistisch wahrscheinlich ist. Das kann gut gehen, muss es aber nicht. Die Qualität hängt stark davon ab, wie gut die zugrunde liegenden Daten gepflegt werden, wie eng der Anwendungsbereich definiert ist, und ob es klare Prozesse gibt, wenn die KI unsicher ist. Ein Chatbot, der bei Unsicherheit halluziniert statt zu sagen ‚Das weiß ich nicht‘, ist das eigentliche Risiko.

Welche Rolle spielt deiner Meinung nach die menschliche Kontrolle? Wird KI künftig zuverlässiger sein oder bleibt sie ein Assistenzsystem?

Teresa: Ich bin überzeugt, dass KI zuverlässiger werden wird. Aber ‚zuverlässiger‘ heißt nicht ‚autonom‘. Und gerade im Tourismus, wo Vertrauen das Fundament jeder Gästebeziehung ist, sollte immer ein menschlicher Rückkanal existieren. Was ich mir aber auch wünsche: dass wir KI nicht nur als Antwortmaschine verstehen, sondern als Lernquelle. Was fragen Gäste, wenn sie niemand beobachtet? Diese Ehrlichkeit im Suchverhalten ist Gold für jeden, der Content macht oder seine Sichtbarkeit in KI-Systemen verbessern will.

Jeannette, viele Unternehmen setzen bereits KI im Kundenkontakt ein. Ist das rechtlich gesehen ein Risiko oder ist unsere aktuelle Gesetzeslage „gut genug“?

Jeannette: Risiko entsteht nicht durch die Technologie, sondern durch fehlende Governance. Wer KI strukturiert einsetzt, bewegt sich nicht im Risiko, sondern im Wettbewerbsvorteil.

Der Rechtsrahmen steht: EU AI Act, Datenschutz und Verbraucherrecht geben klare Leitplanken vor. Jetzt geht es um die saubere Umsetzung. Unternehmen dürfen und sollen KI effektiv und gewinnbringend einsetzen, aber nicht unkontrolliert. Bei der Einbindung riskanter KI-Modelle, mangelhafter Datengovernance, ungenügender Nutzungsbedingungen, fehlender Fehlerminimierung oder Fallback-Mechanismen wird aus Innovation ein Haftungsthema.

Wer also KI mit Transparenz, klaren Prozessen und Risikomanagement implementiert, reduziert nicht nur rechtliche, sondern auch finanzielle Risiken und schafft echten strategischen Mehrwert.

Die EU hat mit dem AI Act neue Regeln für KI beschlossen. Was bedeutet das konkret für Unternehmen im Tourismus? Welche neuen Pflichten kommen dadurch auf Organisationen zu?

Jeannette: Im Tourismusbereich fallen die meisten KI-Use-Cases in die Kategorie „geringes bis mittleres Risiko“. Dazu zählt insbesondere der KI-Einsatz im Bereich PR und Marketing, wie die automatisierte Erstellung von Texten, Bildern, Videos oder immersiven Formaten wie digitalen Zwillingen und Avataren. Diese Anwendungen unterliegen vor allem Transparenzpflichten. Das bedeutet, dass Unternehmen offenlegen müssen, wenn KI am Erstellungsprozess beteiligt war, um Missverständnisse bei potenziell irreführenden Inhalten zu vermeiden. In dieselbe Kategorie fallen im Regelfall auch alle Chatbots und KI-Agenten, die etwa bei der Reiseplanung zum Einsatz kommen oder Auskünfte geben.

Hochrisiko-KI-Systeme sind im Tourismus noch selten, betreffen jedoch Bereiche wie Personalmanagement (z. B. automatisierte Bewerbungsbewertungen) oder Robotik (z. B. Liefer- und Serviceroboter). Für diese Systeme gelten strengere Anforderungen, sowohl für den KI-Anbieter als auch für Tourismusunternehmen, die derartige Use Cases implementieren. Die Verpflichtungen betreffen insbesondere Risikomanagement, Datenverwendung und menschliche Aufsicht.

Wo siehst du derzeit noch rechtliche Unsicherheiten beim Einsatz von KI und braucht es deiner Meinung nach neue Haftungsregeln speziell für KI?

Jeannette: Vor allem unklare Verantwortungszuweisung entlang komplexer KI-Wertschöpfungsketten und das sogenannte Black-Box-Problem erschweren es Unternehmen, Risiken zur Gänze rechtssicher zu steuern. Meiner Ansicht nach braucht es dabei weniger völlig neue Haftungsregime als vielmehr gezielte Anpassungen bestehender Regeln, etwa bei Beweislast, Dokumentationspflichten und klaren Zuständigkeiten. Entscheidend ist am Ende nicht mehr Regulierung, sondern mehr Klarheit und Anwendbarkeit, denn das Vertrauen in KI entsteht nicht durch Regeln allein, sondern durch wahrgenommene Verantwortung.

Was sollten Unternehmen beachten, wenn sie KI-Systeme wie Chatbots einsetzen?

Jeannette: Unternehmen sollten beim Einsatz von KI-Systemen wie Chatbots und KI-Agenten vor allem drei Ebenen im Blick behalten: Recht, Technik und Organisation.

Rechtlich ist entscheidend, Transparenz sicherzustellen. Nutzer müssen erkennen, dass sie mit einer KI interagieren. Datenschutzfragen sind sauber zu klären, insbesondere bei der Verarbeitung personenbezogener Daten. Nutzungsbedingungen sollten Unternehmen vor Haftung schützen und dem Verbraucherschutz entsprechen.

Technisch geht es darum, Chatbots so zu gestalten, dass sie verlässlich, nachvollziehbar und möglichst frei von Verzerrungen arbeiten, inklusive klarer Grenzen dessen, was der Chatbot oder KI-Agent leisten darf – und was nicht.

Organisatorisch braucht es definierte Prozesse: Wer ist verantwortlich, wie werden Outputs überprüft und wie wird mit Fehlern umgegangen? Wichtig ist zudem, den Einsatz nicht isoliert zu betrachten, sondern in ein übergeordnetes Risikomanagement einzubetten.

Und eine abschließende Frage an euch beide: Wenn ihr Tourismusorganisationen nur einen einzigen Rat zum Einsatz von KI geben könntet, welcher wäre das?

Teresa: Traut euch, KI auszuprobieren, aber habt einen Plan für den Fall, dass sie sich irrt. Wer KI einsetzt, ohne Prozesse für Fehlerfälle zu definieren, überlässt die Verantwortung dem System. Und das geht auch mal schief.

Jeannette: Denkt KI nicht vom Tool her, sondern aus der Perspektive des Kunden- und Vertrauensmanagements. Wer Vertrauen mitdenkt, kann den KI-Einsatz breitflächig skalieren und gleichzeitig sicher bleiben. Nicht weniger KI wagen, sondern bessere Kontrolle.

Was Tourismusbetriebe beim Einsatz von KI beachten sollten

Verantwortung bleibt beim Unternehmen

Auch wenn eine KI den Fehler macht: Rechtlich wird die Auskunft dem Unternehmen zugerechnet, ähnlich einer falschen Information durch Mitarbeitende.

Transparenz gegenüber Gästen ist Pflicht

Nutzer:innen müssen wissen, dass sie mit einer KI kommunizieren. Das verlangt unter anderem der EU AI Act.

KI braucht menschliche Kontrolle

Automatisierte Systeme sollten regelmäßig überprüft werden. Kritische Fragen sollten weiterhin von Menschen beantwortet werden können.

Mitarbeitende müssen geschult werden

Wer KI einsetzt, muss sicherstellen, dass Mitarbeitende verstehen, wie die Systeme funktionieren und wo ihre Grenzen liegen.

Verträge mit Technologieanbietern prüfen

Unternehmen sollten klären, wer haftet, wenn ein technischer Fehler der Software zu Schäden führt.

ÖW News
  • Themen und Trends im Tourismus

  • Entwicklungen in internationalen Märkten

  • Veranstaltungen und Messen

  • Neues aus der Tourismusforschung