«Wenn KI Verträge abschliesst» – Was jetzt auf Händler und Kundenservice zukommt

Portrait Julia Herz

Portrait Julia Herz

Agentic AI in der Praxis «Wenn KI Verträge abschliesst» – Was jetzt auf Händler und Kundenservice zukommt

Publiziert am 09.09.2025 von Yannick Küffer, Digital Commerce Consultant, Schweizerische Post

Künstliche Intelligenz übernimmt längst mehr als nur Assistenzfunktionen. Agenten bestellen Waren, lösen Prozesse aus oder kommunizieren eigenständig mit der Kundschaft. Doch was passiert, wenn ein KI-Agent einen Vertrag abschliesst? Wer haftet, wenn etwas schiefläuft? Und worauf sollten Unternehmen achten, wenn sie solche Lösungen einführen? Julia Herz, COO von dreamleap und Expertin für generative KI, gibt Einblick in rechtliche Herausforderungen, praktische Erfahrungen und Empfehlungen für Unternehmen.

Interview: Agentic AI und Recht – was Händler jetzt wissen müssen

Yannick Küffer: Julia, du begleitest Unternehmen seit mehreren Jahren bei der Einführung von generativer KI. Was verändert sich gerade mit Blick auf sogenannte Agenten?

Julia Herz: Agentic AI – also Systeme, die selbstständig Aufgaben ausführen und Entscheidungen treffen – sind aktuell eines der spannendsten Felder. Im Unterschied zu klassischen Chatbots oder einfachen Automatisierungen können diese Agenten eigenständig planen, Aktionen auslösen und mit Systemen interagieren. Das ist hoch effizient – aber rechtlich ein neues Spielfeld. Wenn ein Agent etwa automatisch bestellt oder Verträge abschliesst, stellt sich die Frage: Wer ist verantwortlich?

Was ist denn rechtlich gesehen das Hauptproblem bei solchen Agenten?

Aktuell fehlt in der Schweiz – wie in vielen Ländern – eine klare gesetzliche Grundlage. Verträge, die durch solche Systeme ausgelöst werden, befinden sich in einer Grauzone. Grundsätzlich haften Unternehmen für das, was sie beauftragen – auch wenn es durch KI geschieht. Doch bei Fehlentscheidungen oder Missverständnissen wird es komplex, besonders wenn die Kundschaft betroffen ist.

Welche konkreten Risiken siehst du z. B. im E-Commerce oder Kundenservice?

In der Praxis sehen wir drei zentrale Risiken:

  1. Vertragsfehler – wenn Agenten AGB falsch interpretieren oder übergehen.
  2. Falsche Preise und Aussagen – durch veraltete oder unvollständige Datenquellen.
  3. Datenschutzprobleme – etwa bei unklarer Speicherung oder automatisierter Kommunikation.

Gerade im Handel entstehen so schnell rechtlich bindende Aktionen – ob im Checkout, bei Nachbestellungen oder Vertragsänderungen im Self-Service.

Und wie sieht das regulatorisch aus – z. B. mit Blick auf den EU AI Act?

Der EU AI Act bringt erstmals konkrete Anforderungen an KI-Systeme. Viele agentische Anwendungen im Handel – z. B. Chatbots mit Vertragsanbahnung – fallen in die Hochrisiko-Kategorie. Das heisst: Anbieter müssen Transparenz, Nachvollziehbarkeit, Risikobewertung, technische Dokumentation und menschliche Kontrollmechanismen sicherstellen. Unternehmen sollten ihre Systeme jetzt prüfen, auch wenn sie (noch) nicht unter die EU-Gesetzgebung fallen.

Was sollten Unternehmen bei der Einführung solcher Systeme unbedingt beachten?

Für einen sicheren Einstieg in Agentic AI empfehlen wir:

  1. Den Use Case klar einzugrenzen: Muss der Agent autonom handeln oder reicht Assistenz?
  2. Verantwortung zu definieren: Wer ist fachlich und technisch zuständig?
  3. Dokumentation und Logging: Entscheidungen und Abläufe müssen nachvollziehbar gespeichert werden.
  4. Vendor gezielt auszuwählen: Viele Anbieter liefern keine rechtlich sauberen Frameworks.

Ein oft unterschätzter Punkt ist der Datenschutz: Tools wie «Memory» oder Custom GPTs steigern zwar die Effizienz, führen aber schnell zu Datenlecks, wenn vertrauliche Inhalte verarbeitet werden. Gerade in regulierten Branchen ist Vorsicht geboten. Mehr dazu in unserem Blog.

Für einen strukturierten Einstieg empfehlen wir unsere Checkliste «10 Essentials» für die Einführung von KI-Agenten im Handel.

Gibt es ein Beispiel aus eurer Praxis, das besonders lehrreich war?

Ja, wir sehen in Projekten immer wieder: Vollautonome Agenten sind in der Theorie spannend, aber in der Praxis oft unzuverlässig und schwer kontrollierbar. Sie finden kreative Lösungswege, was beeindruckend klingt, aber zu Intransparenz und Risiken führt.

Wir setzen bei dreamleap deshalb auf klar definierte Workflows: Agenten handeln innerhalb festgelegter Abläufe – nachvollziehbar und sicher. In einem Projekt im Finanzumfeld haben wir z. B. eine automatisierte FAQ erstellt, die als geprüfte Basis für den Chatbot dient. Die Inhalte sind KI-generiert, der Ablauf aber strukturiert.

Unsere Lehre: Reine Agentenlösungen sind heute noch zu fehleranfällig. Mit klaren Workflows liefern sie jedoch einen echten Mehrwert – skalierbar und praxistauglich.

Immer mehr Konsumentinnen und Konsumenten oder Geschäftskunden nutzen selbst Agenten, die automatisch einkaufen. Was bedeutet das für Händler?

Das ist ein brandaktuelles Thema. Wir sehen bereits die ersten Bots und Agenten, die automatisiert Onlineshops durchsuchen, vergleichen oder Bestellungen tätigen – z. B. als Teil eines Einkaufsprozesses in Unternehmen. Händler stehen hier vor mehreren Herausforderungen:

  1. Technisch – Agenten können Systeme belasten oder fehlerhafte Transaktionen auslösen.
  2. Rechtlich – Ist der Agent handlungsfähig? Wer haftet bei Fehlern?
  3. Strategisch – Will man solche Agenten überhaupt zulassen oder gezielt ausschliessen?

Best Practices sind derzeit:

  • AGB-Transparenz: Definieren, ob Agenten bestellen dürfen
  • Bot-Management: Gute von schädlichen Bots unterscheiden
  • APIs: Strukturierte, sichere Schnittstellen statt Shop-Hacks

Letztlich wird es auch hier auf eine Balance hinauslaufen: Händler, die offen für Agentic Commerce sind, können Wettbewerbsvorteile schaffen, müssen aber klare Spielregeln definieren.

Was sind deine Empfehlungen an Händler, die mit Agentic AI starten wollen?

Starten Sie klein und kontrolliert. Testen Sie nie im Live-Betrieb. Achten Sie auf Datenqualität, Logging und Compliance. Und vor allem: Wählen Sie Ihre Anbieter mit Bedacht. Gute Agentenlösungen zeigen nicht nur, was technisch möglich ist, sondern auch, was sicher und rechtlich vertretbar ist.

Letzte Frage: Wird die Gesetzgebung die Agenten irgendwann ganz regulieren?

Ja, davon gehe ich aus – und das ist gut so. Agenten werden in Zukunft ganze Prozesse steuern. Damit das Vertrauen in KI erhalten bleibt, braucht es klare Regeln. Wer heute schon Verantwortung übernimmt, wird langfristig profitieren.

Mehr zur sicheren KI Lösung:

www.dreamleap.com

Mehr zu unserer KI Academy für Firmen:

www.voicetechhub.com

Julia Herz

COO, dreamleap

Experte in AI & Digital Transformation

Portrait Julia Herz

Yannick Küffer – Interviewer

Digital Commerce Consultant, Schweizerische Post

In dieser Funktion unterstützt er Händlerkunden in der Weiterentwicklung ihres digitalen Reifegrads. Dabei liefert er strategische Beratung hinsichtlich der Digitalisierung bis hin zur Lösungskonzeption.

Portrait Yannick Kueffer

Kontaktieren Sie uns

Sie haben Fragen an unsere Experten oder benötigen Beratung? Wir sind für Sie da!

Zum Kontakt