Amazons Warnschuss an Perplexity Comet ist ein Weckruf für KI-Startups, Unternehmen und Entwickler
Am 4. November 2025 veröffentlichte Amazon eine deutliche Stellungnahme zu einem Thema, das an der Schnittstelle von Künstlicher Intelligenz, Plattformrecht und Verbraucherschutz liegt. Im Mittelpunkt dieser Auseinandersetzung steht das KI-Startup Perplexity AI und dessen Produkt Comet – ein KI-Assistent, der Einkäufe bei Online-Händlern wie Amazon im Auftrag von Nutzerinnen und Nutzern tätigt.
Amazon wirft Perplexity nun vor, gegen die Plattformrichtlinien zu verstoßen, die Kundenerfahrung (Nutzerrechte) zu gefährden und ohne Zustimmung Amazons Infrastruktur zu nutzen.
Das erwartet dich in diesem Beitrag:
Der Kern des Konflikts
Amazon erklärt in seiner Stellungnahme v. 4. November 2025, dass Drittanbieter-Applikationen, die im Namen von Kundinnen und Kunden Bestellungen oder Transaktionen durchführen, transparente und respektvolle Schnittstellenbeziehungen zu Plattformen einhalten müssen.
Hier ein Auszug aus der Stellungnahme von Amazon:
„Wir sind der Ansicht, dass es selbstverständlich ist, dass Drittanbieter-Apps, die im Namen von Kunden Einkäufe bei anderen Unternehmen tätigen, transparent agieren und die Entscheidung der Dienstleister, ob sie teilnehmen oder nicht, respektieren sollten. Dies trägt zu einem positiven Kundenerlebnis bei und entspricht der Vorgehensweise anderer Anbieter … Agentische Drittanbieter-Apps wie Comet von Perplexity unterliegen denselben Verpflichtungen, und wir haben Perplexity wiederholt aufgefordert, Amazon aus Comet zu entfernen, insbesondere angesichts der erheblichen Beeinträchtigung des Einkaufs- und Kundenserviceerlebnisses durch Amazon.“
Die Kritik bezieht sich auf den Comet-KI-Browser, die von Perplexity AI entwickelt wurde.
Comet erlaubt es Nutzerinnen und Nutzern, mithilfe generativer KI Produkte zu finden, zu vergleichen und direkt zu kaufen – auch über Amazon.
Amazon bemängelt jedoch, dass diese Integration ohne Amazons Zustimmung erfolgte, nicht transparent kommuniziert wurde, wie und wo Daten verarbeitet werden, und die Kundenerfahrung verschlechtert, weil sie außerhalb der offiziellen Amazon-Systeme abläuft.
Amazon zieht klare Grenzen
Amazon hat nach eigener Aussage mehrfach an Perplexity appelliert, die Integration zu entfernen, und schließlich ein Cease-and-Desist-Schreiben (Unterlassungsaufforderung) übermittelt. Das Unternehmen betont, dass es keine technischen oder vertraglichen Schnittstellen genehmigt hat, über die Comet Bestellungen abwickeln darf. Im Klartext:
- KI-Assistenten dürfen nicht eigenmächtig handeln, wenn sie die Infrastruktur eines Drittanbieters nutzen.
- Jede Form von „automatisiertem Einkauf im Namen des Kunden“ muss durch die Plattform selbst autorisiert sein.
- Eine unautorisierte Integrationen betrachtet Amazon als potenzielle Verletzung von Nutzungsbedingungen und Datenschutzpflichten.
Warum das ein Weckruf für KI-Startups ist
Der Fall zeigt exemplarisch, wie schwierig die rechtliche Lage für KI-gestützte Assistenten wird, sobald sie reale Aktionen im Namen eines Nutzers ausführen – etwa Einkäufe, Buchungen oder Zahlungen.
Viele KI-Anbieter versuchen derzeit, „autonome Agenten“ zu entwickeln, die Dinge erledigen, ohne dass der Mensch jede Aktion bestätigen muss. Doch genau hier verlaufen die rechtlichen und ethischen Grenzen.
Wenn eine KI ohne Zustimmung eines Plattformbetreibers agiert, riskiert sie, gegen Nutzungsbedingungen, Datenschutzgesetze oder Verbraucherschutzbestimmungen zu verstoßen.
KI-Assistenten brauchen Governance
Amazon ist nicht das erste Unternehmen, das gegen den unkontrollierten Einsatz von KI-Tools auf seinen Plattformen vorgeht. Auch Google, OpenAI und Microsoft haben in den letzten Monaten Nutzungsrichtlinien verschärft, die automatisierte oder nicht genehmigte API-Zugriffe einschränken.
Das Statement von Amazon unterstreicht drei wichtige Punkte für die Zukunft:
- KI-Assistenten brauchen Governance: Wer im Namen von Kundinnen und Kunden agiert, muss sich an die vorgegeben Regeln halten – so wie bei jedem anderen Geschäftsmodell auch.
- Vertrauen entsteht durch Transparenz: Kunden müssen wissen, wann sie mit einer KI interagieren, wie ihre Daten verwendet werden und wer für Fehler verantwortlich ist.
- Plattformen behalten die Kontrolle: Große Anbieter wie Amazon werden nicht zulassen, dass Dritte ihr Nutzererlebnis oder ihre Transaktionswege beeinflussen.
Was das für Nutzerinnen und Nutzer bedeutet
Für Endverbraucher klingt eine KI, die „für dich einkauft“, praktisch – aber sie birgt erhebliche Risiken:
- Du gibst möglicherweise Zugangsdaten oder Zahlungsinformationen an eine Drittsoftware weiter.
- Deine Daten könnten außerhalb der EU oder ohne ausreichende Sicherheitsmaßnahmen verarbeitet werden.
- Die Käuferrechte (z. B. Rückgabe, Garantie) sind unklar, wenn die Transaktion nicht direkt über Amazon abgewickelt wurde.
Amazon macht daher deutlich, dass Kunden am besten über die offiziellen Kanäle und Apps einkaufen sollten, um Service, Datenschutz und Gewährleistung zu gewährleisten.
Was Unternehmen und Entwickler jetzt beachten sollten
Wenn du selbst im Bereich KI, E-Commerce oder API-Integration arbeitest, solltest du aus dem Fall Perplexity Comet folgende Lehren ziehen:
1. Rechtliche Einbindung prüfen
- Verwende offizielle APIs und halte dich an deren Nutzungsbedingungen.
- Hole ggf. vorherige Genehmigung des Plattformbetreibers ein, bevor du im Namen von Kund:innen handelst.
2. Transparenz gegenüber Nutzern
- Mache klar, wann deine KI agiert und welche Aktionen sie ausführt.
- Informiere über Datenverarbeitung, Sicherheit und Rücktrittsrechte.
3. Datenschutz beachten
- Implementiere Privacy-by-Design – nutze nur die Daten, die wirklich erforderlich sind.
- Stelle sicher, dass keine sensiblen oder persönlichen Kundendaten an unautorisierte Dritte fließen.
4. Haftung und Verantwortung regeln
- Wenn deine KI eine Transaktion ausführt, musst du klären, wer bei Fehlern haftet.
- Definiere Verantwortlichkeiten klar in deinen Nutzungsbedingungen.
KI braucht Grenzen, um Vertrauen zu schaffen
Der Streit zwischen Amazon und Perplexity AI ist mehr als ein Einzelfall – er ist ein Signal an die gesamte KI-Branche. KI-Assistenten, die autonom handeln, können nur dann Erfolg haben, wenn sie transparent, regelkonform und kontrolliert arbeiten. Wer Plattformen oder Nutzerrechte ignoriert, gefährdet nicht nur sein Geschäftsmodell, sondern auch das Vertrauen in KI insgesamt.
Abonniere jetzt unsere Cyber-News!
Ca. alle 4 Wochen erhältst du wertvolle Insights, Informationen, Tipps und Ratschläge zur Cybersicherheit, Cyberbedrohungen, Phishing-Methoden, Betrugsmaschen und Social-Engineering, ganz gleich ob du Anfänger oder Fortgeschrittener bist.



