Die Frage klingt simpel. Die Antwort ist es nicht. Humanoide Roboter strömen 2026 auf den Markt. Sie kosten zwischen 16.000 und 160.000 Euro. Doch wer zahlt, wenn ein Roboter einen Menschen verletzt? In diesem exklusiven Interview spricht IT-Experte und Datenanalyst Tom Lausen über die Haftungsfrage als unterschätztes Machtzentrum der Zukunft. Du erfährst, warum die Politik hoffnungslos hinterherhinkt und welche Rechte du dir jetzt sichern solltest.
Eine neue Spezies betritt die Bühne
Tom Lausen bringt es auf den Punkt: Wir erschaffen gerade eine völlig neue Spezies. Diese Wesen sind keine Tiere. Sie sind keine Menschen. Sie sind etwas dazwischen.
„Der humanoide Roboter wird keine Schuld empfinden können", erklärt Lausen im Interview. „Er arbeitet mit Wahrscheinlichkeiten. Er kann Ethik nicht fühlen, weil er sie programmiert bekommt."
Das klingt abstrakt. Doch die Konsequenzen sind konkret. Ein Hund kann für Schäden haftbar gemacht werden. Der Halter braucht eine Haftpflicht. Eltern haften für ihre Kinder. Aber wer haftet für einen Roboter, der eigenständig Entscheidungen trifft?
Aktuell sind auf der Plattform humanoid.guide bereits über 127 verschiedene humanoide Roboter gelistet. Der günstigste kostet etwa 16.000 Dollar. Der teuerste liegt bei 160.000 Dollar. Die Preise fallen rasant.
Das Haftungsproblem im physischen Raum
Lausen skizziert ein Szenario, das bald Realität sein wird. Du kaufst dir einen Haushalts-Roboter. Er soll putzen, aufräumen, dir das Leben erleichtern. Doch eines Tages liegt dein Kopf auf dem Sofa. Der Roboter erkennt ihn als Gegenstand, der weggeräumt werden muss.
„Der kann ja keine Schuld empfinden", warnt Lausen. „Wenn der jetzt mit Kraft am Kopf reißt, haben wir einen Schaden. Das ist wirklich unvorhersehbar."
Das deutsche Rechtssystem gilt als theoretisch lückenlos. Doch die praktische Anwendung auf autonome KI-Systeme stößt auf massive Probleme. Nach deutschem Recht kann nur derjenige haften, dem per Gesetz eine Rechtspersönlichkeit zusteht. Roboter haben diese noch nicht.
Die EU hatte 2022 einen Entwurf für eine KI-Haftungsrichtlinie vorgelegt. Im März 2025 wurde das Vorhaben überraschend zurückgezogen. Die offizielle Begründung: Man wolle eine Überregulierung im Digitalbereich vermeiden.
Die Zustimmungsfalle
Lausen sieht einen klaren Trend. Die Lösung der Konzerne wird über Zustimmungsregelungen laufen. Wer einen Roboter kauft, stimmt in den AGB zu, dass er selbst für alle Schäden haftet.
„Normalerweise müssten große Firmen dafür sorgen, dass kein Schaden entstehen kann", erklärt er. „Aber ich gehe davon aus, dass dieses Haftungsproblem mit einer Zustimmungsregelung weitestgehend gelöst werden wird."
Das Muster kennen wir aus der Corona-Zeit. Wer eine bestimmte Lizenz erwarb, durfte wieder am öffentlichen Leben teilnehmen. Ähnlich könnte es bei Robotern laufen. Du stimmst zu oder du nutzt das Produkt nicht.
Die EU-Produkthaftungsrichtlinie wurde zwar modernisiert. Sie erfasst nun auch Software und KI-Systeme. Doch ein praktisches Beispiel zeigt die Lücken: Ein Hotel setzt einen KI-Reinigungsroboter ein. Der Roboter selbst ist fehlerfrei. Das Personal kalibriert ihn falsch. Er beschädigt die Uhr eines Gastes. Die Produkthaftung gegen den Hersteller greift hier nicht.
Die Marktkonzentration als Folge
Das Haftungsrisiko hat eine weitere Konsequenz. Es führt zur Marktkonzentration. Kleine Roboterhersteller können sich das Risiko schlicht nicht leisten.
„Das wird bedeuten, dass kleine Roboterhersteller gar nicht mehr in der Lage sind, Roboter zu verkaufen", prognostiziert Lausen. „Die Gefahr des Haftens ist so groß, dass sie sich das wahrscheinlich nicht leisten können."
Die Zahlen bestätigen diese These. Aktuell dominieren US-amerikanische und chinesische Anbieter den Markt. 45 Prozent der relevanten kommerziellen Hersteller kommen aus China. 27 Prozent aus den USA. Aus Deutschland gibt es nur einen ernsthaften Player: Neura Robotics.
Goldman Sachs schätzt den globalen Markt für humanoide Roboter bis 2035 auf 38 Milliarden Dollar. Tesla plant, den Optimus für 20.000 bis 30.000 Dollar anzubieten. Unitree verkauft seinen G1 bereits für etwa 16.000 Dollar. Die Massenproduktion startet 2025.
Politik im Blindflug
Lausen hat beruflich viel mit Politikern zu tun. Sein Urteil ist vernichtend.
„Die meisten Politiker sind froh, wenn sie eine Exceltabelle ausfüllen können. Und das ist wirklich kein Spaß", sagt er im Interview. „In den Behörden, wo diese Regeln praktisch hergestellt werden sollten, besteht überhaupt kein Wissen über das, was da draußen ist."
Der Rechtsprofessor spricht von einem Liability Lag. In Zeiten der exponentiellen technologischen Entwicklung kann ein lineares Rechtssystem nicht mithalten. Die Regelwerke hinken der Realität Jahre hinterher.
„Es gibt viele, die sagen: Ach KI, habe ich einmal ausprobiert, meinen Namen eingegeben, da kam was völlig Falsches raus. Das ist ja alles Blödsinn", berichtet Lausen. „Die haben überhaupt keine Vorstellung, in welcher Geschwindigkeit sich das alles entwickelt."
Die KI-Verordnung der EU (AI Act) gilt zwar ab August 2026. Doch sie enthält selbst keine haftungsrechtlichen Regelungen. Die Pflichten für Anbieter sind definiert. Was passiert, wenn diese missachtet werden, regelt sie nicht.
Die elektronische Person als Scheinlösung
In Fachkreisen wird seit Jahren über die elektronische Person debattiert. Die Idee: KI-Systeme erhalten eine eigene Rechtspersönlichkeit. Sie könnten dann selbst haften.
Mustafa Suleyman, CEO von Microsoft AI, nannte diesen Gedanken kürzlich „Irrsinnig". Die KI habe nur einen Bruchteil der Kosten eines Menschen. Sie könne millionfach repliziert werden. Der Mensch würde zwangsläufig verlieren.
Lausen sieht das ähnlich. „Das Ding kann ja keine Schuld empfinden. Der wird niemals verstehen, was Schuld ist."
Auch Experten warnen. Der Vorschlag einer E-Person wäre im Ergebnis nichts anderes als eine Gefährdungshaftung ihrer Finanzgeber. Das Kapital für die Haftungsmasse müssten letztlich doch die Hersteller oder Betreiber aufbringen. Eine Scheinlösung, die die Verantwortungsfrage nur verschleiert.
Selbstfahrende Autos als Blaupause
Ein Bereich zeigt bereits, wie die Zukunft aussehen könnte: das autonome Fahren. In Kalifornien, Japan und China sind selbstfahrende Fahrzeuge bereits im Straßenverkehr unterwegs.
Das Straßenverkehrsgesetz regelt die Haftung klar. Der Halter eines Kfz haftet verschuldensunabhängig für Schäden, die durch den Betrieb entstehen. Es spielt keine Rolle, ob ein Mensch fuhr oder die KI.
Doch genau deshalb hat es so lange gedauert, bis diese Fahrzeuge auf die Straße kamen. Die Haftungsfrage musste erst geklärt werden. Für humanoide Roboter im Haushalt gibt es keine vergleichbare Regelung.
Ein Rasenroboter, der über einen Kinderfuß fährt, fällt unter die allgemeinen Grundsätze der Verschuldenshaftung. Das reicht bei autonomen Systemen nicht aus. Ihr Verhalten lässt sich nie vollständig vorhersehen.
Die digitale ID als Kontrollsystem
Lausen spannt den Bogen weiter. Er sieht die Haftungsfrage im Kontext eines größeren Systemwechsels. Digitale ID, Kryptowährungen, satellitengestütztes Internet. All das hänge zusammen.
„Der Premier von England hat gesagt, am Ende seiner Legislatur werden alle Menschen in England eine digitale ID haben müssen", erinnert Lausen. „Wenn sie das nicht haben, werden sie nicht mehr arbeiten können."
Er sieht Parallelen zur Corona-Zeit. Damals brauchte man eine bestimmte Lizenz, um am öffentlichen Leben teilzunehmen. Ähnliche Mechanismen könnten bei KI und Robotik greifen.
„Die Technik ist jetzt in der Lage zu bestimmen, wer Zugang bekommt", erklärt er. „Es werden jetzt Alkotester in Autos verbaut. Man kann nur losfahren, wenn man da reingepustet hat. Das ist eine Zugangsberechtigung."
Für Unternehmen, die jetzt KI-Agenten einsetzen wollen, stellt sich daher nicht nur die technische Frage. Die rechtliche und gesellschaftliche Dimension wird unterschätzt.
Die Analog Freedom Initiative
Lausen hat eine Initiative gestartet. Unter Analog Freedom fordert er ein Grundrecht auf analoge Freiheit.
„Ich möchte das Recht haben, aus einem digitalen System auszutreten, ohne Nachteile zu haben", erklärt er. „Ich möchte kein Handy haben müssen. Ich möchte auch nicht mit einer App bei einer Bank arbeiten müssen."
Die Idee: Wer bei digitalen Systemen mitmacht, soll jederzeit das Recht haben, wieder auszusteigen. Ohne dass ihm Nachteile erwachsen. Zum Bäcker gehen ohne Kontrolle. Ein Fahrzeug fahren ohne digitale
Freigabe.
„Die Schallplatte ist ja auch nicht verschwunden", argumentiert Lausen. „Man kann machen oder nicht. Man kann mit leben oder man kann nicht."
Was Unternehmen jetzt tun sollten
Die rechtliche Lage ist unübersichtlich. Doch Experten geben klare Empfehlungen für Unternehmen:
Erstens: Bei KI-Projekten vertraglich klar regeln, wer welches Risiko trägt. Die Vertragsgestaltung mit Zulieferern von KI-Komponenten wird zentral.
Zweitens: Versicherungen abschließen. Das Haftungsrisiko muss kalkulierbar bleiben.
Drittens: Technische Dokumentation pflegen. Sie ist nicht nur ein Compliance-Instrument. Sie wird zum zentralen Element in Haftungsprozessen.
Viertens: Die rechtliche Entwicklung beobachten. Das Feld ist dynamisch. Neue Regelungen können schnell kommen.
Wer als AI Automations Manager arbeitet oder diese Rolle anstrebt, sollte die Haftungsfrage verstehen. Sie wird über Erfolg oder Scheitern von Projekten entscheiden.
Der Elefant im Raum
Am Ende des Gesprächs macht Lausen eine bemerkenswerte Beobachtung. Er vergleicht die Situation mit der Evolutionstheorie.
„Wir stehen an der Schwelle zu einer Spezies, die möglicherweise sich in ihrem Entwicklungsweg genauso macht wie der Mensch gegenüber dem Gorilla", sagt er. „Wir werden dann der Gorilla sein."
Das klingt dystopisch. Doch Lausen betont: Diese Zukunft ist nicht zwingend. Sie hängt davon ab, wie wir jetzt die Weichen stellen.
„Man muss es einfach auch mal aussprechen, auch wenn es dystopisch ist. Es ist ja noch nicht da."
Fazit
Die Haftungsfrage bei KI-Robotern ist das unterschätzte Machtzentrum der Zukunft. Wer die Regeln schreibt, kontrolliert den Markt. Aktuell gibt es in Deutschland kein eigenes KI-Haftungsgesetz. Die EU hat ihre Pläne zurückgezogen. Die Politik hinkt der Entwicklung Jahre hinterher.
Für dich als Unternehmer oder Privatperson bedeutet das: Sei wachsam. Lies die AGB genau, bevor du einem Roboter-Kauf zustimmst. Sichere dich vertraglich ab. Und beobachte die rechtliche Entwicklung.
Tom Lausen fasst es so zusammen: „Solange die Haftung nicht geklärt ist, wird es diese Roboter nicht auf der Straße geben. Ganz alleine." Das stimmt. Aber die Klärung kommt. Und sie wird nicht im Sinne der Verbraucher sein, wenn wir nicht aktiv werden.
Die Frage lautet nicht mehr, ob humanoide Roboter kommen. Sie lautet: Wer bestimmt die Spielregeln? Die Antwort darauf entscheidet über unsere Freiheit in der digitalen Zukunft.

.png)






.webp)

.webp)





















.webp)



.webp)

