Schuld ohne Tat: Kafkas Prozess und unsere digitale Gegenwart

20. Januar 2026
Kafka meets AI (erstellt von ChatGPT)

Josef K. wird verhaftet. Einfach so. An einem gewöhnlichen Morgen. Ohne zu wissen, warum. Ohne Anklage, ohne konkrete Tat. Und das Merkwürdige ist, dass er beginnt zu glauben, dass er schuldig sein muss. Nicht, weil er etwas getan hätte, sondern weil das System ihm sagt, er sei es. Je mehr er seine Unschuld beweisen will, desto tiefer fällt er hinein. Seine Verteidigung wird zum Schuldgeständnis. Was Kafka in den 1920er Jahren beschrieb, fühlte sich damals vielleicht wie absurde Literatur an. Heute, hundert Jahre später, sitze ich vor meinem Laptop und fühle mich manchmal ziemlich nah an Josef K.

Wir haben uns im Deutschunterricht intensiv mit dem Thema der Schuld und der Moderne beschäftigt. In diesem Blog möchte ich diese Gedanken weiterführen und eine Verbindung zu Gegenwart herstellen.

Das Revolutionäre an Kafkas Darstellung von Schuld ist ihre Umkehrung aller Logik. Normalerweise funktioniert Schuld so: Jemand tut etwas Falsches, bekommt dafür Verantwortung und fühlt sich schuldig. Ursache und Wirkung. Bei Kafka existiert die Schuld vor der Tat. Sie ist kein Resultat von Handlungen, sondern ein existenzieller Grundzustand. Man ist schuldig, weil man existiert, weil man Teil dieses Systems ist. Josef K. macht alles nur schlimmer, indem er sich wehrt. Er rennt von Tür zu Tür, sucht nach dem Gesetz, nach seiner Akte, nach irgendeiner Erklärung. Aber das Gericht ist undurchschaubar. Niemand kann ihm sagen, warum er angeklagt ist. Und genau diese Teilnahme am Prozess, sein Versuch, sich zu rechtfertigen, macht ihn schuldig. Es ist eine hinterhältige Logik: Wer sich verteidigt, hat schon akzeptiert, dass es etwas zu verteidigen gibt. Was Kafka gut zeigt, ist die Verinnerlichung dieser äusseren Anklage. K. beginnt nach und nach zu zweifeln. Vielleicht bin ich ja doch schuldig? Vielleicht habe ich etwas übersehen? Diese Selbstbefragung ist der eigentliche Horror der Geschichte. Die Schuld wird nicht von aussen aufgezwungen, sondern wächst von innen, frisst sich in das Bewusstsein, bis man nicht mehr unterscheiden kann zwischen dem, was man getan hat, und dem, was das System einem unterstellt. Für Kafka war diese Form der Schuld Ausdruck der Moderne: Der Mensch verliert seine Sicherheiten, seine klaren moralischen Anhaltspunkte. Er ist nicht mehr schuldig durch konkrete Taten, sondern durch seine blosse Existenz in einer Welt, deren Regeln er nicht versteht. Man ist schuldig, weil man im System mitmacht. Und man muss mitmachen, um zu überleben.

Wenn ich heute ChatGPT öffne, um mir bei einem Text helfen zu lassen, denke ich manchmal an Josef K. Nicht, weil es das Gleiche wäre, natürlich nicht. Aber weil ich dieses merkwürdige Gefühl kenne, das Kafka so präzise beschreibt: Schuld ohne klare Tat. Ein unbestimmtes Unwohlsein. Wir leben in einer Zeit voller Widersprüche. Einerseits werden wir ermutigt, kreativ zu sein, eigenständig zu denken, authentisch zu arbeiten. Andererseits sind KI-Tools überall verfügbar, hocheffizient, gesellschaftlich weitgehend akzeptiert. Universitäten warnen vor ihrer Nutzung, während Tech-Konzerne sie als Zukunft der Arbeit darstellen. Freunde nutzen sie selbstverständlich, während andere sie als Betrug bezeichnen. Wo ist meine Schuld in diesem System? Ist es eine Schuld, KI zu nutzen? Oder eine Schuld, sie nicht zu nutzen und dadurch ineffizient zu werden? Das erinnert an Kafkas Gericht. Die Parallelen sind da. Bei Kafka gibt es undurchschaubare Gerichtsinstanzen, deren Logik K. nie versteht. Heute haben wir Algorithmen, deren Entscheidungsprozesse selbst Entwickler kaum noch nachvollziehen können. Wir wissen nicht genau, wie ChatGPT seine Antworten generiert, welche Daten es verwendet, wessen Arbeit es reproduziert. Wir nehmen an einem System teil, das wir nicht durchschauen. Diese Undurchsichtigkeit erzeugt eine spezifisch moderne Form von Schuld. Ich bezeichne sie als die Schuld des Mitmachens. Durch die blosse Nutzung von KI bestätige ich ein System, das ich eigentlich kritisch sehe. Ich weiss, dass KI-Training problematisch sein kann; Urheberrechtsfragen, Energieverbrauch, Verdrängung von Arbeitsplätzen, die Reproduktion von Vorurteilen in Trainingsdaten. Ich nutze sie trotzdem. Warum? Weil „alle es machen". Weil ich konkurrenzfähig bleiben muss. Weil das System es ermöglicht und fast schon erwartet. Das ist kafkaesk: Die Verantwortung verschiebt sich vom Individuum zur Struktur. Ich bin nicht schuldig, weil ich böse bin, sondern weil ich Teil eines Systems bin, das strukturell problematisch ist. Aber kann ich mich deshalb freisprechen?

Josef K. hat keine echte Wahl. Er kann sich dem Prozess nicht entziehen. Je mehr er sich wehrt, desto schuldiger wird er. Je mehr er sich fügt, desto mehr akzeptiert er seine Schuld. Es gibt keinen Ausweg aus dieser Logik. Die Frage, die mich beschäftigt: Haben wir heute eine echte Wahl? Können wir KI wirklich verweigern, ohne gesellschaftliche oder berufliche Nachteile zu erleiden? Wenn jeder um mich herum diese Tools nutzt, wenn Arbeitgeber Effizienz erwarten, wenn Studierende unter Zeitdruck stehen, ist die Entscheidung dann wirklich frei? Das Hinterhältige ist: Wir fühlen uns schuldig, egal wie wir uns entscheiden. Nutzen wir KI, haben wir das Gefühl, zu schummeln, nicht authentisch zu sein, Teil eines problematischen Systems zu werden. Nutzen wir sie nicht, fühlen wir uns ineffizient, zurückgeblieben, naiv. Die Schuld ist unvermeidlich. Kafka zeigt in „Der Prozess", dass K. keinen konkreten Ankläger hat. Das Gericht ist anonym, diffus, überall und nirgends. Bei KI ist es ähnlich: Wer ist eigentlich schuld an den Problemen? Die Entwickler, die diese Systeme bauen? Die Konzerne, die sie vermarkten? Die Nutzer, die sie verwenden? Die Gesellschaft, die sie ermöglicht? Die Schuld ist systemisch geworden.

K. kapituliert am Ende. Er akzeptiert seine Schuld, obwohl er nicht weiss, worin sie besteht. Er lässt sich hinrichten „wie ein Hund", wie es im berühmten letzten Satz heisst. Seine Schuld zerstört ihn, weil er keinen Weg findet, produktiv mit ihr umzugehen. Aber vielleicht liegt genau hier der Unterschied zur Gegenwart. Anders als K. können wir die Systeme hinterfragen und potenziell verändern. Unsere Schuld, so unangenehm sie sich anfühlt, kann zu kritischer Reflexion führen. Sie ist ein Zeichen, dass etwas nicht stimmt, dass Widersprüche existieren, die gelöst werden müssen. Die Schuld, die ich fühle, wenn ich KI nutze, ist vielleicht nicht etwas, das ich loswerden sollte, sondern etwas, das mich aufmerksam macht. Sie erinnert mich daran, genau hinzuschauen: Wie nutze ich diese Tools? Ehrlich oder versteckt? Als Hilfsmittel oder als Werkzeug? Ersetze ich mein Denken oder erweitere ich es? Kafka bietet keine Lösungen. Seine Literatur zeigt das Problem, löst es aber nicht. Aber vielleicht ist das genau ihre Stärke: Sie zeigt uns, wie Schuld funktioniert, wenn sie systemisch wird. Sie warnt uns von dem blinden Akzeptieren von undurchschaubaren Systemen.

Ich habe keine abschliessende Antwort auf die Frage, ob die Nutzung von KI schuldhaft ist. Wahrscheinlich gibt es keine einfache Antwort. Was ich aber von Kafka gelernt habe: Die Gefahr liegt nicht in der Schuld selbst, sondern darin, wie wir damit umgehen. K.s Tragödie ist nicht, dass er schuldig ist, sondern dass er aufhört zu fragen, aufhört zu kämpfen, aufhört zu denken. Vielleicht ist Schuld in der Moderne unvermeidlich. Vielleicht sind wir immer irgendwie verstrickt in Systeme, die grösser sind als wir, die wir nicht vollständig durchschauen. Aber entscheidend ist, ob wir diese Schuld einfach so akzeptieren oder als Beginn eines Nachdenkens über die Welt, in der wir leben wollen. Kafka hat uns vor hundert Jahren gewarnt: Pass auf, dass du dich nicht vom System fressen lässt. Pass auf, dass du nicht aufhörst zu fragen. Die Warnung gilt heute mehr denn je.