Fluid Assemblage und die Rolle des Designers

Neulich las ich für ein Essay das Buch Changing Things. Darin taucht ein Konzept auf: Fluid Assemblage (fluides Gefüge). Ganz ehrlich, das ist für mich der treffendste Begriff der letzten Jahre, um zu beschreiben, was digitale Produkte eigentlich sind.

Um das besser zu greifen, stell dir mal eine smarte elektrische Zahnbürste vor. Als Fluid Assemblage sieht sie von außen immer noch aus wie eine Zahnbürste: Griff, Borsten, vielleicht ein paar Knöpfe. Aber sie hat möglicherweise eine kleine Kamera, die deine Zähne scannt, eine winzige CPU zur Bildverarbeitung, und eine Begleit-App, die dir dann ausspuckt, ob dein Zahnfleisch entzündet ist, du zur Zahnreinigung musst – plus die Option, deine Putz-Stats mit Freunden zu teilen. Nach außen hin eine Zahnbürste, im Inneren längst ein Privatarzt oder sogar eine Social-Media-Plattform.

Genau das ist die Kernlogik der Fluid Assemblage: Sie tarnt sich als ein homogenes „Ganzes“, nur um uns die vertraute Form eines Dings vorzugaukeln.

Das Schiff des Theseus ist ein klassischer philosophischer Einstieg, um das zu verstehen. Die Holzplanken werden Stück für Stück ausgetauscht, bis kein Originalteil mehr übrig ist – ist es dann noch dasselbe Schiff? Bei digitalen Produkten verhält es sich exakt so. Sie starten als Minimum Viable Product (MVP) und iterieren sich weiter. Unter der Haube sind sie vielleicht alle paar Monate komplett umgebaut, aber für die User ist es immer noch „diese eine App“, die sie jeden Tag öffnen. Eine Fluid Assemblage muss nicht wie ein Industrieprodukt fertig gebaut und dann verschifft werden. Sie updatet sich permanent auf der digitalen Ebene, während der physische Träger gleich bleibt. Das ist eine völlig neue Art des „Herstellens“.

Dass sich solche Gebilde mit so extrem wenig Reibungsverlusten global ausbreiten können, liegt an ihrer Netzwerkstruktur – physische Grenzen spielen kaum eine Rolle. Entwickelt man heute ein Produkt, ist die Zielgruppe die ganze Welt; Lokalisierung ist oft die einzige Hürde. Sobald die Nutzerschaft eine kritische Masse erreicht, beginnt das System, wie ein lebendiger Organismus eine eigene Ökologie und Kultur zu entwickeln. User aus unterschiedlichsten kulturellen Backgrounds speisen ihren Content und ihr Feedback in das System ein. Diese Differenzen werden durch die horizontale Verbreitung zwischen den Knotenpunkten nach und nach glattgebügelt, bis ein relativ stabiles Ganzes entsteht. Wie ein Wald, der zu einem Klimax-Ökosystem heranwächst.

Deshalb erinnert die Fluid Assemblage auch so stark an die Schwarmintelligenz, von der Kevin Kelly in Out of Control schreibt: vernetzt, dynamisch, anpassungsfähig. Ihr Hauptmerkmal ist die Emergenz – das Verhalten des Ganzen lässt sich aus keinem seiner Einzelteile vorhersagen. Und wenn das Ding erst mal groß genug ist, entwickelt es eigene Tendenzen und Haltungen. „Die Menschen verlieren die Kontrolle darüber“, schreibt Kelly, „und die Schöpfer stehen vor einem Dilemma: Sie werden ihre genialste Schöpfung nicht mehr vollständig besitzen.“

Dieser Kontrollverlust hat vier Dimensionen: unkontrollierbar (das System hat eine eigene Dynamik, das Ganze lässt sich kaum noch lenken), unvorhersehbar (Emergenz bringt Phänomene hervor, die es in der Geschichte noch nie gab), unerkennbar (das System wirkt auf die User, die User wirken zurück – nach genug Loops wird das Ganze selbst für die Entwickler zur Blackbox) und nicht-unmittelbar (Ursache und Wirkung klaffen zeitlich auseinander; ein Impuls braucht Zeit, um sich durchs Netzwerk zu fressen).


Als ich diese Notizen neulich überarbeitet habe, passte es zeitlich einfach zu gut: TikTok wurde gerade von EU-Regulierungsbehörden ins Visier genommen. Der Kern der Vorwürfe drehte sich um ihr süchtig machendes Design – Infinite Scrolling, Autoplay, Push-Benachrichtigungen, extrem personalisierte Empfehlungsalgorithmen.

Das ist ein Paradebeispiel dafür, wie das von uns Designern – im weitesten Sinne, also nicht nur visuell, sondern auch die Köpfe hinter den Algorithmen und Interaktionsmechanismen – geschaffene System die Kontrolle übernimmt und die User im Gegenzug umpolt. Und der Knackpunkt ist: Diese Kontrolle ist für den Durchschnittsnutzer völlig unsichtbar.

Rein theoretisch ist TikTok einfach nur ein riesiges Recommender-System. Aber es ist jeder einzelne, banale Like von Millionen von Usern, der die Evolution des Systems formt. Im Gegenzug pusht das System immer extremere Inhalte, die genau diese Vorlieben triggern. So entstehen Filterblasen (Echo Chambers) und Suchtmechanismen. Die wurden nicht unbedingt von Tag eins an böswillig hinein-designt – sie sind emergiert. Am Anfang stand vielleicht nur ein Set relativ simpler logischer Regeln, aber auf diesem Scale ist das Outcome für niemanden mehr kontrollierbar, nicht mal für die Schöpfer selbst.

Die größte Variable in einer Fluid Assemblage ist also schlichtweg der Mensch. User Research versucht ja im Grunde nichts anderes, als verwertbare Modelle von diesem „Menschen“ zu bauen – Verhaltensmuster abstrahieren, User-Typen definieren, Reaktionen prognostizieren – um darauf basierend ein System zu designen. Aber in komplexen Systemen ist alles miteinander verdrahtet. Man sieht von außen oft nur die „Wirkung“, kann aber kaum an einer bestimmten „Ursache“ drehen, um exakt das gewünschte Ergebnis auszuspucken. Das macht die Position des Designers extrem fragil: Sobald das System live geht, rutscht einem die Kontrolle Stück für Stück aus den Händen – direkt rüber zum System selbst. Wobei das auch nicht ganz stimmt, denn wir Designer sind ja gleichzeitig auch User und werden ebenfalls vom System geformt. Diese Dualität macht die Frage nach der „Verantwortung des Designers“ wahnsinnig kompliziert.

Wenn es um Verantwortung geht, ist der erste Reflex oft: Wenn das System außer Kontrolle gerät, brauchen wir härtere menschliche Eingriffe. Aber wenn man sich hinstellt und mit der Attitüde eines Schöpfers das System abwürgen will, zerreißt man zwangsläufig das Ökosystem. Das System wird sich zwar adaptieren und neu ausbalancieren, aber manche harte Eingriffe können das ganze Ding crashen lassen. In der Realität grätschen dann noch bürokratische Prozesse, Geschäftsinteressen und Board-Entscheidungen dazwischen... Oft bleibt uns also nichts anderes übrig, als dabei zuzusehen, wie die „Wirkung“ entsteht, während man sich in Endlosschleifen über Lösungen streitet. Aber genau das ist eben der Normalzustand komplexer Systeme. Weil wir sie nicht präzise steuern können, müssen wir uns durch vorsichtige Interventionen tasten und beobachten, was passiert. Das birgt Risiken, das kostet etwas – aber es ist der einzige Weg, der funktioniert.

Der eigentliche Schmerzpunkt bei der Verantwortung von Designern liegt also gar nicht in der Frage, „ob wir das System kontrollieren sollten“. Er liegt hier: Wenn der Kontrollmechanismus an sich unsichtbar ist, wie kann man dann überhaupt von „Informed Consent“ (informierter Einwilligung) sprechen? Wenn ein User auf Like drückt, ist ihm nicht klar, dass er gerade eine Maschine trainiert, die ihn im Gegenzug abrichten wird. Diese Informationsasymmetrie ist der Kern des Problems. Wir Designer können das System vielleicht nicht mehr kontrollieren. Aber wir können entscheiden, ob wir den Usern verraten, in was für einer Maschinerie sie da gerade stecken – ihnen ihr Recht auf Wissen zurückgeben, ihnen ihre Agency, ihre Wahlmöglichkeit, soweit es geht, zurückgeben.

Das klingt fast wie ein feiger Disclaimer. Aber Transparenz zu wahren, ist an sich schon eine massive Design-Haltung.

← Back to Journals