Der Mensch wird hybrid Vier Arme, ferngesteuerte Bewegungen und ein erweiterter Geist: Roboter zum Anziehen. Eva Wolfangel (Text) Friederike Hantel,, Gregory Gilbert-Lodge (Illustration) Aus # 45/ März 2019 Der Schleier fällt der alten Dame vor die Augen, als die Braut sie umarmt, sie spürt das Zittern der jungen Frau, sieht deren nackten Schultern, bewundert das silbrig schimmernde Haarband, den dunklen Dutt. Er ist so glatt, als wäre er aus Porzellan. Dann hebt die Braut den Schleier. Ihr Gesicht kommt immer näher, so nah, dass es unscharf wird. Die alte Dame sieht die Brautmutter, die vor Rührung weint, den Brautvater. Und dann kommt er endlich. Der Bräutigam, ihr Enkel! Für die alte Dame ist er wie ein Sohn. Und nun wird er heiraten. Natürlich würde die alte Dame bei diesem Ereignis dabei sein, das war ihr immer klar. In der Menge der Feiernden würde sie stehen, eine der ersten Gratulantinnen sein. Doch das Leben kam anders. Und mit dem Leben eine Horde junger Männer, Freunde ihres Enkels, die sie zu einem Versuchskaninchen machten für eine neue Technologie, die sie «Augmented Human» nannten, den erweiterten Menschen. Dass bei dieser Idee die Grenzen verschwimmen, spürt die alte Dame gerade am eigenen Körper. Sie steht mitten unter den Feiernden – irgendwie zumindest. Ihr Enkel sieht sich ein wenig unsicher um, dann stürzt er auf seine Grossmutter zu und schlägt seine Arme um sie. Seine grossen, erwartungsvollen Augen, das silbern glänzende Hemd ohne eine einzige Falte, die Krawatte, an der eine kleine weisse Blume steckt: Die alte Dame betrachtet alles ganz genau, bevor sie seine Umarmung erwidert. Der Enkel küsst sie auf den Mund. Auf den Robotermund. Engumschlungen von ihren Roboterarmen. Die alte Dame sieht die Welt durch die Augen dieses Roboters, weil ihr biologischer Körper den Dienst versagt hat. Mit ihm hätte sie diese Hochzeit nicht besuchen können. Ihr Körper liegt 300 Kilometer weit entfernt in der Präfektur Aichi in einem Altenpflegeheim. Sie kann ihn kaum noch bewegen. Die Pfleger haben die Rückenlehne ihres Bettes für diesen wichtigen Tag hochgestellt. Als sie ihren Enkel umarmt, hebt sie ihre Arme einige Zentimeter in die Luft. Die Pfleger staunen, sie so aktiv zu sehen. Doch die Bewohnerin ist nicht wirklich da. Oder doch? Sie trägt ein Virtual-Reality-Headset, ein klobiges schwarzes Ding. Wenn sie den Kopf bewegt, bewegt ihn der Roboter 300 Kilometer entfernt auf die gleiche Weise – er ist stellvertretend für sie auf der Hochzeit. Um die alte Dame wuseln einige junge Leute herum, die sie gerade nicht sieht. Sie haben ihr Zimmer umgeräumt, damit Platz ist für die Kamera, den Computer und eine längliche Box, die normalerweise zur Steuerung von Spielekonsolen genutzt wird. Jetzt vermisst die Box die Handbewegungen der alten Dame und überträgt sie an die Roboterarme in Hunderten Kilometern Entfernung. Aber all das sieht die alte Dame in diesem Moment nicht. Sie hebt die Hände und umarmt: nichts. Luft. So wirkt es von aussen, in diesem Zimmer im Pflegeheim. Sie ist an zwei Orten gleichzeitig – hier ihr biologischer Körper, dort ihr Geist. Superhuman Stufe 1: Zwei zusätzliche Arme Weitere 360 Kilometer entfernt gen Osten, an der Keio-Universität, sitzt der Mann, der all das möglich gemacht hat. Ganz am Ende des Flurs links, hinter einer Tür mit der Aufschrift «Geist Forschungsgruppe». Dort kauert Yamen Saraiji am Boden und schraubt gerade am rechten Arm eines Roboters herum. Dessen Hand ist seltsam verdreht; «Oooooh!» entfährt es Yamen schliesslich, ein winziges Kabel in der Hand, das in der Luft endet, wo es nicht enden sollte. So wie die alte Dame wäre auch Yamen manchmal gerne an mehreren Orten gleichzeitig, beispielsweise in Syrien, seiner Heimat, die der 31-jährige Mann vor knapp sieben Jahren verliess. Und gleichzeitig hier in diesem seltsamen Raum voller Technik: in der Mitte ein Tisch, auf dem Virtual-Reality-Headsets liegen, umgeben von Bürostühlen, Regalen voller Kabel, Stecker, Kameras, Sensoren, Kisten mit buntem Papier und Wollknäueln. Wegen seiner eigenen Zerrissenheit zwischen den Orten hat Yamen das Anliegen des jungen Mannes, der ihn fragte, ob er nicht ein Telepräsenzsystem für seine geliebte Grossmutter bauen könne, sofort verstanden. Wobei: Telepräsenz? Yamen spricht lieber von Teleexistenz, denn schliesslich sei «der Geist» dann an einem anderen Ort. Der Geist, die Seele; eben das, was einen Menschen jenseits des biologischen Körpers ausmacht. So sei bei Teleexistenz nicht ganz klar, wo der Nutzer sich eigentlich gerade aufhalte, erklärt Yamen: dort, wo sein Körper ist, oder dort, wo sein Geist weilt – oder an beiden Orten gleichzeitig? Wo hört der Mensch auf? Und wo fängt die Maschine an? 2012 kam Yamen als Promotionsstipendiant nach Tokio. Damals konnte er nicht wissen, dass er mit seinen Experimenten rund um die verschiedenen Anteile des Menschen, den Körper und den Geist, eines Tages in der «Augmented Human»-Szene relativ bekannt werden würde. Am meisten verstörten ihn kurz nach seiner Ankunft aber nicht die Japaner selbst, die auf den quirligen Syrer ungewöhnlich reserviert wirkten. Auch nicht die komplizierte Sprache, mit der er bis heute zu kämpfen hat. Das Verstörendste waren für Yamen die vielen Comics in dem Labor, in dem er die folgenden Jahre verbringen sollte. «Ein Kulturschock», sagt er heute selbst dazu. Irgendwann fasste er sich ein Herz und fragte seinen Doktorvater: «Sind wir hier, um zu forschen – oder um Comics zu lesen?» Und so erfuhr er die ganze Wahrheit über jene Idee, die die japanischen Forscher antreibt: Sie geht zurück auf Ghost in the Shell, einen japanischen Manga von 1989, von dem es auch verschiedene Animes gibt: Zeichentrickfilme. Dieser Manga handelt von der Zukunft im Jahr 2029: Viele Menschen leben dem Comic nach dann schon nicht mehr in ihrem biologischen Körper, sondern in künstlichen. In diesen befinden sich verpackt in einer Biokapsel (der sogenannten shell) menschliche Gehirnzellen mit einem subjektiven Geist (ghost). So bleibt die Identität, die individuelle Persönlichkeit eines Menschen, erhalten – trotz seines Maschinenkörpers. Als der Doktorvater den Schock in Yamens Blick bemerkt, nimmt er ihn zur Seite und sagt: «Die Mangas inspirieren uns. Ohne sie wäre Japan nicht so führend in der Robotik.» Aber Yamen fragt sich, ob er das überhaupt will, diese Vision. Bis zu diesem Punkt seines beruflichen Lebens hat er an virtueller Realität geforscht und sich mit künstlicher Intelligenz beschäftigt. Aber das nun? «Mir kam das alles ziemlich verrückt vor», sagt er heute. Mittlerweile ist von seinem ehemaligen Unbehagen nichts mehr übrig: «Wir gestalten die Zukunft, nicht die Gegenwart.» Als Ghost in the Shell entstand, war diese Zukunft noch vierzig Jahre weit entfernt. Heute sind es nur noch zehn. Seit Yamen den Geist einer alten Dame in einen Roboter transferiert und gesehen hat, zu welchem Glück das führte, ist er sehr offen für diese Zukunft. «Wir können disabilities in abilities verwandeln», sagt er – Behinderungen in Befähigungen. «Diese alten Menschen leben schliesslich noch, und das ist so wertvoll, wir müssen ihnen auch das Gefühl geben, dass sie leben.» Und dann ist ihm noch eine Idee gekommen, an deren Verkörperung er gerade herumschraubt: Wenn wir in einen anderen Körper schlüpfen können, wieso muss der eigentlich so funktionieren wie unserer? Wäre es nicht nützlich, diesen Körper um zusätzliche Funktionen zu erweitern? Um solche, die uns fehlen? Yamen hat «Metalimbs» entworfen, wie sein Projekt heisst: zwei Roboterarme, die man wie einen Rucksack tragen und mit den eigenen Füssen steuern kann. An diesen schraubt er gerade herum, denn gleich kommen seine Probanden. «So hast du vier Arme zur Verfügung», sagt er, als wäre dieser Wunsch nach mehr als zwei Armen das natürlichste Bedürfnis der Welt. Er hat mit seinen Freunden einen Film gedreht, der zeigt, wie nützlich zwei weitere Arme sein könnten: Der Protagonist im Film ist ein typischer Forscher, der am Computer arbeiten und gleichzeitig Kaffee trinken will – und dabei mit beiden Händen weitertippen möchte. Dank «Metalimbs» schafft er beides. Einige Zeit später sitzt Yamen nicht mehr allein in seinem Labor, sondern zusammen mit 15 jungen Forscherkollegen, die es kaum erwarten können, zwei zusätzliche Arme zu haben. Yamen schnallt jedem den Gurt wie einen Rucksack auf den Rücken. Zunächst baumeln die Roboterarme eher unbeholfen rechts und links parallel zu den eigenen Gliedmassen. Doch dann streckt Yamen einem der künstlichen Arme seine Hand entgegen, als wolle er sie begrüssen, und sagt: «Guten Tag.» Schliesslich ergreift eine Roboterhand die von Yamen und drückt zu. «Wahnsinn!», ruft eine japanische Doktorandin, nachdem sie fünf Minuten lang hochkonzentriert geübt hat, ihre zwei neuen Arme zu bedienen. «Es fühlt sich an, als gehörten sie zu mir!» Ein kleiner Wettkampf entwickelt sich. Wer schafft es, sich selbst einen Ball zuzuwerfen, von der echten Hand in die Roboterhand? Wer kann mit seinen vier Händen trinken und schreiben und winken gleichzeitig? Die Köpfe werden röter, nach einigen Runden riecht es wie in einer Grundschulturnhalle nach der fünften Stunde, auf dem Boden sammeln sich immer mehr Kleidungsstücke. Yamen steht schüchtern daneben, das Grinsen auf seinem Gesicht wird immer breiter. Seine Idee funktioniert! Schon nach wenigen Minuten Training steuern die Probanden ihre beiden zusätzlichen Arme und Hände intuitiv mit Beinen und Füssen. Es sei wie beim Mountainbiken, sagt ein brasilianischer Sportdoktorand atemlos in den Probandeninterviews, die Yamen sorgfältig protokolliert: «Da wird das Rad auch zum Teil des Körpers.» Nach dem Absteigen fühle man sich zunächst wie amputiert. Viele berichten von ähnlichen Erfahrungen: Die fremden Körperteile werden schnell zu eigenen, es fühlt sich natürlich an, vier Arme zu haben. Das übertrifft Yamens Erwartungen. Er hat gezeigt, wie flexibel sich unser Körper erweitern lässt und wie intuitiv und schnell wir lernen, weitere Körperteile zu steuern. Aber dass die Probanden davon berichten, dass sich die Körperteile wie die eigenen angefühlt haben! Das hat er nicht zu träumen gewagt! Presence nennen er und seine Kollegen dieses Phänomen: das Gefühl, wirklich in der Maschine zu stecken. Superhuman Stufe 2: Die Fernsteuerung des Menschen Wer das mit dem Geist noch genauer verstehen will, der lässt Yamen und seine rotwangigen Probanden vorerst weiterdiskutieren und fährt noch einige Stationen mit der Tokioter Metro, geht um einige Häuserblocks herum und folgt einem Doktoranden, der plötzlich scharf rechts abbiegt, eine Treppe hinunterhuscht in einen Keller ohne Klingel und Türschild. Konspirative Atmosphäre. Der Doktorand klopft, tritt ein und steht plötzlich im Labor von Professor Jun Rekimoto. Seinen Namen hauchen hier alle nur ehrfürchtig. Der Professor der Universität Tokio gilt als der Ideengeber des «erweiterten Menschen». Kaum eine Konferenz zu diesem Thema kommt ohne eine Präsentation von ihm aus, er soll den Begriff Augmented Human erfunden haben. Für Namen hat er ein Händchen: Sein Labor heisst «Laboratoire Révolutionnaire et Romantique» – revolutionäres und romantisches Labor. Er hat Auleber gedruckt und bunte Broschüren, die Menschen mit allerlei technischen Erweiterungen zeigen. Ein Doktorand reicht der Journalistin eine Virtual-Reality-Brille und setzt selbst einen klobigen Helm mit einer Kamera darauf auf. Das Bild der Kamera wird auf die Virtual-Reality-Brille übertragen. Auf einmal sind die Perspektiven vertauscht: Die Besucherin sieht «durch die Augen» des Doktoranden. Und als der Doktorand sie anblickt, sieht sie sich im Headset selbst aus dessen Perspektive, als dritte Person. Doch als wäre das nicht schon verwirrend genug, taucht neben ihrem eigenen Körper auch noch ein kleiner Mann auf. «Jackin Head», sagt er in einem beruhigenden und gleichzeitig erfreuten Tonfall und reicht die Hand. Jun Rekimoto weiss, wie er seine Forschung effektvoll in Szene setzt. Er steht vor dem Doktoranden mit dem Kamerahelm und reicht diesem die Hand. Er weiss, dass die Journalistin ihn aus der Perspektive des jungen Mannes sieht, und er wird ihre Hand, die sie ihm reichen will, in der Luft hängen lassen müssen. Er befindet sich schliesslich gar nicht in Reichweite. Das fühlt sich auch für die Besucherin seltsam an. Erst als der Doktorand seinem Professor schüchtern die Hand reicht, stimmt die Wahrnehmung einigermassen überein. Das also ist Professor Rekimoto, mit dem es sich freilich besser spricht, wenn alle eigenen Sinne auch wieder im eigenen Körper sind. Rekimoto hilft aus dem Headset und reicht es dem Doktoranden, der es pflichtbewusst aufräumt. Auch ohne den Blick aus einem anderen Körper bleibt er klein: Der 57-jährige Professor steht unscheinbar und ein wenig unschlüssig zwischen all den Auauten in seinem Labor herum. Es wirkt, als ziehe er die Schultern zu seiner Körpermitte, um noch schmaler zu sein. Der Begriff «Jackin Head» für diesen Helm, der die eigene Perspektive in einen anderen Körper transferiert, geht zurück auf Neuromancer, den Roman von William Gibson, der den Cyberpunk begründet hat. Darin können sich Menschen in virtuelle Räume beamen, wofür Gibson den Begriff «to jack in» erfunden hat. Jun Rekimoto war 24 Jahre alt, als Neuromancer erschien; der Roman hat ihn von Anfang an bewegt. «Gibson hat darin den Cyberspace erfunden, den Raum zwischen den Computern», sagt der Professor. Damals mag das noch etwas abstrakt gewesen sein. Aber Gibsons 35 Jahre alte Vision bewegt bis heute die Forschung. Rekimoto hat die Idee schon immer begeistert. Und spätestens mit der virtuellen Realität ist dieser Raum real geworden. Erstaunlich real. Was ist die Essenz von Rekimotos Forschung? «Wir können andere Menschen fernsteuern», sagt er und zeigt seine alte Arbeit von 2010, mit der er bekannt wurde: «Possessed Hand» – frei übersetzt: «besessene Hand». Die Probanden tragen Armbänder, aus denen jede Menge Kabel ragen. Die Bänder aktivieren die Muskeln ihrer Träger mittels elektrischer Signale. Dadurch können die Versuchspersonen ein Musikinstrument spielen, das sie noch nie zuvor im Leben gesehen haben, eine Art liegende Gitarre. Sie halten ihre Hand darüber, Rekimoto schaltet das System ein – und schon bewegen sich die Finger, so dass sie – im richtigen Abstand gehalten – Saiten zupfen. Es würde wohl niemand für so ein Konzert bezahlen, noch klingt es eher wie die Musikstunde im Kindergarten. Aber die Idee wird deutlich. «Wir können andere Menschen fernsteuern», wiederholt Rekimoto. Und nicht nur das: Spannender findet Rekimoto es, beliebige Fähigkeiten von anderen Menschen zu übernehmen. Eine künstliche Intelligenz könnte für jede erdenkliche Handlung die jeweils beste Ausführung identifizieren, diese mittels Sensoren und Bewegungstrackern aufzeichnen und in elektrische Muskelsignale übersetzen. Die Menschen der Zukunft könnten dann einen Anzug mit Elektroden anziehen und sich die entsprechende Fähigkeit aus dem Internet herunterladen. So könnte jeder Klavier spielen wie ein Profi oder tanzen wie eine Ballerina. Noch ist die Technologie längst nicht exakt genug, um jeden Muskel des Menschen anzusteuern, aber Rekimoto ist überzeugt: Das ist die Zukunft. Er arbeitet längst an einem neuen Begriff: dem «Internet of Abilities», dem Internet der Fähigkeiten. Die menschliche Erweiterung, für die sein Name in der Szene steht, ist für ihn beinahe schon ein alter Hut. «Wir können nicht mehr nur einen Menschen erweitern, wir können jetzt ganze Netzwerke erweitern», sagt er und klingt begeistert wie ein Staubsaugerverkäufer, der gerade gezeigt hat, wie viel Dreck das Vorgängermodell in der Wohnung hinterlassen hat. Superhuman Stufe 3: Dein freier Wille wird gekapert Professor Rekimoto ist ein grosser Visionär, ohne Frage – aber für den jungen Forscher Yamen ist ein anderer Mann bedeutender: Jun Nishida von der Universität Tsukuba, den Yamen einige Tage später mit seinem Professor Kai Kunze besucht. Als die beiden nach einer zweistündigen Reise durch Tokio den Besprechungsraum von Nishidas Arbeitsgruppe betreten, wirkt die Szenerie zunächst harmlos. Ein Schokoriegel, eine Halterung für Sportler, die ihr Handy damit um den Oberarm binden können, das nachgebaute Skelett einer Kinderhand, unzählige Kabel und ein junger Mann, der hier ein Kabel hineinsteckt, dort eine Funktion überprüft und nebenbei immer wieder etwas in den Computer eingibt. Der 26-jährige Mann mit Kinderskelett und Kabeln ist Jun Nishida, eigentlich «nur» ein Doktorand. Er darf hier seine Arbeiten zeigen, weil die beiden Gäste explizit nach ihm gefragt haben. Heute wollen gleich mehrere Forscherkollegen von ihnen entwickelte menschliche Erweiterungen vorzeigen: ein Gerät, das Menschen mit Muskelstörung hilft, ihre Augenlider zu bewegen; ein Armband für Schulkinder, das vibriert, wenn die Lehrerin die Pause beendet; einen Rollstuhl, in den der Patient stehend hineingeschnallt wird und der «spürt», wenn sich dieser bewegen will, um dann die entsprechende Richtung einzuschlagen. Schon im Eingangsbereich des Center for Cybernics Research steht eine mannsgrosse Schaufensterpuppe im Trainingsanzug, eingespannt in ein monströses Exoskelett, modernste Technik, martialisch. Jun Nishida hingegen arbeitet eher klein. Er hat sich das Skelett der Kinderhand kurzerhand im 3-D-Drucker ausgedruckt, die Handyhalterung schien ihm die beste Lösung, um seine Technik am menschlichen Körper zu befestigen. Er schaut kaum auf, wie ein verschüchtertes Kind, doch jetzt kann er es nicht mehr ändern: Er steht im Zentrum der Aufmerksamkeit. «Strecken Sie mal Ihren Arm aus», sagt er und verbeugt sich ehrfürchtig vor Kunze. Der deutsche Forscher hat bis dahin mit den Doktoranden und deren Professor Smalltalk geführt. Er ist Gründer und Leiter der «Geist»- Arbeitsgruppe an der Universität Keio, und niemand hier wundert sich über das deutsche Wort «Geist» – sobald Kunze es übersetzt, nicken alle wissend. Klar. Geist, der Geist in der Hülle, Ghost in the Shell. Dann geht es ganz schnell: Kunze bekommt drei Manschetten um den Arm: eine am Oberarm, eine unterhalb des Ellbogens und eine am Handgelenk. Jun Nishida rüstet sich selbst ebenso aus, sagt «Achtung» – und steuert den Professor fern: Kunzes Hand schnellt in die Höhe, wenn Jun Nishidas Hand sinkt – ballt der hingegen seine Hand zu einer Faust, öffnet sich Kunzes. Der Professor starrt auf seine Hand. Der Geist ist in ihn gefahren! Zum ersten Mal an diesem Tag schleicht sich ein kaum sichtbares Grinsen in das sonst so ernste und ehrfürchtige Gesicht Juns. Doch das war nur der Test. Nun hält der junge Doktorand einen Stift nur wenige Zentimeter über Kunzes Hand, der Professor soll ihn mit Daumen und Zeigefinger fangen. Es ist ein Reaktionstest, den die wenigsten Menschen bestehen. Bis die Information über den losgelassenen Stift von den Augen ans Gehirn und von dort wiederum der Befehl an die Armmuskeln gesendet wird, die Finger zu schliessen, ist der Stift längst auf dem Boden. Doch der vom Geist besessene Kunze schnappt ihn, als wäre es keine Mühe. Er schaut erstaunt, er kennt das Experiment, noch nie hat er den Stift gefangen. Doch diesmal spürt er es ganz genau: «Das habe ich gemacht», sagt er ungläubig, «ich habe den Stift gefangen, ich spüre es doch, das war ich!» Und nicht der fremde Geist in meinem Arm, will er sagen. Aber er weiss zu genau, dass das nicht wahr ist. Denn er kennt Jun Nishidas Forschungen von zahlreichen Konferenzen. In Wirklichkeit hat eine Elektrode an Juns Arm das Signal gemessen, das vom Gehirn an die Muskeln des Armes ging, als er die Hand öffnete – das System wusste also, dass er den Stift loslassen würde, noch bevor sich die Hand öffnete. Im gleichen Moment aktivierte die Manschette am Arm des Professors mittels eines elektrischen Impulses die Muskeln am Unterarm, die für das Schliessen der Hand zuständig sind – und zack, war der Stift gefangen! Es ist ein beeindruckender Beweis für die Reaktionsfähigkeit eines solchen Systems, erdacht von Jun, der damit schon als Doktorand auf die namhaften Konferenzen seines Faches eingeladen wird, von denen seine promovierten Kollegen nur träumen. Die stehen jetzt bedröppelt am Rand, während Kunze und Yamen nicht aufhören können zu fragen und zu diskutieren. Und die Kinderhand? Jun reicht Kunze einen Handschuh, an dem das Skelett der künstlichen Kinderhand befestigt ist, dazwischen eine Konstruktion aus Stäben und Gelenken, so dass jede Fingerkuppe des Professors direkt mit einer Fingerkuppe der Kinderhand verbunden ist, ebenso jedes Gelenk. Dann bindet er die Hand des Professors kurzerhand mit einer etwa einen Meter langen Schnur an dessen Gürtel fest, schnallt ihm einen weiteren Gürtel mit einer kleinen Kamera um den Bauch und reicht ihm ein Virtual- Reality-Headset. Als Kunze das Headset aufsetzt, ist er wieder Kind: Er sieht das Bild der Kamera auf Bauchhöhe vor seinen Augen – Kinderperspektive. Er kann auf einmal keinem der Kollegen um sich herum mehr in die Augen schauen, denn die umstehenden Personen erscheinen plötzlich viel grösser als er selbst. Und als er mit seiner Hand eines der Spielzeugautos greifen will, ist die aus dieser Perspektive auf einmal geschrumpft: auf Kinderhandgrösse, denn so sieht Jun seine Hand durch das Virtual-Reality-Headset – und so fühlt sie sich dank der umgeschnallten Kinderhand auch an. Er muss sich anstrengen, die Autos überhaupt greifen zu können, so gross sind sie auf einmal. «Mind the gap», kommentiert Jun trocken: Er meint damit die Lücke in der Wahrnehmung zwischen Erwachsenen und Kindern. Aus seiner Sicht sollte jeder einmal in den Körper eines Kindes schlüpfen können, um zu spüren, wie sich das anfühlt. Er hat Erzieherinnen und Kinderkrankenpfleger in die Rolle des Kindes schlüpfen lassen. Als die merkten, dass die Kinder am Anmeldetresen der Kinderklinik die Mitarbeiter nicht einmal sehen können, wollten sie die Klinik direkt umbauen. «Ein gap weniger», in Juns Worten. «Und jetzt machst du agency hacking!», entfährt es Yamen bewundernd. Agency meint das Gefühl, eine Handlung selbst auszuführen. «Es hat mich auch überrascht», antwortet Jun ernst. «Dass Menschen wirklich glauben, sie hätten den Stift selbst gefangen.» Und dass sie gar nicht bemerken, dass sie in Wirklichkeit ferngesteuert werden. 38 Prozent der Probanden ging es so, obwohl Jun ihnen das System vorher erklärt hatte. Sie wussten also, dass sie ferngesteuert wurden, fühlten sich aber selbst aktiv. Wie wäre es wohl, wenn sie es nicht wüssten? «Es klappt, weil die Intention mit der Handlung zusammenpasst», sagt Kunze, «wenn man den Stift fangen will, dann merkt man nicht, dass einem der eigene Körper zuvorkommt.» «Ist das gut?», philosophieren Jun und Yamen. Sollen sie weiterhin agency hacking betreiben? Was in der Vorstellung der meisten Menschen das ist, was sie als Mensch ausmacht, wird in Juns und Yamens Forschung auf einmal relativ: der freie Wille. Vielleicht ist er gar nicht so exklusiv, wie wir gern hätten. «Ich finde es gerade dann okay, wenn der Nutzer glaubt, dass er selbst handelt», sagt Jun. Wenn der fremde Geist in seinem Körper so gut getarnt ist, dass er ihn gar nicht bemerkt. «Realität ist relativ», sagt Yamen. «Wie in Matrix, da heisst es doch auch: ‹Dein Gehirn macht das alles echt.› Wenn mein Körper von einem Computer kontrolliert wird, ist es gesünder, das nicht zu wissen.» In Matrix, dem Film, werden die Gehirne von Menschen in einer Flüssigkeit am Leben erhalten – ihnen wird nur vorgespielt, sie lebten ein echtes Leben. Dabei ist alles, das ganze Umfeld, nur zusammengerechnet, also simuliert. Aber es fühlt sich echt an. Matrix ist eine düstere Vision der «virtuellen Realität» – Ghost in the Shell hingegen zeichnet ein positives Bild. «Die Menschen hier sind offener für die menschliche Erweiterung wegen der Animes», sagt Jun. Bleibt die Frage: Wie wichtig ist uns der freie Wille? Ist es wirklich in Ordnung, wenn wir glauben, Dinge zu tun, die wir eigentlich nicht selbst tun? Was ist, wenn jemand diese Technologie missbraucht? Die Fernsteuerung mittels elektrischer Muskelstimulation funktioniert nur, wenn sich der Betroffene nicht wehrt. Die aktive Muskelkraft ist stärker. Aber was passiert, wenn wir nicht mehr unterscheiden können zwischen dem, was wir selbst tun, und dem, was andere mit unserem Körper tun? Superhuman Stufe 4: Ein Körper – zwei Nutzer Als Jun einige Tage später zum Gegenbesuch bei Yamen in dessen Labor vorbeischaut, öffnet der für ihn seine Schatzkiste. Er zeigt sie nicht vielen, denn sein neuestes Projekt ist zu diesem Zeitpunkt noch geheim, es wurde noch nirgendwo veröffentlicht. Die Schatzkiste enthält das «Fusion», wie Yamen sein neues Produkt getauft hat: eine Mischung aus «Metalimbs» und dem Telepräsenzroboter der alten Dame. Vor allem aber ist «Fusion» ein Zwischenschritt auf dem Weg zum ferngesteuerten Menschen: Anstatt mit den eigenen Füssen werden diese Arme von einem Fremden gesteuert. Wie die alte Dame im Roboter sitzt, so sitzt ein Fremder in Yamens Körper, beziehungsweise auf seinem Rücken, bildlich gesprochen. In der Realität sitzt er in einem anderen Raum. Der Fremde steuert die künstlichen Arme, die bei «Metalimbs» noch mit den eigenen Füssen gesteuert werden, indem die Technik seine Bewegungen verfolgt und auf die Roboterarme überträgt. Es ist die Vision des Pioniers Rekimoto, nur einen Schritt weitergedacht: Anstatt nur aus den Daten anderer zu lernen, anstatt die Bewegungen eines anderen nur zu kopieren, wird so eine Zusammenarbeit möglich, eine Kooperation zwischen Body-User und Ghost-User in Echtzeit. Das klingt erst einmal aufregend, aber: «Wenn unser Körper nicht mehr unser Körper ist, ist das auch eine ethische Frage», sagt Jun zu seinem Kollegen, als beide atemlos nach vielem Spielen und Ausprobieren zwischen all den Kabeln in einer Ecke sitzen. Einen Körper gemeinsam für eine gute Sache zu nutzen, kann positiv sein, dieser Gedanke treibt auch Yamen an: «Wie können wir unseren Körper anderen zur Verfügung stellen und ihn nicht mehr nur egozentrisch nutzen?», fragt er. Dennoch: Anderen, kritischen Fragen wie etwa die nach der Verantwortung kann auch der altruistische Ansatz nicht ausweichen. Wie lässt sich bei einer solchen Kooperation etwa verhindern, dass ein Fremder den eigenen Körper entgegen dem eigenen Willen steuert? Im Extremfall könnte er jemanden ermorden – ohne selbst vor Ort zu sein. Laien mag es gruseln bei diesem Gedanken. Die Augmented-- Human-Szene jedoch lässt sich von solchen Gedankenspielen nicht beeindrucken. Und ausbremsen schon gar nicht. Zu gross ist die Euphorie. Yamens «Fusion» findet auf der wichtigsten Konferenz im Bereich Computergrafik, der Siraph, viele Fans. Ein einflussreicher amerikanischer Investor bezeichnet das Projekt als «Highlight der Siraph», er postet Videoclips von sich mit «Fusion» auf Twitter, auf denen er sichtlich Spass hat, ein anderer Investor schreibt: «Solche Projekte sind der Grund, weshalb ich überhaupt noch zur Siraph fahre.» Wenig später wird Yamen mit seinen «Metalimbs» zur Ars Electronica nach Linz eingeladen. Jun landet auf der Forbes-Liste «30 Under 30 Japan». Superhuman Stufe 5: Übermenschliche Wahrnehmung Und er reist nach Dagstuhl. In dem Barockschloss im nördlichen Saarland residiert seit 1989 das Leibniz-Zentrum für Informatik. Wer hier an einem Workshop zu jeweils sehr spezifischen Fragen der Informatik teilnehmen will, muss explizit eingeladen werden. Und wer wirklich eingeladen wird, gehört zur Elite auf seinem Fachgebiet. Bei ungezwungener Jugendherberge-Atmosphäre, Tee, Kaffee und Cola sitzen die Koryphäen von heute jenen Nachwuchstalenten von morgen gegenüber, Stuhlkreisfachsimpelei und euphorische Praxistests wechseln sich ab. Jun trifft in Dagstuhl Thad Starner, jenen berühmten Georgia-Tech-- Professor, der das Wearable Computing erfunden und die Google-- Brille mitentwickelt hat. Und er trifft einen Landsmann, Shunichi Kasahara, der sein Projekt «Superception» vorstellt, «übermenschliche Wahrnehmung». Shunichis System berechnet minimal voraus, wie sich die Perspektive des Probanden ändern wird, und versetzt dessen visuelle Reize mittels einer VR-Brille ein klein wenig in die Zukunft. Jun hingegen zeigt mit anderen jungen Forschern, wie sie Menschen mittels Elektroden auf den Muskeln fernsteuern können. «Ist das unsere Vision, dass wir Menschen fernsteuern können?», fragt einer der Professoren. «Ich könnte mein Kind mit einer Fernbedienung daran hindern, vor ein Auto zu laufen», sagt eine andere. Das Kind, das auf die Strasse rennt. Der Mörder, den ein Augenzeuge stoppen könnte, bevor es geschieht. Oder der Notarzt, der nicht rechtzeitig vor Ort sein kann in unwegsamem Gelände und durch den Körper eines Kameraden den Verunglückten retten kann. Es verwischen sich nicht nur die Grenzen zwischen Mensch und Maschine, freiem und gesteuertem Willen – sondern auch zwischen Räumen. Als Jun von «Superception» hört, ist ihm eines sofort klar: Er und Shunichi müssen sich nach ihrer Rückreise in Japan wiedertreffen – um die Grenzen des Möglichen wieder ein bisschen mehr zu verschieben, nur diesmal gemeinsam. Nach der Dagstuhl-Tagung lädt Shunichi Jun und zwei weitere Freunde zu sich ins Labor ein. Er reicht seinen Besuchern je ein Virtual-Reality-Headset – Jun ist augenblicklich in vier Körpern statt nur in einem unterwegs: Vor seinen Augen erscheint die Perspektive der drei anderen Mitspieler und seine eigene, aufgeteilt in vier Rechtecke. Nur welche ist seine? Er geht vorsichtig durch den Raum, zögerlich, hebt er seine rechte Hand – und siehe da: Vor einem der vier Bilder in seinem Headset erscheint sie. «Wow, ich weiss, wer ich bin!», ruft er aus. Doch dann sieht er in einem der anderen Bilder seinen eigenen Rücken und eine fremde Hand mit einem Schwert, das direkt auf seinen Rücken zielt. Er macht einen Sprung zur Seite, da hört er Shunichis kindlichbegeistertes Lachen im Ohr. Der verteilt nun Plastikschwerter in verschiedenen Farben an alle vier, es entsteht eine wilde Jagd. Die vier Nachwuchsforscher werden immer besser darin, vier verschiedene Perspektiven in ihrem Gehirn zu verarbeiten. «Man kann also Sinne auf andere übertragen», sagt Jun spätabends nachdenklich zu seinem Kumpel. Die anderen beiden sind längst gegangen, als er und Shunichi ihre Gemeinsamkeit entdecken: «Ich erforsche, wie wir die Wahrnehmung teilen können – und du, wie wir die Muskeln teilen können», sagt Shunichi. «Wenn wir unsere beiden Projekte koppeln, wenn ich also die anderen drei auch noch fernsteuern könnte – dann könnte man gar nicht mehr herausbekommen, welche die eigene Perspektive ist», sagt Jun. Shunichi spinnt den Gedanken weiter. «Wenn wir alle miteinander verbunden sind, sowohl visuell als auch motorisch, dann verlieren wir uns selbst.» Die beiden philosophieren noch die ganze Nacht. Japan und die Roboter In Japan beschäftigen sich zahlreiche Startups und Projekte damit, den perfekten Telepräsenzroboter zu entwickeln. Das liegt unter anderem daran, dass die Japaner ein völlig anderes Verhältnis zu Robotern haben als etwa Deutsche oder Schweizer: In der japanischen Gesellschaft sind Roboter sehr beliebt, die Angst vor Überwachung oder Missbrauch ist weniger stark ausgeprägt als in Europa. Im Gegenteil: Die Japaner betrachten Roboter als etwas, das ihr Leben in der Zukunft verbessern wird. Deswegen werden Roboter in Japan nicht nur in der Industrie eingesetzt (kein anderes Land auf der Welt exportiert so viele Industrieroboter), sondern auch in der Altenpflege, Unterhaltungs- und Servicebranche oder im Hotelgewerbe. So wie im Henn na Hotel in Tokio etwa: An der Rezeption übernehmen zwei mannshohe mehrsprachige Dinosaurier- Roboter das Ein- und Auschecken, auf allen Zimmern warten «Dino- Helfer-Eier», die Aufträge der Gäste entgegennehmen. Die Antwort auf die Frage, ob in dem Hotel auch menschliche Mitarbeiter arbeiten, liest sich auf der hauseigenen Homepage eher ausweichend: «Das Personal ist 24 Stunden verfügbar. Es wird in Notfällen antworten.» Wie beruhigend. Robotik extrem 70 Prozent der unverheirateten Männer zwischen 18 und 34 sind in Japan single – und fast die Hälfte davon hatte noch nie Sex. Oder zumindest nicht mit einem realen Menschen. Dafür wächst in Japan die Beliebtheit für Sexroboter. Mittlerweile gibt es sogar Therapeuten, die jungen Männern dabei helfen sollen, sich wieder für reale Frauen zu interessieren, statt sich in Manga-Mädchen und Sexpuppen zu verlieben. Zur Autorin Eva Wolfangel, 43, lebt mit ihrer Familie in Stuttgart – und mit zwei Robotern: einem vier Jahre alten Staubsauger- und einem zwei Jahre alten Wischroboter. «Die machen schon gute Arbeit», sagt Wolfangel, «aber wischen können Menschen besser. Der Roboter wäscht während des Putzens den Lappen nicht im Eimer aus.» Wolfangel schreibt vorwiegend Texte aus dem wissenschaftlichen und technischen Bereich, «weil ich die Frage, wie wir in der Zukunft leben werden, spannend finde.» Sie probiert neue Technologien für ihre Texte gern selbst aus, um den Lesern und Leserinnen danach zu zeigen, wie sich das anfühlt. Bei ihrer Recherche in Japan liess Wolfangel sich gern von der Euphorie der jungen Forscher mitreissen. «Diese Kreativität, die hat mich total gepackt», sagt sie.