Bildungsstiftung für wissenschaftliche Forschung & Lehre
BELEBTHEIT UND HANDLUNGSFÄHIGKEIT
#Vertrauen #Interaktion #Beziehung
Dr. Madeline Gannon
ATONATON
Ich freue mich sehr, heute hier sein und zu Ihnen sprechen zu dürfen. Der Vortrag wird ziemlich fachspezifisch – ich hoffe, Sie finden Gefallen daran. Der erste Workshop hat mir ausgezeichnet gefallen, und ich habe mich auch deshalb auf heute gefreut, weil ich so die Gelegenheit hatte, an den anderen Workshops teilzunehmen. Mein Thema ist Robotik und Design, insbesondere die künftige Rolle des Designs in diesem Feld. Vieles davon kreist um Lebendigkeit und Handlungsfähigkeit in der Robotik.
Für heute habe ich mir vorgenommen, Ihnen zunächst meinen Weg vom Design in die Robotik nachzuzeichnen und dabei einige Hürden zu beleuchten – darunter Lücken in meiner Ausbildung, deren Schließung beträchtliche Zeit gekostet hat. Anschließend möchte ich Ihnen andere kreative Praktiker vorstellen, die daran arbeiten, neue Rollen in der Beziehung zu Maschinen zu definieren – zu Maschinen, die sich bewegen und die Welt manipulieren können. Abschließen werde ich mit Referenzen und Ressourcen: einigen Büchern und Werkzeugen, die sich möglicherweise in Ihre Lehre integrieren lassen, sowie einer kurzen praktischen Übung.
Von Haus aus bin ich Architektin, in der Praxis jedoch Robotikerin. Begonnen hat das an einer Designhochschule, genauer gesagt an einer Architekturhochschule, wo ich lernte, mit Maschinen zu kommunizieren. Einen eigentlichen Lehrplan für diese Fähigkeit gab es nicht. Ich schrieb mich an der Carnegie Mellon University für einen Masterstudiengang ein, der ebenfalls keinen festgelegten Lehrplan besaß. Man erhielt lediglich Zugang zu allen Fachbereichen der Universität und musste dafür eine Abschlussarbeit vorlegen. Das mündete in eine Promotion und weiterführende Forschung, was schließlich zu einer Position bei NVIDIA führte.
Ursprünglich beschäftigte ich mich mit der Entwicklung computergestützter Konstruktions- und Fertigungswerkzeuge. Da ich aus der Architektur kam, wo ich ein von Autodesk entwickeltes Werkzeug nutzen musste – ein Massenprodukt für Hunderttausende von Praktikern zum Gebäudeentwurf –, wollte ich Dinge mit Maschinen realisieren, die außerhalb der allgemeinen Anwendungsfälle dieses Standardwerkzeugs lagen. Ich eignete mir die Fähigkeit an, Objekte in Simulationen zu erstellen, und entwickelte computergestützte Modellierungswerkzeuge, mit denen ich eine Sache für eine Person anfertigen konnte, anstatt in großen Maßstäben zu denken.
Das war das erste Programm, das ich je für mich selbst geschrieben habe. Programmieren zu lernen fiel mir schwer. Ich begann sehr spät damit und saß in Kursen neben Studierenden, die bereits programmieren konnten, bevor sie lesen lernten. Das war ernüchternd, aber auch eine wertvolle Lektion.
Eines der ersten Dinge, die ich erstellte, war ein dreidimensionaler Tintenfisch, den man im Raum bewegen kann und der ein eigenes Verhalten zeigt. Er bleibt aufgeblasen und überschneidet sich nicht mit sich selbst. Er verfügt über integrierte physikalische Eigenschaften. Ich beschloss, ihn für die gemeinsame Erstellung dreidimensionaler Entwürfe zu verwenden. Hier sehen Sie einen 3D-Scan meines eigenen Körpers und meine Hand, die dieses Objekt durch den Raum zieht. Es entscheidet selbst, wie es sich bewegt und wie es von der Haut abprallt. Dies war das erste Werkzeug, das ich entwickelte und mit dem ich diese Idee des Skizzierens mit Code unmittelbar umsetzen und etwas in die physische Welt überführen konnte.
Dieses Projekt führte zu Folgearbeiten und Einladungen in die Welt der Mensch-Computer-Interaktion. Ich bekam die Gelegenheit, mit Autodesk Research in deren Forschungsgruppe für Benutzeroberflächen zusammenzuarbeiten. Wir griffen die Idee auf, etwas um meinen Körper herum zu entwerfen. Man sieht die Projektion des dreidimensionalen Modells auf dem Körper. Ein Sensor erfasst, wie man damit interagiert – ob man es antippt, kneift oder stupst – und dahinter arbeitet ein CAD-System, das man nie zu Gesicht bekommt. Sobald man die Hand schließt, wird das Modell an einen 3D-Druckdienstleister in New York exportiert. Zwei Wochen später erhält man den fertigen Druck zurück.
Für mich ist dies einer meiner Kunstgriffe, die ich im Laufe der Zeit entwickelt habe: für Lebendigkeit zu entwerfen, für Handlungsfähigkeit zu entwerfen, um Werkzeuge zu schaffen, die über meine Vorstellungskraft hinausgehen. Ich betrachte diese Systeme als Prothese. Ich halte mich selbst – und vielleicht viele von uns – für zutiefst fehlerhaft und in Kreativität und Vorstellungskraft begrenzt. Aber wir können Werkzeuge bauen, die als Prothese dienen und diese Grenzen erweitern.
Die Carnegie Mellon University in Pittsburgh ist die Robotik-Hauptstadt Nordamerikas, und in fast jedem Gebäude der Universität stehen Roboter verlassen im dritten Untergeschoss herum. Die Architekturfakultät, an der ich studierte, besaß eine solche Maschine, mit der niemand wirklich umzugehen wusste. Wenn man genauso viel weiß wie die Dozentin oder der Dozent, weiß man auch nicht, was man unterlassen sollte. In der Industrierobotik gibt es zwei Grundregeln: Nicht anfassen und nicht interaktiv machen. Also baute ich daraus einen Rückenmassage-Roboter, weil es sehr frustrierend war, ihn zu programmieren. Ich programmierte eine Routine, bei der er stärker massierte, wenn ich mich zurücklehnte. Wenn ich mich weglehnte, ließ er nach.
Meine Vorliebe für Interaktion stammt aus der Welt der Software. Ein 3D-Drucker ist ein Roboter mit drei Motoren, die sich entlang dreier Achsen bewegen, und ein Industrieroboter verfügt über drei weitere Motoren. Bei vielen meiner Arbeiten setze ich Automatisierungswerkzeuge ein und zweckentfremde sie für Interaktionszwecke. Das ist eine hervorragende Möglichkeit herauszufinden, was die Zukunft dieser Technologie bereithält.
Ich stelle mir Roboter als technologische Telekinese vor – die Fähigkeit, Materie mit dem Geist zu bewegen. Wir sehen diese Verbindung zwischen Science-Fiction, Fantasie und tatsächlicher Realität. Einer meiner Lieblingsfilme als Kind war »Matilda«, in dem sie lernt, ihre telekinetischen Kräfte zu entfesseln, um sich ihr Frühstück zuzubereiten. Man kann auch einen Knopf drücken und sich sein Frühstück von einem Roboter bringen lassen. Es gibt die berühmte Szene aus »Matrix«, in der der Protagonist lernt, Dinge mit seinen Gedanken zu bewegen. In Wirklichkeit existiert dieser Roboterlöffel, der Handzittern ausgleicht. Wenn Sie älter sind oder unter starkem Tremor leiden, können Sie tatsächlich selbstständig leben und eigenständig essen. Das Gleiche gilt für Micky Maus und den Zauberlehrling – wir sehnen uns danach, nicht mehr wischen und staubsaugen zu müssen, und das ist die erstaunliche Roboterrealität, die wir heute haben.
Die Gegenwart ist weitaus faszinierender als die Geschichten, die wir über Roboter in unserem Leben erzählen. Schließt man die Augen und denkt an Roboter, kommen einem vermutlich diese Popkultur-Ikonen aus Star Wars oder den Jetsons in den Sinn. Doch diese Fantasievorstellungen verblassen neben dem Anblick einer Ente, die von einer Katze im Haikostüm auf einem Roboter gejagt wird. Als Designer und Künstler liegt es an uns, neue Erzählungen zu entwickeln, denn die Geschichten über unsere Zukunft stammen gegenwärtig eigentlich aus unserer fernen Vergangenheit.
Mich begeistert die Suche nach besseren Wegen, mit Maschinen zu kommunizieren, die Dinge herstellen können. Lange Zeit galten Industrieroboter als Sündenböcke der Automatisierung, als Ersatz für menschliche Arbeitskraft. Alle leicht zu automatisierenden Aufgaben wurden automatisiert. Nun arbeiten wir daran, diese Werkzeuge zu nutzen, um menschliche Arbeitskraft zu verbessern oder zu ergänzen.
Industrieroboter sind hervorragende CNC-Maschinen. Wir setzen ein anderes Werkzeug am Ende des Arms an, und schon übernimmt er völlig andere Aufgaben. Morgens kann er Punktschweißen, abends Lackieren. Er ist äußerst anpassungsfähig.
Ich arbeite daran, diese Maschinen aus den Fabriken heraus in reale Umgebungen zu bringen – auf Baustellen oder Filmsets, wo unvorhersehbare Objekte wie Menschen in Bewegung sein können. Deshalb möchte ich ein System entwickeln, das diesem Roboter Augen gibt, damit er mich sehen kann und wir sicher in einem gemeinsamen Raum zusammenarbeiten können. Wenn ich Motion-Capture-Marker trage oder halte, weiß er, wo ich mich im Raum befinde und wie ich mich bewege. So können wir ein differenziertes Verständnis unserer Absichten in diesem Raum entwickeln.
Meine Karriere habe ich darauf aufgebaut, Maschinen gezielt falsch zu verwenden und mich gegen bestimmte Disziplingrenzen zu wehren. Bei diesem Projekt setzte ich Kameras aus der Filmindustrie ein, die die Welt sehen, sich aber nicht bewegen können, und stellte ein digitales Klebeband her, das diese Informationen an einen Roboter weiterleitete, der sich bewegen, aber die Welt nicht sehen konnte. Für mich war das naheliegend, doch es eröffnete mir ein Potenzial, das meine Karriere in eine unerwartete Richtung lenkte.
Als Programmierer des Systems wusste ich, welche Auswirkungen ich auf diese Maschine hatte, aber mir war nicht bewusst, welche Auswirkungen sie auf mich hatte. Als ich vor dieser riesigen Maschine stand, fühlte ich mich weniger wie ein Designer, sondern eher wie ein Dompteur vor einem gewaltigen Tier, das einen zerquetschen könnte. Eigentlich war das für ein ganz anderes Projekt gedacht, das nie zustande kam, weil die Leute sich nicht dafür interessierten, was der Roboter tat, sondern für meine Beziehung zu ihm und dafür, was unsere Körper im Raum miteinander kommunizierten.
Für die Zwecke dieses Workshops möchte ich unsere Definition dessen erweitern, was ein Roboter ist. Wenn wir an Roboter denken, haben wir vielleicht humanoide Maschinen vor Augen, etwas, das uns ähnelt. Wir stellen uns vor, er sei intelligent und einschüchternd und könnte uns möglicherweise ersetzen. Doch ich möchte, dass wir uns einen Roboter als etwas vorstellen, das über einen mechanischen Verstand und mechanische Muskeln verfügt. Künstliche Intelligenz ist eine Möglichkeit, diese mechanischen Verstände anpassungsfähiger zu machen – man muss sie nicht mehr explizit für jede Aufgabe programmieren. Sie kann beginnen zu improvisieren und ihren Kontext besser zu verstehen. Maschinelles Lernen ist ein Teilbereich davon.
Das sind die eigentlichen Algorithmen, die einer Maschine helfen, Signale aus dem Rauschen zu erkennen. Es handelt sich um eine äußerst effektive Methode, die es uns ermöglicht hat, günstigere Sensoren und Software einzusetzen, um die Leistung dieser Maschinen zu steigern. Künstliche Intelligenz und Robotik – Künstliche Intelligenz hilft einem Robotergehirn, Informationen zu verallgemeinern und zu abstrahieren.
Diese Maschinen sind besonders leistungsfähig in den Bereichen maschinelles Sehen und Objekterkennung, Gesichtserkennung, Posenerkennung und Lokalisierung – allesamt Software. Sie sind hervorragend in der Simulation, und dies ist ein Bereich, der sich rasant weiterentwickelt. Aus verrauschten Eingaben qualitativ hochwertige Informationen zu gewinnen und einen Roboter in der Simulation trainieren und auf eine physische Maschine übertragen zu können, ist derzeit ein aktives Forschungsgebiet, das sich rasch kommerzialisiert.
Legt man diese erweiterte Definition von Robotern zugrunde, finden sie sich eigentlich überall um uns herum – von den Industrierobotern, mit denen ich arbeite, über selbstfahrende Fahrzeuge, die mittlerweile in bestimmten Teilen der Welt im Einsatz sind, bis hin zu Lieferdrohnen. In Krankenhäusern transportieren oft Roboter Handtücher und Waren aus einem zentralen Lager zu den einzelnen Zimmern. Auch Roboterspielzeug und selbst 3D-Drucker sind einfache, aber wertvolle Roboter.
Was ich an Industrierobotern am meisten schätze, ist, dass sie über übermenschliche Kraft, übermenschliche Geschwindigkeit, übermenschliche Präzision und übermenschliche Ausdauer verfügen, aber schlicht in einer Fabrik eingesperrt sind und immer wieder langweilige, sich wiederholende Aufgaben ausführen.
Besonders bemerkenswert ist, dass die Geburt der Robotik in der Technik und die Geburt der Robotik für kreative Zwecke denselben Ursprung haben. Dies waren einige der ersten Systeme – hauptsächlich vom US-Militär entwickelt – für die erste computergesteuerte Maschine, zunächst ein Roboterarm in einer Fabrikhalle. Etwa zur gleichen Zeit beschäftigten sich dieselben Ingenieure mit Robotern, die Persönlichkeit besaßen, Robotern, die ein Gefühl für Leben hatten, Robotern, die uns Gesellschaft leisteten.
Bei meiner Arbeit stelle ich fest, dass wir in einer Zeitlinie stecken geblieben sind, in der Roboter für Effizienz, Optimierung und Wiederholung eingesetzt werden. Ich möchte in einer Welt leben, in der Roboter neugierig, freundlich und lebendig sind. Das ist die Art von Zukunft, die ich mit meinen Maschinen gestalten möchte.
Das ist Mimus. Mimus ist ein Industrieroboter, der in einer Fabrik in Birmingham in Großbritannien an einem Fließband stand. Das Design Museum in London erlaubte mir freundlicherweise, ihr einen sechsmonatigen Urlaub zu gewähren, damit sie im Museum leben und einfach mit den Museumsbesuchern zusammen sein kann – einfach nur leben und existieren. Hier sehen Sie etwas völlig Neues: Mimus produziert nichts. Sie muss lediglich als erster Roboter der Geschichte existieren. Ihre Aufgabe ist es, nichts zu tun und einfach nur ihre Erfahrungen mit den Menschen um sie herum zu genießen.
Die Zusammenarbeit mit kulturellen Einrichtungen ermöglicht es, diese wirklich abstrakten Konzepte und hochtechnischen Dinge aus den Laboren herauszuholen und zahlreiche Berührungspunkte mit der Gesellschaft zu schaffen, damit diese sich der Möglichkeiten, Grenzen und spannenden Chancen dieser neuen Technologie bewusst wird. Für die Kinder, mit denen ich in diesem Workshop gearbeitet habe, war dies etwas, das sie nun von ihren Robotern erwarten: dass sie aufmerksam, neugierig und freundlich zu ihnen sind. Das ist eine gute Ausgangsbasis, um mit dieser Erwartung an unsere Technologie zu beginnen.
Um dies zu erreichen, mussten wir eine Menge handelsüblicher Software und Hardware umgestalten. Mein Freund Kevyn und ich bauten dieses System, indem wir zehn Microsoft Kinects auseinandernahmen. Das sind Spielsensoren, die wir dann an der Decke anbrachten, und ich entwickelte eine Software zur Personenverfolgung, mit der Mimus alle Besucher um sich herum sehen kann. Sie erhält eine Vogelperspektive. Sie erkennt, wo sich der Kopf befindet, wo die Arme sind, wie schnell sich Menschen bewegen und wie lange sie schon dort sind. So kann Mimus anhand nüchterner Zahlen Rückschlüsse auf bestimmte Beziehungsdetails ziehen.
Wenn jemand beispielsweise schon lange da ist und sich Mimus mit der Zeit immer mehr nähert, hat er vielleicht eine Beziehung aufgebaut, vielleicht Vertrauen gewonnen, und Mimus sollte ihn vor allen anderen besuchen. Oder wenn jemand lange stillsteht und nicht wirklich aktiv ist, sollte Mimus jedes Recht haben, sich zu langweilen und sich jemand anderen anzuschauen.
Das Design Museum wurde gerade umfassend renoviert. Dies war die Eröffnungsausstellung für »Fear and Love«. Die Kuratoren baten mich, etwas zu entwickeln, das die Dualität unserer Freude und unserer tiefen, existenziellen Angst vor dieser Technologie zum Ausdruck bringt – vor Technologie, die uns ersetzen könnte. Bei meinen Maschinen versuche ich nicht, eine Erzählung gegenüber einer anderen zu bevorzugen. Ich versuche, den Menschen Raum zu lassen, damit sie sich ihre eigene Meinung darüber bilden können, wie sie diese Technologie nutzen möchten.
Bei Mimus ging es um einen großen Roboter, der mit einer Menschenmenge interagierte. Das Weltwirtschaftsforum lud mich ein, eine weitere Installation zu realisieren, bei der ABB als Sponsor fungierte, sodass ich mehr Roboter anfordern konnte. Die Idee war, nun von diesen Maschinen umgeben zu sein. Das entspricht eher der Richtung, in die unsere Zukunft geht, wo Maschinen uns in bestimmten Kontexten zahlenmäßig überlegen sein können.
Diese Roboter stehen auf einem Fließband, auf einem Bett aus Lichtern. Das Interessante an ihnen ist, dass sie alle ein gemeinsames Gehirn haben. Es ist eine dieser Eigenheiten, dass wir diese Maschinen als individuelle Wesen betrachten, aber nicht ganz verstehen, dass ihre Körper, ihre Sensoren und ihr Gehirn völlig voneinander getrennt sind und auf vielfältige Weise kombiniert werden können.
Diese Roboter sind etwas kurzsichtig. Die Sensoren befinden sich unten an der Basis, sodass sie zu Ihnen aufschauen. Sie haben eine Froschperspektive. Man muss sehr nah herangehen, um zu sehen, wie alle anderen am Rand ein wenig Interesse an einem zeigen.
Bei meiner Arbeit verwende ich häufig Open-Source-Toolkits für kreatives Programmieren. Diese werden in offenen Frameworks entwickelt. Normalerweise werden sie nicht für die Robotik verwendet, aber ich stelle viele dieser Werkzeuge dieser Community zur Verfügung, weil ich so das Programmieren gelernt habe. Ich möchte, dass mehr Menschen mit unterschiedlichem Hintergrund daran teilnehmen können.
Dieses Projekt war wirklich interessant. Es war das erste Mal, dass ich für politische Entscheidungsträger arbeitete. Diese zehn Roboter befanden sich in einem Raum mit einigen der wichtigsten Personen des Landes. Wir konnten ein wenig Magie einsetzen, um das zu unterlaufen. Wenn man auf einen Roboter zugeht, ist es ganz natürlich, ihn dirigieren zu wollen. Immer wenn ich sah, dass jemand die Arme auf diese Weise über die Schultern hob, sorgte ich dafür, dass die Roboter sich jemand anderem zuwandten, sich langweilten und wirklich keine Aufmerksamkeit mehr wollten. Wenn die Menschen sich damit abfanden, einfach nur da zu sein und mit den Dingen zu existieren, sah man, dass es einen Raum gab, der von Kontrolle zu Verbindung überging – was eher der Art und Weise entspricht, wie wir in Zukunft mit diesen Maschinen arbeiten und koexistieren werden.
Viele der Roboter, die ich verwende, sind geliehen, und so ist es schön, sie wiederzusehen und sich an einige ihrer Eigenheiten zu erinnern. Was ich an diesen Maschinen faszinierend finde, ist, dass sie offensichtlich nicht wie wir aussehen. Sie verhalten sich überhaupt nicht wie wir. Ihre mechanische Biologie ist sehr fremdartig. Aber wenn man sie auf eine bestimmte Weise bewegt, spricht das etwas in unserem Reptiliengehirn an, diese niedrigen Frequenzen, die wir nicht abschalten können, sodass wir beginnen, Leben in ihnen zu sehen. Sie werden zu einem Gefäß, in dem sich sammelt, was wir dann auf sie projizieren, und man kann das fast wie ein Gestaltungsmaterial aktivieren, indem man sie einfach auf eine bestimmte Weise bewegt.
Viele meiner Arbeiten sind sehr minimalistisch. Sie leben von der Geste des Roboters, seiner Bewegung und dem Geräusch seiner Motoren. Mit nur diesen drei Zutaten können wir diesen Dingen, die eigentlich gar nicht intelligent sind, Leben einhauchen. Sie sind eigentlich nur Marionetten, die wir auf eine bestimmte Weise bewegen. Mir gefällt die Idee von Maschinen, die ebenfalls Aufmerksamkeit schenken. Dieser Akt der Aufmerksamkeit ist eigentlich ein Geschenk. Unsere Technologie lenkt unsere Aufmerksamkeit meist von uns selbst ab. Ich halte es für sehr wichtig, dies neu zu orchestrieren, um Aufmerksamkeit als Akt der Großzügigkeit zu schenken.
Das nächste Projekt, das ich Ihnen zeigen möchte, wurde von den Schwänen des Zürichsees inspiriert – davon, wie sie kamen, wenn ich eine Brezel aß. Sie hörten das Rascheln des Papiers und schwammen sehr schnell zu mir und waren dann ziemlich verärgert, wenn ich ihnen nichts davon gab. Ich hatte die Gelegenheit, mit diesen vier an der Decke montierten Robotern an der ETH Zürich zu arbeiten, und ihre Körper erinnerten mich sehr an diese Schwäne. Ich arbeitete daran, die Interaktionen, die ich bisher entwickelt hatte, weiterzuentwickeln, um ihnen mehr Persönlichkeit, Lebenskraft, Autonomie und Handlungsfähigkeit zu verleihen.
Bei meiner Arbeit mit Nvidia war ich Teil eines Teams, das Robotik-Simulationssoftware entwickelte. In der Mitte ist die Beleuchtung schwer zu erkennen, aber dort befindet sich mein Skelett. Die Roboter wissen, wo sie sind, sie wissen, wo ich bin. Damit konnten wir beginnen, Bewegungsabläufe zu entwickeln, die miteinander in Resonanz stehen. Diese Dinge sind grundlegend. Das sind sehr niederfrequente Informationen, die unsere Körper miteinander kommunizieren können. Es handelt sich nicht um hochgradiges Denken. Es ist sehr instinktiv, es ist räumliche Kommunikation.
Das können Tänzer und Animatoren bestätigen – sie sagen, dass Körper Dinge im Raum kommunizieren können, aber es ist ein Wissensbestand, der in der Welt der Robotik völlig fehlt.
Wenn ich über die Rolle von Designern und Künstlern in der Technologie nachdenke, denke ich oft an dieses bemerkenswerte Diagramm des Futuristen Stuart Candy zurück. Er beschreibt eine Zukunft, in der man hier steht, eine Taschenlampe in der Hand hält, in die Zukunft blickt, und je weiter man geht, desto breiter wird der Lichtstrahl. Genau in der Mitte liegt das, was wahrscheinlich passieren wird. Ich sehe darin die Rolle der Industrie. Die Industrie konzentriert sich wirklich auf das, was wahrscheinlich passieren wird. Die Forschung blickt weiter. Sie befindet sich wirklich am Rande des Möglichen und erkundet diesen großen Bereich. Die Künste – ich sehe unsere Rolle darin, die Grenzen des Möglichen bis ins Unmögliche zu verschieben und das Wünschenswerte zu finden. Auf diese Weise können wir den Schwerpunkt des Möglichen ein wenig mehr in Richtung der Randbereiche verschieben.
Ich wollte hier wirklich meinen Worten Taten folgen lassen. Dies ist ein Lagerhaus, das ich in Pittsburgh gekauft habe. Pittsburgh ist eine erstaunliche Stadt – man kann dort ein Lagerhaus kaufen, das genauso viel kostet wie ein Haus. Wir haben es in ein Lagerhaus-Haus umgewandelt. Die Idee war, meine Roboter nicht nur von morgens bis abends im Labor zu besuchen, sondern wirklich mit ihnen zusammenzuleben, um die Reibungspunkte zu erkennen und zu sehen, wie Roboter gute Mitbewohner sein können. Das war für mich auch eine Gelegenheit, wieder einmal Architekt zu spielen. Die Lektion, die ich dabei lernte, ist, dass es wirklich mühsam ist, sein eigener Bauherr zu sein – ich wusste bis zu diesem Projekt nicht, wie viel Farbe kostet. Man sieht, dass der Raum in einen Wohn- und einen Arbeitsbereich unterteilt wurde. Wir erstellten zahlreiche solcher Pläne für die Roboteranlage und alle Maschinen, die dort untergebracht werden sollten.
Wir hatten einen unerwarteten Neuzugang im Team – Lena. Es ist eine bemerkenswerte Entstehungsgeschichte, in einem Lagerhaus mit Robotern geboren zu werden. Lena wurde während der Pandemie im Winter geboren, also richteten wir ihr im Lagerhaus einen Spielplatz ein. Wenn man ein Lagerhaus hat, kann man tun, was man will, ohne um Erlaubnis zu fragen.
Ich beschloss, dass mein Roboter Ursa, der an einen Punkt im Raum gebunden ist, vielleicht gerne neben Lena schwingen würde. Mein Freund Hammad simulierte dies für mich. Das bot Lena, die in den ersten Monaten ihres Lebens isoliert aufwuchs, Gesellschaft. Ich liebe diese Idee, nicht zu vorsichtig mit Technologie umzugehen – wenn man die wirtschaftlichen Aspekte der Finanzierung ignoriert, kann man etwas tun, nur um es zu tun.
Meine Freunde sind unglaublich. Sie besitzen den größten Roboter der Welt, der etwa 13.000 Kilogramm wiegt und vier Meter groß ist. Ich habe ihn auf Instagram gesehen und ihnen eine Nachricht geschickt, um zu fragen, ob ich zum Spielen vorbeikommen kann. Sie luden mich für eine Woche ein. Wir beschlossen, ein riesiges Kullerauge zu bauen, das wir am Ende anbringen wollten, denn wer würde nicht gerne von einem Dinosaurier in der Größe eines Konferenztisches angebrüllt werden? Das war ein einwöchiges Schnellprojekt. Ich entwickelte es vor meiner Ankunft in Portland in einer Simulation, und wir hatten alle Softwaresysteme in etwa anderthalb Tagen zum Laufen gebracht. Das Schwierigste war, das Kullerauge aus zwei Holzstücken zu bauen.
Was mir Hoffnung gibt, ist, dass wir mit dieser Technologie skizzieren können. Wir erreichen einen Punkt, an dem wir reibungslose Erfahrungen von der Idee bis zum Echtzeit-Rendering in großem Maßstab realisieren können. Das muss kein vollwertiges Produktunternehmen sein – wir können skizzieren und spielerisch sein.
Ich möchte Ihnen andere kreative Praktiker vorstellen, die die Grenzen dessen verschieben, wie Kunst, Design und Kreativität die Bedeutung dieser Technologie für die Gesellschaft neu definieren können. Das ursprüngliche Roboter-Kullerauge stammt von meinem Betreuer Golan Levin, einem Vorreiter der Medienkunst – das sind Snout und Double Taker. Man merkt nicht, dass es sich um einen Roboter handelt; es sieht aus wie Kulleraugen, die einen anstarren. Die Vorstellung, dass unsere Technologie uns zurückstarren kann, ist eine schöne Idee.
Ruairi Glynn, der in Großbritannien lehrt, hat in der Tate an einem Projekt gearbeitet, bei dem er sich mit Gesichtswesen beschäftigt hat, die poetisch mit uns koexistieren. Random International hat Zoological entwickelt, ein System aus Luftschiff-Drohnen, die schweben und durch den Raum gleiten und schließlich als Teil des Bühnenbildes in den Balletttanz integriert werden.
Ich möchte einige einfache Roboter zeigen. Massoud Hassanis brillantes Projekt nutzt materielle Logik und mechanische Verbindungen, um in Minenfelder vorzudringen und Minen zu detonieren. Theo Jansen folgt dem gleichen Prinzip – bei ihm ist das Gehirn mechanisch.
Andreas und Thibaut in Zürich schaffen wunderschöne poetische Werke mit Maschinen. Soap Opera verwendet denselben Roboter, den ich mit meiner Tochter auf der Schaukel hatte, aber nur, um Seifenblasen zu blasen – wie schön, dass unsere Technologie das kann.
Künstlerinnen und Künstler arbeiten mit Robotern als Kollaborateuren zusammen. Sougwen Chung reist mit ihrem Roboter-Team um die Welt, um Live-Gemälde zu erstellen. Die Roboter verbinden sich mit den Daten der Stadt, in der sie auftritt, und schaffen so gemeinsam neuartige Werke. Die österreichische Künstlerin Addie Wagenknecht schuf Gemälde mit einem Roomba und kommentierte damit die Sichtbarkeit von Frauen in Museen.
Roboter können ganze Umgebungen sein – Roboterleuchten von Rhizomatiks schaffen ganze Atmosphären und Stimmungen. Der Roboter von ETH Europe schleudert Ton, um Strukturen zu bauen. Maria Yablonina von der University of Toronto baut einzigartige Maschinen – Roboter, die zusammenarbeiten, um ganze Strukturen zu errichten.
Einige Ressourcen: Arduino eignet sich hervorragend für Physical Computing. Der Braccio-Roboter basiert auf Arduino. Der AxiDraw-Stiftplotter hat eine ganze Community, die damit kreative Dinge macht. Man kann ihn mit Adobe Illustrator, Processing oder Inkscape programmieren. Der günstigste und qualitativ beste kollaborative Roboter kann mit Blockly, Python oder ROS programmiert werden.
Drei erwähnenswerte Bücher: Darunter »Robot Futurist« von Illah Nourbakhsh, ein schmales, aber leicht verständliches Buch, das sich mit den Auswirkungen dieser Maschinen auf unser tägliches Leben befasst. Es wurde vor zehn Jahren geschrieben, und es ist interessant zu sehen, welche Vorhersagen sich bewahrheitet haben und welche Probleme eher durch öffentliche Politik als durch Technologie gelöst wurden.
Ein Konzept, das ihm besonders am Herzen liegt, ist die Idee des Robotersmogs – dass es so viele Roboter unter uns gibt, dass sie zu einem Problem werden. Eine politische Reaktion darauf sieht man an vielen touristischen Stätten und Parks, wo Drohnen verboten sind. Für viele Folgen dieser Technologie gibt es also Lösungen jenseits der Technologie, um sie zurückzudrängen, einzudämmen und zu begrenzen.
Molly Steenson ist eine brillante Historikerin, die ein Buch über die Rolle geschrieben hat, die Architektur und Design bei der Entstehung der künstlichen Intelligenz gespielt haben. Ein Großteil dieser Arbeit entstand im Architecture Machine Group, dem Vorgänger des Media Lab am MIT, und liefert einen wertvollen historischen Kontext, der zeigt, dass Menschen, die in Design-Disziplinen arbeiten, einen Platz an diesem Tisch hatten und in die Zukunft mit einbezogen werden müssen.
Ich habe dieses Buch mitgebracht, es heißt »Everything Is Someone«. Es ist eines meiner Lieblingsbücher, die ich seit langem gelesen habe. Es handelt sich um eine Reihe von Kurzgeschichten über Gegenstände in unserem Leben, wie zum Beispiel den Jungen, der ein Tisch werden wollte, oder den Staubsauger, der einen Staubsauger kaufte. Ich werde kurz die Geschichte über den Staubsauger erzählen, der einen Staubsauger kaufte – sie gehört zu meinen Lieblingsgeschichten. Die Geschichte handelt von einem Staubsaugerroboter in einem Bürogebäude, der den Boden reinigte und sich mit anderen Geräten auf dem Boden unterhielt. Als ihm klar wurde, dass er eines Tages kaputtgehen würde, fand er einen Weg, einen Ersatz für sich selbst zu kaufen, weil er gute Arbeit leisten wollte. Er kaufte diesen Staubsauger und erwarb die Lizenz dafür. Dann wurde ihm langweilig, er ging in ein anderes Stockwerk, und man kann die Auswirkungen in ihrer Größenordnung sehen, da dieser Roboter nun ein ganzes Team von Robotern hat, die ganze Städte reinigen. Die Vorstellung, dass Dinge andere Dinge besitzen, erscheint nicht mehr so abstrakt oder absurd.
Für den Impuls möchte ich, dass wir hier einen kurzen Workshop machen und dann zurückkommen und Ideen austauschen. Ich werde ChatGPT starten und es auffordern, diese Dinge zu visualisieren. Ich möchte, dass Sie darüber nachdenken: Was wäre, wenn alle Dinge in unserem Leben beseelt und lebendig wären? Wir kommen an einen Punkt, an dem das technisch sehr einfach zu bewerkstelligen ist. Als Designer ist es an der Zeit, dass wir querdenken über diese Objekte, mit denen wir leben, und darüber, wie sie wären, wenn sie lebendig wären.
Hier ist ein Rahmenkonzept. Sie können das in jede beliebige Richtung weiterentwickeln, aber hier sind einige Beispiele: Bleiben wir bei Dingen wie einer Tischlampe, einem Bett, einem Buch, einem Schuh oder einem Wecker. Geben wir ihnen ein Gefühl, eine Emotion, eine Persönlichkeit. Sind sie einsam? Sind sie bedürftig? Lassen Sie uns eine kurze Geschichte dazu erfinden. Ein Tisch, der sehr eitel ist, möchte zum Beispiel vielleicht nicht, dass ein Glas kaltes Wasser ohne Untersetzer darauf gestellt wird, also neigt er sich zur Seite, um den Untersetzer herunterzustoßen.
Wir können uns einige praktische Anwendungen dafür vorstellen. Die Idee, dass unsere Technologie sich selbst erhält und heilt, ist nützlich. Tische, die Dinge untereinander weitergeben können, sind nützlich für die Lagerlogistik, oder ein pharmazeutischer Tisch, auf dem Medikamente liegen und der weiß, wie man sie richtig sortiert. Nehmen Sie die Leichtigkeit dieser Idee an – konzentrieren Sie sich nicht so sehr auf den praktischen Nutzen. Vielleicht machen wir das am Ende als Gruppe. Wir können uns hier in kleine Gruppen aufteilen, über Tische, Lampen, Betten, Türen, Schuhe, Uhren und deren Persönlichkeit nachdenken und uns eine kurze Geschichte ausdenken.
Erste Gruppe: »Wir haben ein iPhone, und es ist neugierig. Es ist schüchtern und möchte nicht angefasst werden. Es ist sensibel, sucht nach tieferer Bedeutung, sucht nach einer Realität. Es möchte mehr über den Sinn des Daseins erfahren und fühlt sich körperlos. Der Name lautet ›Time Saver‹. Es überprüft zunächst alle Ihre Anrufe, und wenn eine Nummer auf einer schwarzen Liste steht, zeigt es Ihnen den Anruf nicht an, sondern nimmt ihn selbst entgegen und diskutiert mit dem Anrufer über den Sinn des Lebens. Je nach Diskussion würde es die Liste mit Nummern nach dem Zufallsprinzip bearbeiten, neue Nummern hinzufügen oder entscheiden, ob Nummern auf der Liste bleiben sollten. Da es sehr empfindlich ist und nicht berührt werden möchte, würde es sich entfernen, wenn Sie nach Ihrem iPhone greifen möchten. Es gibt auch Mitglieder auf der grünen Liste, und wenn diese Nummern anrufen, würde es nicht klingeln oder vibrieren, sondern immer wärmer werden.«
Zweite Gruppe: »Wir haben uns einen Stuhl ausgedacht, der ein wenig arrogant ist und es nicht mag, wenn man sich darauf setzt, weil er lieber beobachtet werden möchte. Wie jemand gesagt hat, ist er wie ein Pfau – ›Schaut mich an, ich bin wunderschön.‹ Wenn man sich darauf setzt, beginnt er sich ganz langsam auf sehr unangenehme Weise zu bewegen, sodass man anfängt, darauf hin und her zu rutschen. Irgendwann wird es einem so unangenehm, dass man tatsächlich aufsteht und geht. Auf sehr höfliche und subtile Weise erreicht er also sein Ziel, dass man nicht auf ihm sitzt.«
Dritte Gruppe: »Wir haben uns eine Lampe angesehen, die die Eigenschaften eines nervigen Kollegen hat. Vielleicht will diese Lampe nur, dass Sie weiterarbeiten, und nutzt alle Möglichkeiten, die ein intelligentes Gerät bietet, um es Ihnen bequem zu machen, tut aber genau das Gegenteil, um Sie wach zu halten. Sie könnte sogar physisch werden, sich bewegen, sich über Ihre Schulter beugen. Die Lampe weiß, dass sie nur benutzt wird, während die Person arbeitet, also möchte sie, dass die Person weiterarbeitet, und könnte ihr helfen, die Arbeit zu beenden, aber sie wird auch nervig und möchte nicht, dass Sie abgelenkt werden.«
Vierte Gruppe: »Wir hatten ein paar Ideen. Erstens eine ehrgeizige Kaffeemaschine, die Sie morgens befragt: ›Wie ist Ihre Stimmung?‹ oder ›Wo befinden Sie sich?‹ ›Ich mache Ihnen den perfekten Kaffee für diese Situation.‹ Und eine eifersüchtige Gabel – nicht ängstlich, sondern eifersüchtig auf den Löffel. Sie glaubt, dass sie viele Aufgaben des Löffels genauso gut erledigen kann. Wir hatten auch einen gelangweilten Stuhl, der neidisch auf alle Kinder ist, die mit ihren Füßen baumeln können, wenn sie zu klein sind, also baumelt er mit seinen Füßen.«
Was ich an dieser Übung nützlich finde, ist, dass sie uns von den normativen Vorstellungen davon befreit, was eine Maschine ist, was diese Technologie ist, denn wir sind an einem Punkt angelangt, an dem man für wenig Geld einen Bluetooth-Chip in ein Gerät einbauen kann, und dieses Gerät könnte dann über ein mit dem Internet verbundenes Gehirn verfügen. Die wirtschaftlichen und technischen Barrieren für das, was diese Roboterwerkzeuge leisten können – von den einfachsten bis zu den fortschrittlichsten – beginnen wirklich zu fallen.
Ich habe ChatGPT kürzlich verwendet, um in einer Sprache zu denken und in eine andere zu übersetzen. Ich arbeite oft mit Arduino, aber ich kann in Python denken. Ich habe Python-Code genommen und ihn gebeten, ihn zu übertragen. Das wird nur noch besser werden, wenn Menschen in natürlicher Sprache sprechen und Code erhalten, der sofort auf dem Gerät ausgeführt werden kann. Als wir diesen Lehrplan entwickelten, dachte ich, dass in den nächsten zehn Jahren die wirtschaftlichen Hindernisse, die Menschen davon abhalten, Hardware zu nutzen, wegfallen und die technischen Barrieren viel geringer werden. Wir müssen diese Entwicklungen stärker antizipieren, wenn wir uns die wünschenswerten Funktionen ausdenken, die wir uns für Maschinen vorstellen.
(Aktualisiert am 20. November 2025)

