von in Messen & Veranstaltungen, News, Research

21st Conference on Animation, Effects, Games and Transmedia
April 26-29, Haus der Wirtschaft, Stuttgart, Germany

 
fmx_2016_001

„Opportunities for a new world“ – auf dieser Note endete am Freitag einer der mit Sicherheit spannendsten Talks der diesjährigen FMX und vielleicht auch einer der inspirierendsten der letzten Jahre. Generell waren es diesmal vor allem die überraschend faszinierenden Talks der kleineren Präsentationsräume, die für die vertretene Games-, Film- und VFX-Industrie vielleicht die entscheidenden Impulse der nächsten Zeit setzen könnten.

Wieder einmal habe ich mich für Euch auf den zahlreichen Panels, Workshops, Talks und Demos Europas wichtigster Konferenz in diesem Bereich umgeschaut und werde versuchen, ein möglichst umfassendes Bild des Standes der Industrie, aktueller Trends sowie deren Implikationen für die Games- und Interaction-Design-Szene der kommenden Jahre zu zeichnen. Ich habe versucht, diesmal nur die interessantesten Inputs zu sammeln, und dennoch ist es diesmal vermutlich der längste Bericht der letzten Jahre geworden. Sicher aber ein gutes Zeichen für eine wunderbar kuratierte Konferenz, auch wenn es nun vielleicht ein bisschen viel zu lesen geworden ist.

Tag 1 – Das „IN“-Erlebnis und Multi-User für Virtual Reality

Was mit einer „Jazz-Orgie“ des FMX-Trailers begann, sollte schnell zu einer VR-Orgie werden. Schon am ersten Tag zeigte sich, welch großer Diskussionsbedarf aber auch wie viele Unsicherheiten sich um das Thema virtueller Welten auch ein Jahr nach einer 2015 bereits recht VR-fokussierten Konferenz ranken. Wer heute nicht in irgendeiner Form in und an AR, VR oder MR arbeitet, scheint in dieser Industrie bald Schwierigkeiten zu bekommen, so sehr scheinen bereits manche Arbeitszweige klassischen Film/VFX-Designs zu bröckeln. Statt Panikmache sollte man aber vielleicht eher dieses neue Medium als eben solches verstehen: eine Chance, einen Input und eine neue Möglichkeit, Erlebnisforschung zu betreiben.

fmx_2016_002

In dieser Richtung ließen sich auch am ehesten die Talks des Dienstagmorgens verankern.
Bernhard Haux vom Oculus Story Studio machte vor allem deutlich, wie wichtig aber auch wie wenig erforscht bisher der Einstieg in das Virtual-Reality-Erlebnis selbst sei: Anstatt den User direkt mit dem Erlebnis zu konfrontieren, brauche jede erfolgreiche VR-Software ein „IN“, also einen Moment, der dem User ermöglicht, sich der digitalen Welt schrittweise zu nähern. In Haux‘ vorgestelltem Beispiel geschah dies durch ein einzelnes Glühwürmchen im Dunkeln, das der User zunächst betrachten konnte, woraufhin sich dann erst langsam die Welt und anschließend das Erlebnis selbst aufbaute. Statt „shots“ wie im Filmbereich solle man außerdem eher einzelne „story beads“ verwenden, also Knotenpunkte oder Hotspots, die auf den Betrachter „warten“ und somit ein Erlebnis nach eigenem Tempo ermöglichen sollen. Als kommende wichtige Größe in VR sah Haux aber vor allem Erlebnisse wie Oculus‘ „toybox“ – also multi-user Kontexte – was sich als Tendenz auch später in anderen Talks beobachten ließ.

fmx_2016_004

Nach einem gelungenen Track zur Demoscene letztes Jahr versprach diesmal „Filmmaker Meet Coder“ – so der Titel von Chris O’Reillys anschließendem Talk – ein Bild der immer konvergenteren Medienlandschaft, in der Kreative und Programmierer aufeinander treffen. Zwar bestand ein Großteil des Talks aus Werbung für Nexus Interactive Arts, jedoch gab es hier auch ein paar interessante Inputs und Projekte zu sehen: interaktive digitale Gemälde für neue Arten von Museen, einen digitalen multi-user Wasserfall (Promotion Aktion für CocaCola) sowie „Project Runway“ – eine Art öffentlichen digitalen Catwalks, der die vorbeigehenden Passanten auf Basis ihres Kleidungsstils zu beurteilen schien. Als positive Erkenntnis solch transdisziplinärer Experimente zog O’Reilly vor allem den iterativen, versionsbasierten Ansatz von Codern, der auch Kreativen zugute kommen könnte. Außerdem sei der Trend zu real-time design eine der sinnvollsten Entwicklungen für die Medienindustrie, welche VR zur Folge haben könnte.

fmx_2016_003

Vor der Mittagspause schaute ich mir noch das von Terrence Masson moderierte Panel zu „VR and AR content creation“ an, bei dem Daffy, Andrew Cochrane und Keith Miller zu Gast waren. Die wichtigsten Take-Aways hier waren, dass VR noch kein Markt sei und Kreative daher zunächst zum Wachstum des Publikums und einer guten Reputation von VR durch gute Inhalte beitragen sollten, „social“ in jeder Form das große Thema in VR werden könnte, man allerdings hier noch absolut in den Kinderschuhen stecke und daher aktuell weder Standards etablieren noch absehen könne, ob dieses Medium in Zukunft eine breite Akzeptanz bekommen und somit vielleicht sogar zu einer neuen Ausdrucksform beitragen wird. Obwohl mit Cochrane jemand aus dem transmedialen Sektor zu Gast war, wurde ich das Gefühl nicht los, dass hier wieder einmal nahezu ausschließlich Panelisten mit dem Paradigma von Filmemachern zusammen saßen – erfahrene Game Designer wie James Portnow oder Henry Jenkins hätten hier sicherlich den ein oder anderen frischen Wind beitragen können.

Das zweite Panel zum Thema VR dieses Tages wurde von Neil Schneider gehostet, der leider nahezu alle Äußerungen seiner Interviewpartner mit „good stuff“ kommentierte, wobei er daran selbst nicht so ganz zu glauben schien. Die hier gewonnenen Erkenntnisse ähnelten sehr denen des vorangegangenen Panels, wobei hier vor allem dank Dr. Michael Madary als Gast auch einmal die bisher wenig diskutierten ethischen Gesichtspunkte von VR zur Sprache kamen. Dabei wurde unter anderem auf die potentiell sozial dramatischen Folgen des Diebstals digitaler Avatare eingegangen, die bei stärker werdender Immersion und Identifikation mit digitalen Figuren ein psychologisches Problem darstellen könnten.

fmx_2016_005

Das auf dieses etwas farblose Panel dagegen folgende Highlight an Diskussionrunden ließ sich im Vorfeld fast schon am Moderator erahnen: wieder einmal hostete Ken Perlin von der NYU ein Panel, dessen Fragen nahezu besser waren als die Antworten, die es hier zu hören gab: zunächst gab es ein 5-minütiges Feuerwerk an Inputs von Perlin selbst, das er zwar selbst sicher nur als kurze Einleitung in des Thema „VR and the evolution of storytelling“ gedacht hatte, allerdings mit seinen eigenen VR-multi-user-Forschungsprojekten wie „Holojam“ selbst (ein kollaboratives VR-3D-Zeichenproramm, das sich sogar vor Ort für die Besucher direkt selbst ausprobieren ließ) die Messlatte bereits hoch anlegte. Auch schienen seine Fragen an die Interviewpartner schon weit über Klischeefragen wie „was sich aus Film und Games für VR lernen lasse“ hinaus zu sein, so fragte Perlin bei seinen Interviewpartnern ganz konkret nach Dingen wie, ob wir bald Dinge aus der Realität ausblenden wollen würden, sich der physische Raum als Konzept verändern könnte oder welche radikalen Ideen überhaupt erst mit VR denkbar seien. Solche Fragen ermöglichten hier verschiedenste Antworten, bei denen die Ideen der Panelisten nur so zu sprudeln schienen. Mitnehmen ließ sich hier, dass es bald weniger reale Objekte geben könnte, künstliche Intelligenzen nach und nach essentieller als potentielle Kuratoren medialer Erlebnisse werden könnten, aber auch, dass neue Formen von Medienagenturen entstehen könnten, die transdisziplinärer denn je mit unterschiedlichstem Personal kooperieren können müssten, wenn man in diesem neuen Medium adäquate Erlebnisse schaffen wolle.

Der Rest des Tages war mit dem 25-jährigen Jubiläum der Filmakademie und einem längeren Talk zum neuen Star Wars Film zwar optisch ansehnlich, wenn auch nicht sonderlich lehrreich. Der „Games for Change“ Track war leider nicht mehr zugänglich aufgrund zu vieler Besucher – ein seit 2010 leider wieder einmal wahrnehmbarer negativer Nebeneffekt eines neuen Besucherrekords – den Track verpasste ich nur ungern.

Tag 2 – Theme Parks und die Rolle von Sound in VR

fmx_2016_006

Nach den unzähligen Eindrücken des ersten Tages verlief der zweite Tag der FMX glücklicherweise ein wenig ruhiger, wenngleich auch das Thema des Vormittags „VR Coaster“ und „Theme Park Design meets VR“ anderes vermuten ließen. Thomas Wagner lieferte mit seinem Vortrag ein paar spannende Einblicke in die Entwicklung des „Alpenexpress VR Ride“, der eindrücklich darstellte, welche einzigartigen Vorteile die Synchronisierung der körperlichen Erfahrung eines Rollercoasters mit einem Ritt durch eine kongruent aufgebaute digitale Welt bieten kann: vor allem nannten Wagner und sein Kollege von Mack Media, Steffen Kottkamp, die potentielle Eröffnung des VR-Marktes für alle Generationen, wie dies einst mit Nintendos Wii für die Games-Industrie möglich war.
Nach den Panelen vom Vortag scheint dies vor allem essentiell, um die noch verbreitete Skepsis gegenüber VR zu nehmen und Benefits dieser neuen Entwicklungen sprichwörtlich „spürbar“ aufzuzeigen und erlebbar zu machen.

fmx_2016_007

Nicht gerechnet hatte ich mit einer anderen Art des Erlebbar-Machens: ein kleines Team von „Pearson“ gab mir in der Mittagspause die Möglichkeit, für etwa 10 Minten die „HoloLens“ von Microsoft zu testen. Zwar hatte ich das Gesichtsfeld deutlich größer und vor allem nicht so rechteckig beschränkt erwartet (vor allem, wenn man eher VR- und nicht AR-Erlebnisse mit Headsets wie Oculus oder Vive gewöhnt ist), dennoch war es faszinierend, digitale Objekte im Raum platzieren zu können, die sogar auf die umgebende Geometrie des Raumes korrekt reagierten und vor allem zwar recht leuchtend aber dennoch visuell äußerst solide erschienen. Man darf gespannt sein, wie Magic Leap dieses Thema angehen wird und was dies noch für Innovationen in Entertainment, Bildung, Medizin oder militärischen Entwicklungen nach sich ziehen könnte.

Ebenso weit vom eigentlichen Veranstaltungsort der FMX entfernt wie in seiner Wirkung unterschätzt scheint nach wie vor das Thema Sound für virtuelle Welten zu sein – dabei ließen sich im Caligari Kino in Ludwigsburg mit dem dieses Jahr erstmalig stattfindenden Track zum Thema Sound einige aufschlussreiche Erkenntnisse gewinnen. So stellte Vincent Percevault von G4F zunächst einmal dar, wie sehr die Mikrofontechnik für die adäquate Aufnahme von Sound für 360°-Filme noch der grafischen Technik hinterherzuhinken scheint. Außerdem gebe es zwar bereits einige gute Plugins für „spatial audio design“ (wie 3Dception), jedoch habe man das Problem, bis auf das Kickstarter-Projekt „Ossic“ noch kaum hierfür ausgelegte Kopfhörer auf dem Markt finden zu können.

fmx_2016_008

Auch Chance Thomas, der gemeinsam mit seinem Team das Sound-Design für das vielversprechende US-Unternehmen „The VOID“ entwickelt hatte, gab zu, an einigen Stellen mangels aktuell guter Audiotechnik viel mit Algorithmen und cleveren auditiven Illusionen in Game-Engines getrickst haben zu müssen, dabei sei das Thema Audio mitunter die wichtigste Komponente des virtuellen Erlebens für die wahrgenommene Präsenz der Users und daher besonders verwunderlich, dass dieses Thema in Produktionsprozessen neuer medialer Inhalte derzeit so weit hinten angestellt würde. Als die drei wichtigsten Komponenten erfolgreichen Sound-Designs fasste Thomas zusammen: „get accurate sound positioning done first, try to simulate the whole environment with sound, go for immersiveness“.

fmx_2016_009

Abschließend gab es noch zwei Talks über „Dolby Atmos“ zu „hören“, in denen vor allem nach der Präsentation von Christian Lerch aber eins klar wurde: gutes Sound Design erzeugt selbst einen Raum, hat aber Schwierigkeiten, bei einer visuell bereits komplexen Szene im Kinosaal überhaupt den Benefit des absoluten „Surrounds“ abzubilden.
Der zweite Talk zum gleichen Thema zeigte ein paar Beispiele der Filmakademie, bei denen „Dolby Atmos“ in vergangenen Jahren bereits zum Einsatz gekommen war. Leider stand hier die Moderationsqualität sehr im Kontrast zu den gezeigten inspirierten Shorts „Wrapped“, „Globosome“ und „Amour Fou“.
Auch der nachfolgende Talk versprach zwar zunächst mit Sound-Koryphäe Andre Jacquemin von Redwood einer der interessanteren zu werden, stellte sich aber doch als recht einfache Darstellung von Sound-Editing Arbeitsweisen für Multi-Channel-Mixing heraus, daher schaute ich mir den anschließenden Film zu „Imagine Dragons“ doch nicht mehr an und sparte mir die Energie lieber für den nächsten Tag, der mehr als genug spannende Inhalte bieten sollte.

Tag 3 – Das neue „Social“ und die Psychologie von VR

Als Christopher Lockhart, der führende Editor bei WME, seinen Talk am Donnerstagmorgen begann, befürchtete ich erst, dass dies eine reine selbst-beweihräuchernde Zeremonie (wie sonst oft bei z.B. Disney/Pixar-Präsentationen in diesen Räumlichkeiten) werden würde, und wenn dies auch zum Teil der Fall war, brachte Lockhart doch eine prägnante und einfache Formel mit, die die Frage und Thema seines Talks „Could Your Story Be A Movie?“ hinreichend beantworten können sollte: setzt ein Skriptwriter die Konzepte von „character, concept and conflict“ in einem Pitch für sein Filmkonzept konsequent und knapp um, hat er eine gute Chance, eine stringente Idee entwickelt zu haben.
Nicht ganz klar wurde mir allerdings, wieso Lockhart meinte, dies sei DIE Formel speziell für eine gute Film-Idee, da solche Komponenten für große Teile des Game-Designs in gleicher Art anwendbar sind. Diesem egozentrischen Talk hätte ich gern einen Interviewpartner oder ähnlich charakterstarken Moderator als Korrektiv gegenüber gesehen.

fmx_2016_010

Dass die FMX ihre Wurzeln stärker im Bereich Film als Spiel hat und damit noch deutlich mehr Referenten aus ersterem Bereich stammen, ist natürlich dem deutlich jüngeren Medium Spiel geschuldet; dennoch wunderte es mich, wie selbst das Publikum – wo doch von Jahr zu Jahr immer mehr ein Trend Richtung Transmedialität zu erkennen ist – in Andrews Cochranes Talk „Creating Narratives for VR“ auf die Frage hin, wer bereits einmal „DayZ“ gespielt habe, kaum erhobene Hände zeigte. Damit wollte er natürlich in die Thematik von „user-told stories“ einleiten und darauf hinweisen, wie sehr mediale Inhalte in Zukunft von kollaborativen Umgebungen profitieren könnten. Als Beispiel nannte er hier „Journey“ von „ThatGameCompany“, das mit seinem dezenten und anonymen 2-Spieler-Modus bereits 2012 gezeigt hatte, in welche Richtung sich innovative Konzepte im Bereich der zwischenmenschlichen Interaktion in Games bewegen können. Außerdem machte Cochrane klar, dass er den Begriff Story-„Telling“ für VR absolut ablehne, da Geschichten in VR nicht mehr „erzählt“ werden könnten, sondern erlebt werden müssten. Als große Zukunftstrends nannte er vor allem Software- und Hardware-Lösungen wie „ORBX Digital Hologram“, „Presenz“ und Microsofts Forschungsansätze in Richtung der „Volumetric Video“-Technik.

Am Nachmittag fokussierte ich meine Talk-Auswahl vor allem auf die psychologischen Komponenten von VR, die bisher auf der Konferenz wenig besprochen worden waren. Marientina Gotsis von der USC hatte ein vielschichtiges Panel vorbereitet, das mit seinen zwei weiteren Referenten bereits absolut ausreichend besetzt war, so viele Informationen gab es hier allein von Tony Landford, Dr. Michael Madary sowie der Kuratorin selbst zu hören.

fmx_2016_011

Gotsis leitete einen kurzen Diskurs über das therapeutische Potential von Games zunächst mit ihrer sehr persönlichen Geschichte und den Weg mit der Depression und Emotionsrepression ein, in der ihr das Game „Flower“ von „ThatGameCompany“ nach Jahren einen Lichtblick und als eines von wenigen Erlebnissen das Spüren von Gefühlen wie Fröhlichkeit wieder ermöglicht und ihr erstmalig das Potential von Spielen als Möglichkeit eines ergänzenden Anti-Depressivums aufgezeigt hatte. Weitere Anwendungsgebiete hätten sich im späteren Verlauf außerdem im Bereich kognitiv-behavioraler Therapie sowie in der Behandlung von PTBS sowie bestimmten Phobien gezeigt. Gotsis nutze Ihren kurzen Talk als, wie sie es selbst beschrieb, „wake-up call for artists“, mit dem Impuls, das neue Medium respektvoll und mit der Ziel von gesellschaftlicher Verbesserung einzusetzen; im Zuge dessen wies sie außerdem auf die folgenden sechs Kernpunkte hin, die es bei dem Einsatz von VR zu beachten gebe: Effekte längerer Benutzung könnten kumulativ sein, nach jedem VR-Erlebnis sei genug Erholungszeit vonnöten, Schäden durch langanhaltende Nutzung könnten sehr plötzlich auftreten, Migräne sei als Folge nicht auszuschließen, eine IPD (inter-pupillary distance) von weniger als 60mm sei für Kinder nicht tragbar, außerdem ließe sich „fatigue“ mit der Zeit durch Training reduzieren.

Im weiteren Verlauf dieser Vortragsreihe machte Dr. Madary vor allem noch einmal auf die sich anbahnenden möglichen Implikationen von neuen sozialen Interaktionsmodalitäten aufmerksam, die VR mit sich bringen könnte. Zwar war dieses Thema schon an den beiden Vortagen angesprochen worden, Madary brachte aber noch ein neues Argument: die Möglichkeit zu erweiterter Empathie (daher hatte die Veranstaltung „Beyond Empathy“ also ihren Namen erhalten). Was er damit meinte war vor allem, dass in Virtual Reality die Möglichkeit bestünde, neue digitale Körper als den eigenen darzustellen, so wie dies auch bereits mit Facebook-Profilen passiere, die laut Madary auch nichts weiter seien, als selbst-kuratierte Abbilder selektierter persönlicher Eigenschaften; dies könne sich durchaus in einer Art „embodied Facebook“ in naher Zukunft fortsetzen. Im Zuge dessen sei es aber ebenso möglich, nicht nur den eigenen Körper anders darzustellen, sondern auch die eigenen Möglichkeiten zum Selbstausdruck wie dem Ausdruck von Empathie zu „augmentieren“. Ob eine solche Entwicklung nun aber faszinierend, beängstigend oder positiv zu bewerten ist, darüber kann man sicher streiten; mich erinnerte dieser Diskurs jedenfalls stark an den Anime „Arjuna“ von 2001 – leben wir bald in einer solchen Welt?

fmx_2016_012

Was Zukunftsgestaltung angeht, so konnte auch Tony Langford mit dem Verweis auf das von ihm 2004 mitgegründete „Kinetica“ Museum ein deutliches Zeichen setzen. Dieses innovative Museum bietet vor allem jungen digitalen Künstlern ein Forum für die Exploration neuer Medien, ihrer sozialen Konsequenzen und Implikationen. Das Konzept habe dabei vor allem das Ziel, so Langford, einen Kontrapunkt zur hektischen Google-, Youtube- und Facebook-Gesellschaft zu setzen und sich damit auseinanderzusetzen, wie man als Mensch wieder mehr präsent und offen mit der eigenen Realität der sinnlichen Erfahrung im werden könne. Ein willkommenes Zeichen in einer ansonsten ebenfalls teils recht hektischen Konferenz.

In der abschließenden Diskussion der drei Panel-Teilnehmer wurde vor allem noch ergänzend thematisiert, dass aktuelle Rating-Systeme von Spielen und Filmen für VR nicht anwendbar seien. Es gebe schlichtweg noch keine Standards, anhand derer man entsprechendes Potential solcher Erlebnisse verlässlich messen oder bewerten könne und vielleicht werde es diese auch in Zukunft so nicht geben. Ein weiteres bisher nicht erforschtes Problem könnte außerdem das sogenannte „Avatar-Bullying“ darstellen, wenn User sich mit ihren digitalen Avataren so sehr identifizierten, dass kontinuierliches Mobbing gegen den eigenen Avatar schwerwiegende psychologische Konsequenzen haben könnte.

fmx_2016_013

Nach so vielen teils schwerwiegenden Inputs nahm ich mir den Rest des Tages bis zur Pressekonferenz am Abend erst einmal frei. Auf dieser gab es dann später noch drei Referenten, die jeweils einen recht unterschiedlichen Blick auf die VFX-, Film-, Games- und Transmedia-Industrie werfen sollten: Nick Cross als Artist gab dabei leider mehr einen Werbevortrag für seine eigene Arbeit als einen umfassenden Blick seiner Disziplin auf die Industrie, Cevat Yerli von Crytek kündigte das neue „Film-Engine“-Tool an, das Cinebox ablöst und nun als solide Software die Lücke zwischen Games-Techniken als Filmproduktionstool schließen könnte (leider vermutlich nur in diese Richtung); Dr. Richard Marks vom Playstation Magic Lab, von dem ich eigentlich nur einen Werbevortrag für Sony erwartet hatte, war noch der interessanteste Referent mit seinem kurzen Rückblick auf die Entstehung der Forschungsarbeit am Magic Lab, das sich am ehesten als Institut für Erlebnisforschung beschreiben lässt, und den bisher herausgearbeiteten Erkenntnissen, dass Hände in VR besonders relevant werden könnten. Wie relevant sollte sich am letzten und diesmal vermutlich wichtigsten Tag der FMX noch herausstellen.

Tag 4 – „Hands, Flight and Mind Control“

Der Morgen des letzten Tages begann mit dem „Hack Art“-Track und einem Talk von Tomasz Bednarz, der ein paar seiner letzten Projekte aus diesem Bereich vorstellte. Unter „Hack Art“ hatte ich mir zwar eher mit der Demoszene vergleichbare Inhalte vorgestellt, dennoch waren die gezeigten 3D-Installationsprojekte und ein 360°-Dokumentarfilmprojekt im Amazonas ganz interessant anzuschauen; allerdings gab es hier wenig zu lernen, außer, dass man beim Testen eines 360°-Films im Dschungel besser auf günstige Lösungen wie Google-Cardboard (aufgrund der hohen Belastung und Abnutzung der Technik) zurückgreifen sollte und VR für Dokumentarfilme im Speziellen eine gute Entwicklung sei, da es in diesem Format ohnehin immer um das „Entdecken“ ginge, wofür sich dieses neue Medium besonders gut zu eignen scheint.

Und dann kam ein Talk, mit dem ich so nicht gerechnet hatte. Fast schon beiläufig präsentierte Franco Tecchia vom Robotics Lab der Scuola Superiore Sant’Anna hier eine wegweisende Innovation, deren Präsentation ich eigentlich eher in der König-Karl-Halle vermutet hätte: eine Möglichkeit zur Online-Kollaboration mit den eigenen Händen als Helper-Tool. Zwar lässt sich in Microsofts Konzeptvideo zur Hololens eine solche Entwicklung bereits erahnen (ein „Online-Klempner“ hilft bei der Montage zuhause mit Augmented Reality), jedoch konnte ich bis zu diesem Vortrag keine vergleichbare Software finden, die vor allem eins tut: sich den typischen GameController als Hürde für die Interaktion zu sparen und stattdessen die Hände als Controller und Zeigegerät im Raum zu respektieren und einzusetzen. Tecchias „ReMoTe 3D“ Software zeigte hier vor allem eindrücklich, wie sich zukünftige Kommunikations- und Lernprozesse mit der Hilfe von AR auch über das Internet verstehen lassen könnten. Ein großer Schritt auf einer leider viel zu kleinen Bühne.

fmx_2016_014

Der nachfolgende Talk „Painting with Code“ war leider sehr rudimentär und beschäftigte sich eher mit simpler Mathematik als, wie von einem Mitarbeiter von Pixar eigentlich erhofft, ein weitergefasstes Verständnis von prozeduraler Gestaltung durch Code zu vermitteln, daher brach ich den Track hier ab und sah mir vor der letzten Mittagspause noch „Smart Drawings & Characters“ von Michiel van de Panne an. Dieser Track war deutlich spannender und erinnerte an Experimente wie „Mario AI“ – gezeigt wurde ein Verfahren, nach dem digitale Charaktere (ein Hund in dem Fall) durch simulierte neuronale Netzwerke lernen konnten, einen digitalen Hindernisparkur mit ausschließlich simulierten Animationen zu überwinden. Faszinierend hieran sind vor allem die Implikationen für die Zukunft künstlicher Intelligenz in interaktiven Mediensystemen und damit die Frage, ob wir bald in einer Zeit leben könnten, in der wir durch clevere agents gezwungen sind, unsere Möglichkeiten zur Interaktionen mit solchen KIs zu überdenken?

Nach einem etwas ernüchternden Panel, das einmal mehr den Titel „Storytelling in VR“ trug, aber aufgrund seines Fokus überwiegend im Bereich des 360°-Films leider hinter den Panelen des ersten Tages zurückblieb, entschied ich mich, mir noch den Vortrag „Becoming Superhuman“ als thematischen Schlusspunkt der diesjährigen FMX anzusehen. Zwar schaute ich mir außerdem noch ein paar andere eher technische Talks am Nachmittag an, aber dieser von Yehuda Duenyas („Mindride“) stellte alles andere in den Schatten. Sein Interesse an „transformative experiences and the human soul“ sowie der Erschaffung von „mythical experiences“ konnte man klar in seinen Projekten ablesen, die sich im Wesentlichen mit den drei Bereichen „mind control“, „x-ray vision“ und „flight“ befassten – daher auch der Titel des Vortrags. Was Duenyas hier zeigte war eine bewegende Präsentation auf mehreren Ebenen:

fmx_2016_015

In seinem Projekt „Love Has No Labels“ zeigte er, wie man durch die Verwendung von Motion Tracking und einer simulierten Röntgensicht Szenen erzeugen kann, die mit der Empathie der Betrachter spielen und zu mehr Toleranz führen können; mit „Airflow“ (Abb. s.o.) stellte er ein Framework vor, in dem man VR-Headsets so in ein aufwändiges Gerüst integrierte, dass User das Gefühl bekommen konnten, tatsächlich durch die virtuelle Welt zu fliegen (anstatt wie bei dem Züricher Projekt „Birdly“ auf einem Gerät zu liegen); das bewegendste Projekt war aber mit Sicherheit „The Ascent“: eine Installation für eine Einzelperson, bei der man mittels eines Neuroheadsets auf einer großen Bühne die umgebende Lichttechnik, das Sounddesign und viele andere Effekte durch den eigenen mentalen Zustand direkt beeinflussen konnte. Da für das Gelingen der Interaktion der User sich in einen absolut entspannten und ruhigen Zustand versetzen musste, schien dadurch das hier mögliche Selbsterlebnis so intensiv und transformativ zu sein, dass einige Besucher der Installation es als eine lebensändernde Erfahrung beschrieben; ein Besucher gab sogar an, diese Erweiterung des Selbst sei so wunderbar, dass er gerne auf diese Art und Weise sterben würde.

fmx_2016_016

Wenn solche Erfahrungen durch neue Technologien wie VR, Neuroheadsets und Tracking Technologien überhaupt erst möglich werden, brauchen wir in Zukunft mehr Designer wie Duenyas und sein Team von „MindRide“ – damit haben wir tatsächlich viele „opportunities for a new world – and it should better be a good one, where technology can elevate us as human beings“.

Damit endete die FMX 2016 auf einem Paukenschlag, wie ich ihn hier selten vernommen habe. So viele verschiedene Dinge scheinen gerade in der Medienlandschaft zu entstehen, dass wir durchaus eine neue Art von „industrieller Revolution“ erleben könnten. Mein Fazit dieses Jahr zu aktuellen Entwicklungen fällt jedenfalls so aus: soziale und vernetzte Erlebnisse, gutes Sound Design, Hände und generell neue Interaktionsmodelle werden in VR das nächste große Ding – allerdings muss dafür auch erst ein Markt entstehen – hierbei muss man dann als Designer jedoch jetzt mehr denn je verantwortungsvoll mit der Erstellung von Inhalten umgehen, da die psychischen Folgen auf Dauer noch nicht klar abzusehen sind. Die Möglichkeiten sind jedenfalls reichhaltiger denn je, weshalb ich mich um so mehr freue, nächstes Jahr in Stuttgart wieder einen Blick auf und hinter die Kulissen der Industrie zu werfen.

Leave a Reply

  • (will not be published)