Essay, Magazin

datenpoesiefilm

als ich im jahr 2001 meinen ersten textfilm produzierte, hatte ich noch keinen plan, kein programm und vor allem keine kenntnis von einem genre namens poesiefilm.

anfänge

ich hatte auch selber noch keine anderen textfilme gesehen, meine intention war, die sprachexperimente, die ich in den jahren davor mit digitalen soundbearbeitungswerkzeugen begonnen hatte, zu visualisieren und eine ästhetische entsprechung zu finden. mehr als von visueller poesie war ich damals von der abstrakten bildsprache im umfeld der wiener elektronikszene beeinflusst. meine vorangegangenen versuche mit einzelbildtextanimationen auf super-8-film waren mir zu altmodisch in erscheinung und produktionsweise erschienen, ich wollte die digitale materialität erforschen, nicht epigonale retrofilmerei betreiben.

für meine ästhetischen vorstellungen existierten (und im wesentlich hat sich das nicht geändert) keine geeigneten werkzeuge, und so musste ich vorhandene software missbrauchen und sie an die grenzen ihrer leistungsfähigkeit bringen, um das zu erreichen, was mir vorschwebte. ich benutzte ein programm names swish, das dazu gedacht war, textanimationen als intro für webseiten für das flashplugin zu generieren. das ergebnis waren für gewöhnlich recht biedere animationen, wie explosionen, schreibmaschinen-effekte, auf- und ausblenden und ähnliches. wenn ich jedoch die software nicht wie vorgesehen mit einzelnen zeilen fütterte sondern mit einem textkonvolut wurde sie zwar sehr langsam (manchmal dauerten die animationen dann stunden statt sekunden), die ergebnisse wurden jedoch umgekehrt proportional zur ausführungsgeschwindigkeit interessanter: textmassen flossen über den bildschirm, riesenhafte buchstaben torkelten durcheinander, textwolken setzten sich zusammen und lösten sich wieder auf. ich hatte große probleme, die resultate vorherzusagen, wenn ich an einem regler drehte, tat sich an unbeabsichtigten stellen etwas, der computer brauchte plötzlich zehnmal so lange für die berechnung eines einzelbildes oder blieb ganz stecken. anstatt zu verzweifeln, ließ ich mich darauf ein und stoppelte aus unzähligen schnipseln meinen ersten film wir alle zusammen. der film basierte auf einem unsäglich dummen aufgezeichneten satz (damals schnitt ich fast jede nachrichtensendung mit und verwendete samples daraus) des damaligen österreichischen bundeskanzlers der ersten rechts-rechtsextremen regierung: die wirtschaft sind wir alle. diesen satz zerlegte ich akustisch und visuell in seine bestandteile und bastelte ihn wieder zusammen zu einem rohen, knirschenden video, das am filmfestival diagonale in graz uraufgeführt wurde.

auf diese weise entstanden einige videos sowie zwei performances (maybe manifesto und spambot), bei denen ich zu einem zuvor von mir erstellten video- und soundtrack akustische elemente mittels stimme und effektgeräten ergänzte.

wir alle 2001

frikativ

je öfter ich diese performances aufführte, desto mehr langweilte ich mich auf der bühne. der ablauf war vorbestimmt, ich musste nur die lücken auffüllen, die ich im soundtrack gelassen hatte.

daher begann ich nach einer möglichkeit zu suchen, mehr freiheit und interaktionsmöglichkeiten in meine aufführungen einzubauen. nach längerer suche stieß ich auf ein projekt von medienkünstlern, die eine programmierumgebung zur schnellen realisation von digitalen interaktiven projekten geschaffen hatten. openFrameworks hieß diese software, die es mir zum ersten mal ermöglichte, eine große menge an text oder buchstaben in echtzeit zu animieren und zu steuern. darüberhinaus konnte ich auf einfache weise mein mikrofon einbinden und somit elemente durch meine stimme steuern, etwas wovon ich immer geträumt hatte.

in kurzer zeit programmierte ich die performance frikativ, die aus einer anzahl an soundstücken, die nur aus tonaufnahmen meiner stimme zusammengesetzt waren, und dazugehörigen visualisierungen bestand. die optische ebene war aber diesmal nicht vorgefertigt, sondern entstand im moment durch das zusammenspiel der soundstücke und meiner stimme. dabei entwickelte sich oft ein antagonismus, wenn ich mit meiner stimme gegen die klänge des tracks nicht nur akustisch sondern auch visuell ankämpfte. nicht nur für mich sondern auch für das publikum der uraufführung bei epoetry 2007 in paris ein neuartiges und (auch) unterhaltsames erlebnis. ich langweilte mich in folge weniger auf der bühne als bei den vorangegangenen performances.

nach einem ähnlichen prinzip und mit der gleichen programmierumgebung entwickelte ich bald darauf die interaktive installation untitled, bei der die besucherinnen über ein mikrofon das geschehen auf der leinwand und den klang gestalten konnten.

frikativ 2007

abcdefghijklmnopqrstuvwxyz

im rahmen eines künstleraufenthalts im winter 2008 in der schweizer kleinstadt willisau begann ich über eine weitere entwicklungsstufe nachzudenken. das ziel sollte sein, jeglichen aspekt einer liveperformance auf der bühne und spontan verändern zu können. keine vorgefertigten spuren, kein fixes videomaterial, bild und ton sollten im moment entstehen, ein audiovisuelles echtzeitgesamtkunstwerk.

um das auch nur annähernd zu erreichen, musste mein system wesentlich flexibler werden, jedes sichtbare und hörbare element sowie die algorithmen der verknüpfung und interaktion mussten frei programmierbar und leichter veränderbar werden. in vielen aspekten sollte das system einer sogenannten spieleengine ähneln, also einem softwarepaket, mit dem computerspiele erstellt werden können, allerdings in meinem fall auf das anzeigen von vielen bewegten buchstaben optimiert.

eine erste version der performance abcdefghijklmnopqrstuvwxyz zeigte ich bei epoetry 2009 in barcelona. ich startete die aufführung mit einer weißen fläche auf der ich nach und nach einzelne buchstaben hinzufügte, indem ich auf der tastatur des computers eine buchstabentaste drückte und gleichzeitig in ein mikrofon den laut des buchstabens sprach. je nach zuvor festgelegtem verhalten bewegten sich die buchstaben von links nach rechts, fielen zu boden oder trieben in simulierten vogelschwärmen über die leinwand, dazu spielten sie nach gewissen regeln die aufgenommenen sprachklänge wieder ab. durch die vielzahl der elemente, die komplexen regeln und die interaktion der einzelnen buchstaben untereinander sowie meine zusätzliche einflussnahme (ich konnte buchstaben löschen, durcheinanderwirbeln, stummschalten etc.) entstand so eine improvisierte audiovisuelle sprach- und klangperformance, die ich weitgehend frei kontrollieren konnte.

nach und nach erweiterte ich die verhaltensschemata der buchstaben, verbesserte das visuelle erscheinungsbild und fügte gänzlich neue möglichkeiten zum system hinzu.

so verwende ich mittlerweile mein system anstatt einer präsentationssoftware wie powerpoint. ich kann nahtlos von erklärungen oder dem abspielen von videos in eine performance übergehen und wieder zurück. ich kann text in echtzeit und beeinflusst durch stichwörter aus dem publikum erzeugen lassen, kann algorithmen der künstlichen intelligenz auf meine gedichte ansetzen und die ergebnisse von einer computerstimme verlesen lassen, kann meine position im raum von einer 3d-tiefenkamera erfassen und rund um mich oder direkt auf mich text projizieren lassen, während im mich im raum bewege und vieles mehr.

in gesprächen mit künstlerkolleginnen nenne ich die arbeit an meiner performancesoftware manchmal scherzhaft mein lebenswerk, so unendlich erweiterbar scheinen die möglichkeiten und so komplex und umfangreich ist sie nach 10 jahren entwicklungszeit geworden.

die neueste erweiterung ist ein separates programm, das zwar ohne die performance- und interaktionskomponente auskommt, aber dennoch zu großen teilen auf der gleichen codebasis fußt. mit diesem neuen programm kann ich einerseits sehr detaillierte videos erzeugen (die ergebnisse werde ich anfang des jahres 2019 zusammen mit meinem zugleich erscheinenden musikalbum darkvoice veröffentlichen), andererseits poster und andere druckerzeugnisse sowie ganze bücher durch programme erstellen, wie mein im herbst im Ritter-verlag erscheinendes buch datenpoesie.

xztksfro 2015

abcdefghijklmnopqrstuvwxyz performance (very short excerpt) 2009-2018

Über den Künstler
Jörg Piringer, geboren 1974, lebt in Wien. Er ist Mitglied des Instituts für transakustische Forschung und des Gemüseorchesters und arbeitet in den Lücken zwischen Sprachkunst, Musik, Performance und poetischer Software.

http://joerg.piringer.net