Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Sitzung
MCI-WS23: Innovative Computerbasierte Musikinterfaces (ICMI)
Zeit:
Montag, 09.09.2019:
11:00 - 17:30

Chair der Sitzung: Cornelius Pöpel
Ort: Ost Seminarraum 123
Ost, Seminarraum 123, (loses Gestühl), Kapazität 45

Zusammenfassung der Sitzung

Das Forschungsgebiet der Innovativen Computerbasierten Musikinterfaces umfasst inzwischen und mit
Zunahme der Miniaturisierung und vereinfachten Integration von Sensorik und Aktorik eine Vielfalt von
Themengebieten. Dazu gehören u.a. neuartige Musikinstrumente, interaktive und teils kooperative Multitouch
Anwendungen, 3-D-Sound, Audio-Video-Installationen und Performances. Es finden sich vielfältige
Möglichkeiten in konkreten Anwendungsgebieten, wie auch im rein künstlerischen Ausdruck. Im ICMI-Workshop
für 2019 möchten wir gern den gesamten Bereich »Musikalischer Interaktion« betrachten und sprechen die
unterschiedlichsten Zielgruppen in diesem spannenden Gebiet an.
In der Regelmäßigkeit unserer Workshops möchten wir gern ein Forum bieten, um neue Ansätze und
Forschungsvorhaben zur Music Interaction vorzustellen und zu diskutieren. Dabei ist es das primäre Ziel, die
unterschiedlichen Expertengruppen, die sich meist unabhängig voneinander mit dieser Thematik befassen,
einander näher zu bringen und in einer gemeinsamen Veranstaltung Ideen, Experimente und Entwicklungen
kennen zu lernen und sich auszutauschen.
Der ICMI-Workshop wurde bisher auf der M&C 2008, 2009, 2011, 2012, 2015 und 2017 durchgeführt und war
dort stark nachgefragt. Eine Übersicht der Vorträge findet man unter www.icmi-workshop.org.


Externe Ressource: http://www.icmi-workshop.org/
Präsentationen

Detecting Hands from Piano MIDI Data

Aristotelis Hadjakos, Simon Waloschek, Alexander Leemhuis

Hochschule für Musik Detmold, Deutschland, Zentrum für Musik- und Filminformatik

When a pianist is playing on a MIDI keyboard, the computer does not know with which hand a key was pressed. With the help of a Recurrent Neural Network (RNN), we assign played MIDI notes to one of the two hands. We compare our new approach with an existing heuristic algorithm and show that RNNs perform better. The solution is real-time capable and can be used via OSC from any programming environment. A non real-time capable variant provides slightly higher accuracy. Our solution can be used in music notation software to assign the left or right hand to the upper or lower staff automatically. Another application is live playing, where different synthesizer sounds can be mapped to the left and right hand.



Über Erfahrungen in der Anwendung computerbasierter Streichinstrumente: das Duo Expanded Strings

Cornelius Pöpel1, Günter Marx2

1Hochschule Ansbach, Deutschland; 2Freischaffend, München

Neben der Entwicklung computerbasierter Musikinterfaces und Musikinstrumente stellt deren Erprobung und Nutzung im realen Kontext des Musik- und Konzertlebens eine Herausforderung dar. Konferenzen wie die Mensch & Computer stellen üblicher Weise die Dinge stärker aus der Sicht der Technikentwickler denn aus der Anwendersicht dar. In diesem Paper soll am Beispiel von zwei Streichern explizit aus der Musikersicht, deren Wertevorstellungen und Prioritäten dargestellt werden, wie mit computerbasierten Streichinstrumenten gearbeitet wurde, welche konkreten Herausforderungen anlagen und wie in diesem Fall damit umgegangen wurde. Es werden die technischen Setups, die eingesetzte Software und die künstlerischen Beweggründe für die Auswahl der Komponenten sowie deren Programmierung dargestellt. Weiterhin wird anhand eines Konzerts die Einbindung von Musik für computerbasierte Streichinstrumente dargelegt. Es wird eine Zukunftsidee vorgestellt, welche es interessierten Streicher*innen erleichtern soll, Zugang zu neuen computerbasierten Streichinstrumenten zu bekommen.



Immersions - Musik in Künstlichen Ohren

Vincent Herrmann

HfM Karlsruhe, Deutschland

Immersions ist eine Performance Elektronischer Musik, die in Echtzeit die inneren Vorgänge eines Neuronalen Netzes sonifiziert. Dabei werden durch ein Optimierungsverfahren Klänge generiert, die bestimmte Bereiche des Netzwerks aktivieren. So wird hörbar, wie Musik in diesem künstlichen Ohr klingt. Zusätzlich werden die Vorgänge auch visualisiert, um eine möglichst immersive Erfahrung zu schaffen und es erlaubt Einzutauchen in die Tiefe Künstlicher Intelligenz.



The Airborne Instruments nUFO – a Movement Based 
Musical Instrument

Hannes Hoelzl, Isak Han, Alberto de Campo

UdK, Deutschland

The Airborne Instruments nUFO – NonTrivial UFO – is a new Digital Musical Instrument (DMI) that is designed to allow the musician completely free movement of the interactor object in space (airborne). Non-triviality (after H. v. Foerster) is mainly implemented through synthesis processes with a rich “inner life”, i.e. apparently intrinsic behavior, more akin to synthetic creatures than conventional instruments.
The innovative Influx parameter mapping allows for a rich interaction with these processes with little or no training, making it suitable both for beginners that are enabled to create highly immersive sound worlds, and for experienced musicians in search for radically new physical approaches to digital synthesis.



Towards a Graphical User Interface for Quantitative Analysis in Digital Musicology

Anna-Marie Ortloff, Maximiliane Windl, Lydia Güntner, Thomas Schmidt

Media Informatics Group, University of Regensburg, Germany

We introduce the first prototype of a web application for digital musicology: BeyondTheNotes. BeyondTheNotes is a tool to support the in-depth analysis of individual pieces of music as well as the large scale analysis and comparison of summative features of multiple pieces of music. In contrast to existing tools, BeyondTheNotes is ready to use without installation, enables the upload and analysis of own material and offers different visualizations of musical metrics like the chords, pitches, durations and key. We design the tool according to the User Centered Design Approach to improve the usability and address the specific needs of musicologists. We describe the results of the requirement analysis and discuss future steps.



Spectral Size Does Matter

Lars Engeln

Technische Universität Dresden, Deutschland

Nowadays spectrograms are often used for the analysis of audio signals.

Usually, process and analysis tools are separated. Although manipulations within the visualization of the analysis results are more understandable. Spectral editing does directly manipulate the frequency-domain within a spectrogram. Here, affine transformations especially scaling is highlighted for the creative use in spectral editing.



Exploring Sound with your hands

Richard Bretschneider

eresult GmbH, Deutschland

Die kreativen Möglichkeiten der Klanggestaltung von Synthesizern ist nahezu unerschöpflich. Gerade Musiker, die keine tiefgehenden Kenntnisse in der Synthesizerprogrammierung haben, stehen hier oft vor dem Problem, dass sie der vielen Parameter nicht Herr werden. Randomize-Funktionen und Trial-and-error-Ansätze führen wenn überhaupt nur sehr zufällig zu zufriedenstellenden Ergebnissen. Presets können auch eine Herangehensweise sein, die Möglichkeiten des Synthesizers zu erforschen, erfordern jedoch eine Umfangreiche Vorarbeit von Experten. In meinem noch laufenden Projekt „Exploring Sound with your Hands“ versuche ich einen neuen Ansatz mittels Hand-Tracking-Devices zu entwickeln. Hand-Tracking Devices ermöglichen es im Kontext von Musik-Interfaces die Position der Hände über dem Schreibtisch zu erkennen und diese Daten für kreative Zwecke zu nutzen. Simpelste Anwendung: Wird die Hand hoch gehalten, erhöht es die Lautstärke, wird die Hand nach unten bewegt, wird die Lautstärke verringert. Anders gesagt: In dem Beispiel wird über die Y-Achse genau ein Parameter, die Lautstärke gesteuert.

Im Projekt „Exploring Sound with your Hands“ sollen hingegen 10, 20 oder mehr Parameter des Synthesizers gleichzeitig gesteuert werden. D. h. die Hand steuert durch den mehrdimensionalen Parameterraum des Synthesizers. Mögliches Anwendungsgebiet: Musiker können sich durch die klanglichen Möglichkeiten des Synthesizers navigieren ohne sich mit allen technischen Details auseinandersetzen zu müssen.

Hier kommt die Kombination von User Experience und Künstlicher Intelligenz zum Einsatz. Damit die Nutzer solcher gestengesteuerter Musiksoftware den vollen Nutzen daraus ziehen können, müssen wir ihre mentalen Modelle kennen. Wir müssen die Möglichkeiten und Grenzen von gestengesteuerten Interaktionen kennen, denn die Hände im luftleeren Raum zu verwenden, bedeutet auch ungewohnt wenige Begrenzungen zu haben. Nutzer möchten meist die Interaktionen individuell auf ihre Bedürfnisse anpassen. Damit dies nicht zur komplexen Programmieraufgabe ausartet können wir die User Experience mittels künstlicher Intelligenz enorm vereinfachen: Die Nutzer können quasi der Software mitteilen „Wenn ich die Hand so halte [z.B. als Faust] dann spiele bitte diesen Ton.“

Richard Bretschneider wird von Möglichkeiten und Herausforderungen solcher Interaktionen erzählen als auch eine kurze Vorstellung eines solchen Hand-Tracking Devices und dessen Anwendung vorführen.



The Earconizer - A Tool for constructing hierarchical Earcons

Lars Engeln, Maximilian Hanke, Toni Auerswald, Felix Kallenbach, Rainer Groh

Technische Universität Dresden, Deutschland

Earcons have become an important part of the human-computer interaction. In addition to the visual presentation of a user interface, the use of the auditory channel enriches software-side entities with information. Additionally, earcons can significantly improve interaction and effectively communicate complex information. Often Earcons are created with the expertise of a sound designer. How can the creation be simplified so that earcons can be created and organized by ordinary users? This paper shows of a tool for creating earcons based on the hierarchical structure of compound earcons to positively enhance the user experience in an interactive environment.