Chancen und Herausforderungen der automatisierten Verarbeitung und Analyse von Musikdaten.
Beschreibung » Programm » Call for Papers » Programmkomitee »
Mit der fortschreitenden Digitalisierung aller Lebensbereiche gewinnen technische Möglichkeiten heutiger EDV-Systeme bei der Verarbeitung von Musikdaten und in geisteswissenschaftlichen Disziplinen wie den Musikwissenschaften immer mehr an Bedeutung. Heutige digital vorliegende Musiksammlungen enthalten multimediale Dokumente in zahlreichen Ausprägungen und Formaten, die ein Musikwerk auf verschiedenen Ebenen semantischer Ausdruckskraft beschreiben. Man denke hier beispielsweise an CD-Aufnahmen diverser Interpreten, Noten, MIDI-Daten, Musikvideos oder Gesangstexte. Ein grundlegendes Ziel der automatisierten Musikverarbeitung besteht in der Nutzbarmachung umfangreicher, oft unstrukturiert und verteilt vorliegender Musikdatenbestände.
Hierbei ist die Entwicklung effizienter Such- und Navigationssysteme, die es dem Benutzer erlauben, einen Datenbestand bezüglich unterschiedlichster musikrelevanter Aspekte zu durchsuchen, von zentraler Bedeutung. Während die textbasierte Suche nach Musik anhand von Komponistennamen, Songtitel, Werkverzeichnisnummer oder dergleichen mit klassischen Datenbanktechniken möglich ist, stellt die inhaltsbasierte Suche in Musikdaten ohne das Zurückgreifen auf manuell erzeugte Annotationen ein schwieriges Problem dar. Was ist zu tun, wenn man nur ein Melodiefragment vorpfeifen kann oder nur einen kurzen akustischen Ausschnitt von einem Musikstück vorliegen hat? Wie geht man vor, wenn der Benutzer an allen CD-Aufnahmen (samt der genauen Zeitpositionen innerhalb der jeweiligen Aufnahmen) interessiert ist, die gewisse Notenkonstellationen, Harmonieverläufe, oder Rhythmen aufweisen? Wie können Partiturdaten oder Musikaufnahmen hinsichtlich wiederkehrender Muster durchsucht werden? Dies ist nur eine kleine Auswahl aktueller Fragestellungen, die eng mit der automatisierten Analyse von Musikdaten verknüpft sind.
Auch in den Musikwissenschaften haben sich durch Einsatz digitaler Formate und automatisierter Methoden neue Möglichkeiten eröffnet. Zum Beispiel konnten große Fortschritte bei der Entwicklung digitaler Notationsformate, wie in der Music Encoding Initiative (MEI) erzielt werden, die wiederum den Zugang zu großen Datenbeständen von Notentexten erleichtern. Darüber hinaus wurden unterschiedliche Algorithmen entwickelt, die die Analyse von Musikdaten unterstützen. Dies erlaubt oft eine gewisse Objektivierung und Quantizierung analytischer Sachverhalte durch die Anwendung statistischer Methoden. Weiterhin erlauben automatisierte Methoden eine Ausweitung der Analysen und einen systematischen Zugang zu umfangreichen Werken wie etwa Symphonien oder Opern oder zu größeren Werkbeständen (Korpusanalyse).
Vor diesem Hintergrund verfolgt der geplanten Workshop „Musik trifft Informatik“ die folgenden Ziele:
Auf dem Workshop besteht die Gelegenheit, sich anhand von Vorträgen einen Überblick über aktuelle Forschungsarbeiten auf dem Gebiet der Audio- und Musikverarbeitung zu verschaffen, spezifische Arbeitsgebiete und Projektarbeiten anhand von Demonstrationen und Postervorträgen kennenzulernen, sowie mit Mitgliedern unterschiedlicher Arbeitsgruppen im persönlichen Gespräch in Kontakt zu treten.
Bemerkung: Alle 14 für den Workshop akzeptierten Beiträge sollen als Poster präsentiert werden. Die Poster sind in alphabethischer Reihenfolge des Erstautors aufgeführt.
Um Einreichung von Beiträgen aus dem Umfeld der Audiosignal- und Sprachverarbeitung (aber nicht ausschließlich), zu den oben genannten Teilgebieten, wird gebeten.
Um den Austausch des wissenschaftlichen Nachwuchses besonders zu fördern, sind insbesondere auch Beiträge zu aktuellen Promotionsvorhaben oder aus herausragend abgeschlossenen Masterarbeiten erwünscht.
Für die Beiträge gelten folgende Rahmenbedingungen:
Jakob Abeßer,
Fraunhofer-Institut für Digitale Medientechnologie IDMT
Andreas Arzt,
Austrian Research Institute for Artificial Intelligence (OFAI)
Wolfgang Auhagen,
Martin-Luther-Universität Halle-Wittenberg
Stefan Balke,
International Audio Laboratories Erlangen
Stephan Baumann,
Deutsches Forschungszentrum fuer Künstliche Intelligenz (DFKI), Kaiserslautern
Axel Berndt,
University of Music Detmold
Estefanía Cano Cerón,
Fraunhofer-Institut für Digitale Medientechnologie IDMT
Klaus Frieler,
Hochschule für Musik Franz Liszt Weimar
Werner Goebl,
University of Music and Performing Arts Vienna, Austria
Rainer Kleinertz,
Universität des Saarlandes
Anna Kruspe,
Fraunhofer-Institut für Digitale Medientechnologie IDMT
Frank Kurth,
Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE), Wachtberg
Patricio López-Serrano,
International Audio Laboratories Erlangen
Hanna Lukashevich,
Fraunhofer-Institut für Digitale Medientechnologie IDMT
Daniel Müllensiefen,
Goldsmiths, University of London
Michael Oehler,
Hochschule Düsseldorf
Martin Pfleiderer,
Hochschule für Musik Franz Liszt Weimar
Daniel Röwenstrunk ,
Musikwissenschafatliches Seminar Detmold/Paderborn
Björn Schuller,
Universität Passau
Frank Scherbaum,
Universität Potsdam
David Sears,
Johannes Kepler University Linz
Kai Siedenburg,
Universität Oldenburg
Sebastian Stober,
Universität Potsdam
Igor Vatolkin,
Technische Universität Dortmund
Anja Volk,
Utrecht University
Stefan Weinzierl,
TU Berlin
Christof Weiß,
International Audio Laboratories Erlangen
Tillman Weyde,
City University London
Frank Zalkow,
International Audio Laboratories Erlangen