3.3 Musikwissenschaft

3.2 Archäologie

In der Musikwissenschaft werden bislang nur in Teilbereichen computerbasierte Methoden eingesetzt, um aktuellen Forschungsfragen nachzugehen. Die größte Verbreitung erfahren reine Datenbank-Angebote wie die Virtuelle Fachbibliothek Musikwissenschaft (ViFaMusik), die Informationen aus Bibliothekskatalogen, dem Internationalen Quellenlexikon der Musik (RISM, s.u.) und anderen online zugänglichen Quellen bündelt. Während derartige Angebote unzweifelhaft eine große Arbeitserleichterung für Musikwissenschaftler darstellen, bieten sie kaum eigenständige computerbasierte Forschungsperspektiven. Solche werden dagegen vor allem in zwei Bereichen adressiert: Einerseits im weitläufigen Feld des Music Information Retrieval, also der automatisierten Analyse von Audiodaten oder digitalen Notentexten, andererseits im Bereich digitaler Musikedition. Der erste dieser Bereiche arbeitet häufig mit relativ detailarmen Daten, etwa im MIDI-Format (s.u.), die eine Beschränkung auf die wesentlichsten Parameter erleichtern. In der Musikphilologie und angrenzenden Bereichen wird dagegen in der Regel mit möglichst detailreichen Daten gearbeitet; grundsätzlich ist hier eine größere Nähe zu anderen digital arbeitenden Geisteswissenschaften bzw. den sogenannten Digital Humanities festzustellen. Für musikwissenschaftliche Forschungsarbeiten sind dabei unter anderem folgende Datenobjekte von besonderem Interesse:(1)

  • Notentexte/Notate
  • Klang- und/oder Videoaufzeichnungen (Audio/Video)
  • Klangerzeuger (Musikinstrumente, Stimme) und Klangerzeugung (Akustik)
  • Interpreten, Komponisten, Kopisten, Drucker, Mäzene, Institutionen, Organisationen, Kulturen
  • Ikonographien
  • Texte zur Geschichtsschreibung, Musiktheorie, -ästhetik, -psychologie, -soziologie

Während in vielen Bereichen, die sich vom Objekttyp her mit Gegenständen anderer Wissenschaften überschneiden, keine gesonderten Beschreibungssprachen notwendig sind bzw. objektabhängig gängige Systeme entsprechend erweitert werden können, müssen bei Notentexten aufgrund der objektspezifischen Anforderungen für die Digitalisierung und Dokumentation der entsprechenden Daten eigene fachspezifische Standards angewendet werden.

Etliche Teildisziplinen sind dagegen geprägt vom Umgang mit Texten, die sich trotz sehr fachspezifischer Inhalte oder Strukturen gut mit Hilfe des TEI-Standards darstellen lassen, der auch in anderen Disziplinen als erste Wahl für die wissenschaftliche Erfassung von Textmaterialien gilt und meist in Kombination mit entsprechenden Normdaten genutzt wird. Nur eine kleine, jedoch kontinuierlich wachsende Zahl von Musikwissenschaftlern arbeitet bislang mit TEI; als Regel muss dagegen noch die Verwendung üblicher Textverarbeitungs- oder Datenbankprogramme angesehen werden; öffentlich verwertbare Metadaten fallen dabei meist nicht an bzw. werden nicht bereitgestellt. Eine spezielle Herausforderung stellen in diesem Kontext gemischte Texte (etwa Musiktraktate mit Notenanteilen o.ä.) dar – hier müssen ggf. mehrere Standards kombiniert werden, um die Gegenstände vollständig erfassen zu können.

Musikinstrumente, die meist im Kontext von Museen digital erfasst werden, können ebenfalls mit interdisziplinären Standards beschrieben werden. Das 2009 gegründete MIMO (Musical Instrument Museums Online) verwendet zur Auszeichnung von Musikinstrumenten beispielsweise den interdisziplinären Standard LIDO (Lightweight Information Describing Objekts), eine XML-Darstellung zur Erfassung verschiedenster musealer Objekte.(2)

Standardisierte Daten spielen eine zentrale Rolle in dem seit 1952 weltweit tätigen musikwissenschaftlichen Katalogisierungsprojekt RISM (Répertoire Internationale des Sources Musicales). Die inzwischen online zugänglichen über 1.000.000 Datensätze werden immer häufiger als Metadaten für die damit verbundenen Digitalisate der Musikalien aus den jeweiligen Bibliotheken benutzt, die dann oft direkt aus dem RISM-Katalog abrufbar sind.(3)

Für den Austausch und die Analyse akustischer Daten hat sich seit den 1980er Jahren das Binärformat MIDI (Musical Instrument Digital Interface) etabliert, das lediglich akustisch relevante Informationen speichert (und damit u.a. eine Berücksichtigung von Enharmonik, die für weiterführende musikanalytische Fragestellungen von zentraler Bedeutung ist, ausschließt). Aufgrund dieser Einschränkungen, die auch den Bereich der Metadaten betreffen, wird MIDI im wissenschaftlichen Bereich beinahe ausschließlich zur eher in die Breite ausgerichteten Analyse großer Datenbestände verwendet. Als Austauschformat digitaler Notensatzdaten wurde es inzwischen weitgehend vom diesbezüglich deutlich mächtigeren MusicXML (s.u.) verdrängt. Ähnliche Einschränkungen wie bei MIDI gelten dagegen auch für MP3-Dateien, für die mit ID3 (Identify an MP3) allerdings ein komplementäres, wenn auch weiterhin rudimentäres Metadatenformat geschaffen wurde.

Ausdrücklich für die Beschreibung von Metadaten für jegliche Form von multimedialen Anwendungen wurde dagegen in jüngerer Zeit MPEG-7 (Multimedia Content Description Interface) entwickelt. Angesichts der komplexen Situation bei Audiodaten wird hier zunächst auf eine detailliertere Beschreibung verzichtet.

Bei der Verwendung von interdisziplinären Standards im Textbereich müssen für musikwissenschaftliche Vorhaben meist zusätzlich Angaben von (teils) fachspezifischen Informationen in den Schemata-Angaben hinzugefügt werden, wie Verweise auf musikalische Werke, Rollen, bestimmte Quellen, Aufführungen, Aufführungsorte, Aufführungsbesprechungen, Tonarten usw.

Sofern eine solche disziplinspezifische Anpassung erfolgt, können also – abgesehen von Notentexten oder akustischen Daten – viele der im Fokus musikwissenschaftlicher Fragestellungen stehenden Forschungsobjekte in ausreichender Weise mit Hilfe vorhandener interdisziplinärer Standards dargestellt werden. In diesen Bereichen stellen sich daher kaum zusätzliche Anforderungen an die Interoperabilität von Forschungsdaten.

Musikphilologie – eigene fachspezifische Standards für Notentexte(4)

Im Folgenden werden die Möglichkeiten der Datenauszeichnung von Notenmaterial anhand der Datenformate MuseData, Humdrum, MusicXML und MEI vergleichsweise vorgestellt, die alle primär für die Auszeichnung des eigentlichen Notentextes entwickelt wurden. Eine qualitativ hochwertige und vollständige Erfassung der Metadaten wird hingegen bei vielen Standards noch nicht erreicht. Dieser Sachverhalt wird durch die in der Regel knappe Form und die ausschließlich interne Verwaltung aller erhobenen Metadaten innerhalb einer Datei bestärkt. Einzig der relativ junge MEI-Standard bietet hier umfassende Möglichkeiten, die den Erfordernissen einer wissenschaftlichen Nutzung gerecht werden.

Grundsätzlich sind bei den nachfolgend genannten Notationsstandards (die nicht mit der Nutzung von Notationsprogrammen verwechselt werden dürfen) zwei Formen zu unterscheiden: ältere, ASCII-basierte Repräsentationsformen, sowie jüngere XML-basierte Auszeichnungssprachen. Viele der älteren Formate wurden gezielt nur für die Erfassung und die maschinelle Verarbeitung einstimmiger Phänomene (z.B. für Volkslied-Analysen, Themensuche, Aufspüren thematischer Korrespondenzen usw.) entwickelt; Mehrstimmigkeit wurde zumeist erst in späteren Formaten thematisiert. Allerdings spielt die Unterscheidung der Datengrundlage gerade bei der Beurteilung der Leistungsfähigkeit der Formate im Metadatenbereich eine eher untergeordnete Rolle, lag doch – wie erwähnt – der Schwerpunkt in allen Fällen eindeutig auf der Erfassung des eigentlichen Notentextes.

Um eine bessere Vergleichbarkeit der einzelnen Codierungsbeispiele zu ermöglichen, wurden in jedem Standard die Metadaten sowie einige ausgewählte musikalische Phänomene ausgezeichnet. Bei den Metadaten bildete dabei Robert Schumanns Lied Der Abendstern op. 79/1 die Codierungsgrundlage. Bei den Notentexten wird auf bereits bestehende Codierungen des Bachchorals Befiehl du deine Wege zurückgegriffen, die Johannes Kepper im Rahmen seiner Dissertation erstellt hat. Dort sind auch ausführliche Beschreibungen der Codierungsformate nachzulesen (vgl. Anm. 4).

Die nachfolgende tabellarische Übersicht zeigt zusammenfassend die den genannten Standards innewohnenden Optionen zur Codierung des Notentextes:

Kriterium MuseData Humdrum MusicXML MEI
Allgemeine Informationen
Entstehungszeit 1983 1990 Entwicklung seit 1998 (?) in Anlehnung an MuseData, Veröffentlichung 2004 seit 1997
Entwickler, Initiator Walter B. Hewlett maßgeblich von David Huron entworfen Copyright liegt bei Recordare Inc. (inzwischen aufgegangen in MakeMusic Inc. -> Entwickler von Finale). Entwickelt von Michael Good von Perry Roland in Anlehnung an TEI initiiert und maßgeblich entwickelt
Lizenzbedingungen Keine eindeutige Aussage zur Lizenz. Formatbeschreibung steht frei zur Verfügung. Keine eindeutige Aussage zur Lizenz. Formatbeschreibung steht frei zur Verfügung. Format ist unter proprietärer, aber nicht OSS-kompatibler Lizenz zur Benutzung freigegeben. Datenformat und Dokumentation sind unter Educational Community License 2.0 freigegeben.
Zielsetzung / Art der Codierung Logische Codierung, d.h. ohne präzise Informationen zur graphischen Domain. Ermöglicht Analysen und einfache (d.h. nicht-diplomatische) graphische Wiedergabe. Richtet sich an wissenschaftliches Publikum. Logische Codierung, d.h. ohne präzise Informationen zur graphischen Domain. Speziell ausgerichtet auf die Analyse der Daten mit Hilfe des Humdrum Toolkit –> Format ausgelegt auf Computational Musicology. XML-Umsetzung des MuseData-Datenmodells. Klare Ausrichtung auf Datenaustausch zwischen Notationsprogrammen. Ermöglicht Unterscheidung zwischen graphischer und logischer Domain. Nicht zweckgebundenes Datenmodell für verschiedene wissenschaftliche Anwendungsgebiete, u.a. Musikedition und bibliographische Erschließung. Durch modularen Aufbau an verschiedene Szenarien anpassbar.
Codierungsbasis ASCII ASCII XML XML
Welche Art von Musik kann erfasst werden? CWN CWN, über Erweiterungen auch Neumen und andere Notationsformen CWN CWN, Neumen, Mensuralnotation, Tabulatur
Exportmöglichkeiten aus Notensatzprogrammen (aktuelle Versionen aus Capella, Finale und Sibelius) Export aus Finale war in früheren Versionen möglich, diese Funktion wurde inzwischen entfernt. Nur über Zwischenschritte (MusicXML). Finale, Sibelius, Capella Ein Plugin für Sibelius ist als Beta-Version verfügbar. Sonst nur über MusicXML.
Formen der Musikcodierung
Musikalische Phänomene Ausführliche Übersicht verschiedenster musikalischer Phänomene verfügbar in den Dagstuhl Seminar Proceedings 2009
Verweise/interne Verlinkungen nicht möglich nicht möglich möglich mit Hilfe von eindeutigen IDs
Einsatz für editorische Zwecke
Variantencodierung nur über eigenständige Erweiterungen explizit darauf ausgerichtet
Technische Aspekte / Nutzbarkeit der Daten
Schnittstellen/Konverter zu anderen Datenformaten (siehe dazu auch music-notation.info) Lilypond, Humdrum, MusicXML Lilypond, MuseData, MusicXML, MEI umfangreiche Import-/Exportmöglichkeiten (vgl. dazu die Aufstellung zu MusicXML von music-info.info) MusicXML, MUP, ABC, Humdrum, VexFlow, SCORE
Eignung für Notensatz bedingt geeignet bedingt geeignet vielfältige Möglichkeiten erhöhen die Eignung geeignet, die Darstellung von Varianten erfordert ein spezielles Tool, das mit dem MEI Score Editor derzeit entwickelt wird.
Möglichkeit der visuellen Eingabe (per Hand etc.) unkomfortabel unkomfortabel direkter Export MEI Score Editor MEIse (Download-Option auf Sourceforge.net), VexFlow, ABC, Verovio
Weiterentwicklung / Dokumentation / Vermittlung
Weiterentwicklung des Formats / Community Weiterentwicklung des Formats nur durch den Rechteinhaber, aber in Abstimmung mit einer aktiven Community Mailingliste
Dokumentation umfangreich, aber gelegentliche Inkonsistenzen zu den vorhandenen Corpora sehr ausführliche Dokumentation Dokumentation von MusicXML 3.0 MEI Guidelines
Beispiele MuseData collection of virtual musical scores Corpus-Aufbau weitgehend abgeschlossen vorhanden kürzere Beispiele auf der MakeMusic-Website
Vermittlung an Endnutzer Verlinkung auf Erklärung in Eleanor Selfridge-Field, Beyond MIDI. The Handbook of Musical Code Humdrum User Guide Tutorial auf der MakeMusic-Website umfangreiches Workshop-Angebot, nach Schwierigkeitsgrad gegliederte Tutorials auf der Website der Music Encoding Initiative (MEI 1st)

Hinsichtlich der Möglichkeiten zur Angabe musikalischer Metadaten bieten nahezu alle genannten Formate (mit Ausnahme von MEI) nur sehr eingeschränkte Möglichkeiten, die zumeist wenig mehr als eine eindeutige Identifizierung der Dateien erlaubt; vgl. dazu die folgende Tabelle:

Kriterium MuseData Humdrum MusicXML MEI
Personendaten und Funktionsbezeichnungen Nennung in spine 1–3 möglich Nennung nur Nennung ohne Referenzierungsmöglichkeit <creator/>
Publikationsangaben Nennung wenig detailliert <source/>
Einbettung in den Kontext möglich, z.B. Inhaltsangaben der Quelle(n), zu dem ein Einzelstück gehört
Incipitangabe Codierung des Incipits von Musik und Text möglich
Physische Beschreibung der Quelle sehr geringe Möglichkeiten <credits/>
Klassifikationsvermerk Angabe von Klassifikationen, Thesauri etc. und einzelnen darin enthaltenen Themen möglich <classification/>
differenzierte Angabe von Einzelstück und Quellen Nennung Nennung nicht möglich, Angaben beziehen sich ausschließlich auf Einzelstück beide Beschreibungen detailliert möglich <workDesc/> (Einzelstück) und <sourceDesc/> (Quellen)
Beschreibungselemente des Werkes sehr gering sehr gering sehr gering <partname/>
FRBR nein nein nein Implementierung des FRBR-Modells erfolgte 2013 in Form des FRBR modules, das optional gewählt werden kann5

Vergleich der Möglichkeiten musikwissenschaftlicher Metadatenauszeichnung notierter Musik

3.4 Geschichtswissenschaft



  1. Eine detaillierte Auflistung von Quellentypen findet sich im Abschnitt 7.3

  2. Zur Indexierung von Musikinstrumenten kann die Hornbostel-Sachs-Klassifikation verwendet werden. Vgl. dazu Abschnitt 4.5

  3. Zu Verfahren, die diese Daten zunächst in eigene Strukturen überführen vgl. Anne Graham, Deborah Pierce, "RISM Data as Metadata for Digital Collections", Paper bei der RISM Conference 2012: Music Documentation in Libraries, Scholarship, and Practice in Mainz, 4. Juni 2012, zugänglich unter http://www.rism.info/de/publikationen/konferenz-2012.html. 

  4. Zu diesem Thema siehe auch: Eleanor Selfridge-Field (Hg.), Beyond Midi: The Handbook of Musical Codes, Cambridge 1997; Johannes Kepper, Musikedition im Zeichen neuer Medien, Historische Entwicklung und gegenwärtige Perspektiven musikalischer Gesamtausgaben, Norderstedt 2011. 

  5. Eine ausführliche Dokumentation der Implementierung des FRBR-Modells kann nachgelesen werden bei: Kristina Richts, Die FRBR customization im Datenformat der Music Encoding Initiative (MEI), Masterarbeit, Köln 2013, zugänglich unter http://publiscologne.fh-koeln.de/frontdoor/index/index/docId/144