Vi taler om OpenMusic (OM) softwareinstrumentets historie, analyserer funktionerne i dets design og taler om de første brugere. Ud over dette leverer vi analoger.
Dette er objektorienteret visuelt programmeringsmiljø til digital lydsyntese. Hjælpeprogrammet er baseret på en dialekt af LISP-sproget - Almindelig Lisp. Det er værd at bemærke, at OpenMusic kan bruges som en universel grafisk grænseflade til dette sprog.
Instrumentet blev udviklet i 90'erne af ingeniører fra det franske institut for forskning og koordinering af akustik og musik (IRCAM). I alt blev der præsenteret syv versioner af OpenMusic - den sidste blev udgivet i 2013. Derefter IRCAM-ingeniør Jean Bresson (Jean Bresson) omskrev værktøjet fra bunden og tog for basis original kode sjette version (OM6). I dag distribueres OM7 på licens GPLv3 - dens kilder er tilgængelige finde på GitHub.
Hvordan man arbejder med hende
Programmer i OpenMusic skabes ved at manipulere grafiske objekter i stedet for at skrive kode. Resultatet er en slags blokdiagram, som kaldes en "patch". Svarende til modulære synthesizere, som brugte patch-kabler til tilslutninger.
OpenMusic har to typer objekter: grundlæggende og partitur (Score Object). De første er forskellige matematiske operationer til at arbejde med matricer, spalter og tekstformer.
Score-objekter er nødvendige for at arbejde med lyd. De kan også opdeles i to grupper:
Partiturobjekter manipuleres ved hjælp af nodefunktioner, såsom at kombinere flere komponenter til én for at skabe polyfonisk lyd. Yderligere funktioner kan findes i plug-in biblioteker - en komplet liste over dem tilgængelig på den officielle hjemmeside.
Du kan lytte til et eksempel på en melodi genereret af OpenMusic i denne video:
For at blive bekendt med værktøjet og dets muligheder anbefaler vi, at du henviser til dokumentationen. Håndbog til OM7 er stadig under udvikling. Men du kan se i OM6 opslagsbogen - du har brug for følg linket og i vinduet til venstre skal du udvide punktet Brugervejledning.
Hvem bruger
Ifølge udviklerne kan OpenMusic bruges til at skabe og redigere lydspor, generere matematiske modeller af værker og analysere indspillede musikuddrag. Ingeniører fra ITCAM har brugt værktøjet i flere videnskabelige undersøgelser. For eksempel for skabelse kunstigt intelligenssystem, der genkender musikalske fagter på lydoptagelse.
Professionelle performere arbejder også med OpenMusic - de bruger værktøjet til at studere harmoniske spektre. Et eksempel kunne være den schweiziske komponist Mikael Jarrel, som er vinder af Beethoven-prisen. Hans værker udført af Hong Kong Symphony Orchestra kan være hør her.
engelsk komponist og lærer Brian Furneyhough brugte OpenMusic til at arbejde med rytme. I dag er hans musik inkluderet i repertoiret af de største nutidige ensembler og performere - Arditti kvartet и Pierre-Yves Artaud.
analoger
Der er flere systemer, der ligner OpenMusic. Det mest berømte ville måske være det kommercielle værktøj Max/MSP. Det blev udviklet af Miller Puckette i slutningen af 80'erne, mens han arbejdede hos IRCAM. Systemet giver dig mulighed for at syntetisere digital lyd og video i realtid.
Videoen herunder viser en installation på en af bygningerne i den italienske by Cagliari. Farven på skærmene skifter afhængigt af støjen fra forbipasserende biler. Installationen styres af en kombination af Max/MSP og Arduino.
Det er værd at bemærke, at Max/MSP har en open source-modpart. Det kaldes Rene data, og blev også udviklet af Miller Puckett.
Det er også værd at fremhæve det visuelle system ChucK, som blev opfundet af Perry Cook og kolleger fra Princeton University i 2003. Det understøtter parallel eksekvering af flere tråde, plus du kan foretage ændringer i programmet direkte under udførelsen. Distribueret under GNU GPL-licensen.
Listen over værktøjer til digital musiksyntese slutter ikke der. Der er også Kyma и overtone, som giver dig mulighed for at programmere mix direkte på scenen. Dem vil vi prøve at tale om næste gang.
Yderligere læsning - fra vores Hi-Fi World og Telegram kanal: