150 research outputs found

    Special Libraries, August 1979

    Get PDF
    Volume 70, Issue 8https://scholarworks.sjsu.edu/sla_sl_1979/1006/thumbnail.jp

    Non-negative mixtures

    Get PDF
    This is the author's accepted pre-print of the article, first published as M. D. Plumbley, A. Cichocki and R. Bro. Non-negative mixtures. In P. Comon and C. Jutten (Ed), Handbook of Blind Source Separation: Independent Component Analysis and Applications. Chapter 13, pp. 515-547. Academic Press, Feb 2010. ISBN 978-0-12-374726-6 DOI: 10.1016/B978-0-12-374726-6.00018-7file: Proof:p\PlumbleyCichockiBro10-non-negative.pdf:PDF owner: markp timestamp: 2011.04.26file: Proof:p\PlumbleyCichockiBro10-non-negative.pdf:PDF owner: markp timestamp: 2011.04.2

    Analysis and resynthesis of polyphonic music

    Get PDF
    This thesis examines applications of Digital Signal Processing to the analysis, transformation, and resynthesis of musical audio. First I give an overview of the human perception of music. I then examine in detail the requirements for a system that can analyse, transcribe, process, and resynthesise monaural polyphonic music. I then describe and compare the possible hardware and software platforms. After this I describe a prototype hybrid system that attempts to carry out these tasks using a method based on additive synthesis. Next I present results from its application to a variety of musical examples, and critically assess its performance and limitations. I then address these issues in the design of a second system based on Gabor wavelets. I conclude by summarising the research and outlining suggestions for future developments

    Rethinking Interaction: Identity and Agency in the Performance of “Interactive” Electronic Music

    Get PDF
    This document investigates interaction between human performers and various interactive technologies in the performance of interactive electronic and computer music. Specifically, it observes how the identity and agency of the interactive technology is experienced and perceived by the human performer. First, a close examination of George Lewis’ creation of and performance with his own historic interactive electronic and computer works reveals his disposition of interaction as improvisation. This disposition is contextualized within then contemporary social and political issues related to African American experimental musicians as well as an emerging culture of electronic and computer musicians concerned with interactivity. Second, an auto-ethnographic study reveals a contemporary performers perspective via the author’s own direct interactive experience with electronic and computer systems. These experiences were documented and analyzed using Actor Network Theory, Critical Technical Practice, theories of Embodiment and Embodied Cognition, Lewis’s conceptions of improvisation, as well as Tracy McMullen’s theory of the Improvisative. Analyses from both studies revealed that when and how performers chose to “other” interactive technologies significantly influenced their actions. The implications of this are discussed in terms of identity formation both within performances of interactive electronic music and interactive technologies generally

    Being sound: FLOSS, flow and event in the composition and ensemble performance of free open computer music

    Get PDF
    This commentary describes my recent approach to writing compositions for the ensemble performance of computer music. Drawing on experimental music and improvisation, I contend that such music is best considered in terms of people’s situated and relational interplay. The compositional and performative question that permeates this thesis is ‘what can we do, in this time and space, with these tools available to us?’. As themes of equality and egalitarian access underpin this work throughout, I highlight my engagement with Free Libre Open Source Software (FLOSS) ideology and community, reflecting on how this achieves my aims. I describe my writing of text score compositions, making use of the term bounded improvisation, whose purposeful requirements for indeterminate realisation extends most current computer-based performance practice. Though no single strand of this research is perhaps unusual by itself, such an assemblage as that outlined above (incorporating composition, computer coding and ensemble performance practice) is, when allied to an understanding of electronic and computer music praxis, currently an underdeveloped approach. Such an approach I have thus chosen to term free open computer music. I incorporate two further pre-existing conceptual formulations to present a framework for constructing, reflecting on, and developing my work in this field. Firstly flow or 'immersed experience' is useful to explicate difficult to capture aspects of instrumental engagement and ensemble performance. Secondly, this portfolio of scores aims to produce well-constructed situations, facilitating spaces of flow which contain within their environments the opportunity for an event to take place. I present the outcomes of my practice as place-forming tactics that catalyse something to do, but not what to do, in performative spaces such as those described above. Such intentions define my aims for composition. These theoretical concerns, together with an allied consideration of the underpinning themes highlighted above, is a useful framework for refection and evaluation of this work

    Un voyage du son par les fils électroacoustiques : l'art et les nouvelles technologies en Amérique Latine

    Get PDF
    L'histoire de la musique électroacoustique latino-américaine est longue, intéressante et prolifique, mais peu connue, même régionalement. De nombreux compositeurs nés ou vivants en Amérique latine ont été très actifs à ce titre, dans certains pays depuis plus de 50 ans, mais la disponibilité de l'information et des enregistrements de musique électroacoustique à cet égard et dans cette région a posé de sérieux problèmes aux éducateurs, compositeurs, interprètes, chercheurs, étudiants et au public en général.\ud Compte tenu de cette situation, la question suivante s'est imposée comme point de départ de ma thèse: comment s'est développée la tradition de la création musicale avec les médias électroacoustiques en Amérique Latine. Pour y répondre, j'ai adopté une approche historique en utilisant une méthodologie ethnographique (caractérisée par une immersion à long terme dans le domaine, par des contacts personnels avec des compositeurs et par ma participation et mon souci en ce qui concerne l'évolution des arts faisant appel aux nouvelles technologies en Amérique Latine) dans toute ma recherche. Ayant commencé à travailler dans le domaine de la musique électroacoustique au milieu des années 1970 dans mon Argentine natale, il m'a été très difficile d'obtenir de l'information sur les activités reliées à ce domaine dans des pays voisins et même dans ma propre ville. Bien que difficile, il était néanmoins possible de trouver les enregistrements de compositeurs vivant en Europe ou en Amérique du Nord, mais plus ardu de trouver ceux réalisés par des compositeurs locaux ou régionaux. Dans divers pays d'Amérique latine, les universités, les organismes d'état et de grandes fondations privées avaient de temps en temps pris l'initiative de soutenir la recherche en art et le recours aux nouveaux médias, mais la plupart avaient cessé leurs activités avant même de développer les ressources pour documenter les processus et préserver les résuItats. J'ai obtenu chaque enregistrement et information que j'ai rassemblés, depuis le milieu des années 1970, en contactant directement chacun des compositeurs. Avec le temps, j'ai constitué des archives personnelles, modestes mais croissantes, comprenant des notes de programme de concerts, livres, bulletins, magazines et revues, partitions, lettres, courriels et des enregistrements sur bobines, cassettes analogiques et quelques vinyles 33 tours. J'ai décidé de partager mes trésors avec des collègues et étudiants et d'explorer des solutions pour les rendre accessibles au plus grand nombre possible. Il y a quelques années, l'UNESCO m'a demandé de rédiger des rapports sur la musique électroacoustique latino-américaine et les arts médiatiques. Les textes de cette recherche ont contribué à diffuser de l'information sur le travail de beaucoup d'artistes latino-américains. Afin de rendre également accessible au public les oeuvres musicales, et sauvegarder le matériel, j'ai cherché un endroit où la préservation des enregistrements était non seulement importante mais aussi possible. J'estimais que la fondation Daniel Langlois pour l'art, la science et la technologie à Montréal était le lieu idéal pour mon projet. Mes activités continues durant près de 28 mois comme chercheur en résidence à la fondation Daniel Langlois m'ont permis de numériser et convertir des enregistrements à partir de différents formats, faire du montage au besoin et verser dans la base de données de la Fondation tous les renseignements sur les pièces (titre, compositeur, année de composition, instrumentation, notes de programme, studio de production, version, durée, bio du compositeur, etc.). À ce jour, janvier 2006, il y a 2152 fichiers audio numériques qui sont archivés au Centre de recherche et de documentation (CR+D) de la fondation. En complément à cette thèse de doctorat, j'ai développé une collection d'enregistrements musicaux maintenant disponibles au public. Cette collection est constituée du résultat de mes recherches (textes, oeuvres musicales, quelques partitions et photographies historiques, entrevues) et diffusée sur le site Web de la fondation Daniel Langlois. Les archives comptent des pièces pour médias fixes ainsi que des oeuvres mixtes pour instruments acoustiques ou voix et médias fixes ou systèmes électroniques interactifs en direct (1722 compositions). Les archives comprennent aussi des enregistrements audio et audiovisuels d'entrevues avec des compositeurs et des novateurs techniques ainsi que des\ud photographies, des vidéos, et quelques très rares partitions.\ud Une grande partie de l'information textuelle contenue dans la base de données des fichiers de musique est accessible par le site Web de la fondation Daniel Langlois. L'information complète (ex. notes de programme) et tous les enregistrements sont accessibles au CR+D. Une courte sélection de pièces est aussi accessible pour écoute sur le site Web. La plupart des compositeurs représentés dans ces archives et dans cette dissertation sont nés dans des pays d'Amérique latine. Il y a aussi quelques compositeurs qui, bien que n'étant pas originaires de la région, ont poursuivi au moins une partie de leur carrière musicale en Amérique latine.\ud Cette thèse renferme de l'information sur des compositeurs liés à 18 pays d'Amérique latine: Argentine, Bolivie, Brésil, Chili, Colombie, Costa Rica, Cuba, République dominicaine, Équateur, El Salvador, Guatemala, Mexico, Panama, Paraguay, Pérou, Porto Rico, Uruguay et Venezuela. Les archives contiennent des enregistrements de compositeurs de tous les pays mentionnés. J'espère que ce texte incitera à explorer ce merveilleux univers musical plutôt inconnu, créé par des centaines de compositeurs latino-américains au cours des dernières décennies. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : musique électroacoustique, Amérique latine, art et nouvelles technologies, éthique, mémoire, culture, contexte, pionniers, interdisciplinarité

    Enmeshed 3

    Get PDF
    Enmeshed 3, for cello and live electronics, is the third in a series of works in which a solo instrument becomes ‘enmeshed’ in multiple layers of transformations derived from the live performance. The works are shaped and structured in terms of the varying relationships between these layers and the ‘distances’ between the original acoustic performance and the various transformations, in terms of pitch, time delay, timbre, texture and space. At certain points in the work these almost converge whilst at other times large distances open up, with the different layers in a wild counterpoint. All the sounds in the work derive from live transformation of the soloist's performance. The composer’s own granular synthesis algorithms play a significant role in these transformations. Multichannel spatialisation also plays an important part in terms of spatial positioning and movement, the creation of different virtual spatial environments and in the definition of different layers. It can be performed variously with between 8 and 24 channels. Enmeshed 3 is in five contrasting but inter-related sections centering around a long slow meditative central passage. It was written for Madeleine Shapiro who premiered it at the New York City Electroacoustic Music Festival in April 2013

    Hommage á Jean-Claude Risset : Pour un monde sonore virtuel. Programme détaillé du colloque

    Get PDF

    Automatic Transcription of Bass Guitar Tracks applied for Music Genre Classification and Sound Synthesis

    Get PDF
    Musiksignale bestehen in der Regel aus einer Überlagerung mehrerer Einzelinstrumente. Die meisten existierenden Algorithmen zur automatischen Transkription und Analyse von Musikaufnahmen im Forschungsfeld des Music Information Retrieval (MIR) versuchen, semantische Information direkt aus diesen gemischten Signalen zu extrahieren. In den letzten Jahren wurde häufig beobachtet, dass die Leistungsfähigkeit dieser Algorithmen durch die Signalüberlagerungen und den daraus resultierenden Informationsverlust generell limitiert ist. Ein möglicher Lösungsansatz besteht darin, mittels Verfahren der Quellentrennung die beteiligten Instrumente vor der Analyse klanglich zu isolieren. Die Leistungsfähigkeit dieser Algorithmen ist zum aktuellen Stand der Technik jedoch nicht immer ausreichend, um eine sehr gute Trennung der Einzelquellen zu ermöglichen. In dieser Arbeit werden daher ausschließlich isolierte Instrumentalaufnahmen untersucht, die klanglich nicht von anderen Instrumenten überlagert sind. Exemplarisch werden anhand der elektrischen Bassgitarre auf die Klangerzeugung dieses Instrumentes hin spezialisierte Analyse- und Klangsynthesealgorithmen entwickelt und evaluiert.Im ersten Teil der vorliegenden Arbeit wird ein Algorithmus vorgestellt, der eine automatische Transkription von Bassgitarrenaufnahmen durchführt. Dabei wird das Audiosignal durch verschiedene Klangereignisse beschrieben, welche den gespielten Noten auf dem Instrument entsprechen. Neben den üblichen Notenparametern Anfang, Dauer, Lautstärke und Tonhöhe werden dabei auch instrumentenspezifische Parameter wie die verwendeten Spieltechniken sowie die Saiten- und Bundlage auf dem Instrument automatisch extrahiert. Evaluationsexperimente anhand zweier neu erstellter Audiodatensätze belegen, dass der vorgestellte Transkriptionsalgorithmus auf einem Datensatz von realistischen Bassgitarrenaufnahmen eine höhere Erkennungsgenauigkeit erreichen kann als drei existierende Algorithmen aus dem Stand der Technik. Die Schätzung der instrumentenspezifischen Parameter kann insbesondere für isolierte Einzelnoten mit einer hohen Güte durchgeführt werden.Im zweiten Teil der Arbeit wird untersucht, wie aus einer Notendarstellung typischer sich wieder- holender Basslinien auf das Musikgenre geschlossen werden kann. Dabei werden Audiomerkmale extrahiert, welche verschiedene tonale, rhythmische, und strukturelle Eigenschaften von Basslinien quantitativ beschreiben. Mit Hilfe eines neu erstellten Datensatzes von 520 typischen Basslinien aus 13 verschiedenen Musikgenres wurden drei verschiedene Ansätze für die automatische Genreklassifikation verglichen. Dabei zeigte sich, dass mit Hilfe eines regelbasierten Klassifikationsverfahrens nur Anhand der Analyse der Basslinie eines Musikstückes bereits eine mittlere Erkennungsrate von 64,8 % erreicht werden konnte.Die Re-synthese der originalen Bassspuren basierend auf den extrahierten Notenparametern wird im dritten Teil der Arbeit untersucht. Dabei wird ein neuer Audiosynthesealgorithmus vorgestellt, der basierend auf dem Prinzip des Physical Modeling verschiedene Aspekte der für die Bassgitarre charakteristische Klangerzeugung wie Saitenanregung, Dämpfung, Kollision zwischen Saite und Bund sowie dem Tonabnehmerverhalten nachbildet. Weiterhin wird ein parametrischerAudiokodierungsansatz diskutiert, der es erlaubt, Bassgitarrenspuren nur anhand der ermittel- ten notenweisen Parameter zu übertragen um sie auf Dekoderseite wieder zu resynthetisieren. Die Ergebnisse mehrerer Hötest belegen, dass der vorgeschlagene Synthesealgorithmus eine Re- Synthese von Bassgitarrenaufnahmen mit einer besseren Klangqualität ermöglicht als die Übertragung der Audiodaten mit existierenden Audiokodierungsverfahren, die auf sehr geringe Bitraten ein gestellt sind.Music recordings most often consist of multiple instrument signals, which overlap in time and frequency. In the field of Music Information Retrieval (MIR), existing algorithms for the automatic transcription and analysis of music recordings aim to extract semantic information from mixed audio signals. In the last years, it was frequently observed that the algorithm performance is limited due to the signal interference and the resulting loss of information. One common approach to solve this problem is to first apply source separation algorithms to isolate the present musical instrument signals before analyzing them individually. The performance of source separation algorithms strongly depends on the number of instruments as well as on the amount of spectral overlap.In this thesis, isolated instrumental tracks are analyzed in order to circumvent the challenges of source separation. Instead, the focus is on the development of instrument-centered signal processing algorithms for music transcription, musical analysis, as well as sound synthesis. The electric bass guitar is chosen as an example instrument. Its sound production principles are closely investigated and considered in the algorithmic design.In the first part of this thesis, an automatic music transcription algorithm for electric bass guitar recordings will be presented. The audio signal is interpreted as a sequence of sound events, which are described by various parameters. In addition to the conventionally used score-level parameters note onset, duration, loudness, and pitch, instrument-specific parameters such as the applied instrument playing techniques and the geometric position on the instrument fretboard will be extracted. Different evaluation experiments confirmed that the proposed transcription algorithm outperformed three state-of-the-art bass transcription algorithms for the transcription of realistic bass guitar recordings. The estimation of the instrument-level parameters works with high accuracy, in particular for isolated note samples.In the second part of the thesis, it will be investigated, whether the sole analysis of the bassline of a music piece allows to automatically classify its music genre. Different score-based audio features will be proposed that allow to quantify tonal, rhythmic, and structural properties of basslines. Based on a novel data set of 520 bassline transcriptions from 13 different music genres, three approaches for music genre classification were compared. A rule-based classification system could achieve a mean class accuracy of 64.8 % by only taking features into account that were extracted from the bassline of a music piece.The re-synthesis of a bass guitar recordings using the previously extracted note parameters will be studied in the third part of this thesis. Based on the physical modeling of string instruments, a novel sound synthesis algorithm tailored to the electric bass guitar will be presented. The algorithm mimics different aspects of the instrument’s sound production mechanism such as string excitement, string damping, string-fret collision, and the influence of the electro-magnetic pickup. Furthermore, a parametric audio coding approach will be discussed that allows to encode and transmit bass guitar tracks with a significantly smaller bit rate than conventional audio coding algorithms do. The results of different listening tests confirmed that a higher perceptual quality can be achieved if the original bass guitar recordings are encoded and re-synthesized using the proposed parametric audio codec instead of being encoded using conventional audio codecs at very low bit rate settings
    corecore