Negatif olmayan gürültü giderici değişimli oto-kodlayıcılar kullanarak tek kanaldan kaynak ayrıştırma için zayıf etiket denetimi
Citation
Karamatlı, E., Cemgil, A. T. & Kırbız, S. (Nisan 24-26, 2019). Negatif olmayan gürültü giderici değişimli oto-kodlayıcılar kullanarak tek kanaldan kaynak ayrıştırma için zayıf etiket denetimi, 27th Signal processing and communications applications conference (SIU) içinde, ss. 1-4. Sivas, Türkiye : IEEE. DOI: https://doi.org/10.1109/SIU.2019.8806536Abstract
Derin öğrenme modelleri, büyük miktarda etiketlenmiş veri bulunduğunda kaynak ayrıştırmada çok başarılı olmaktadır. Bununla birlikte, dikkatlice etiketlenmiş veri kümelerine erişim her zaman mümkün olmamaktadır. Bu bildiride, kısa konuşma karışımlarını ayrıştırmayı öğrenmek için kaynak işaretlerini değil de sadece sınıf bilgisini kullanan zayıf bir denetim önerilmektedir. Negatif olmayan bir modeldeki her bir sınıfla degişimsel bir otomatik kodlayıcıyı (VAE) ilişkilendirilmektedir. Derin evrisimsel VAE’lerin, herhangi bir kaynak sinyaline ihtiyaç duymadan, bir ses karı¸sımındaki karmasık isaretleri kestirmek için önsel bir model sundugu gösterilmektedir. Ayrıstırma sonuçlarının kaynak isaret denetimiyle esit düzeyde oldugu gösterilmektedir. Deep learning models are very effective in source separation when there are large amounts of labeled data available. However it is not always possible to have carefully labeled datasets. In this paper, we propose a weak supervision method that only uses class information rather than source signals for learning to separate short utterance mixtures. We associate a variational autoencoder (VAE) with each class within a nonnegative model. We demonstrate that deep convolutional VAEs provide a prior model to identify complex signals in a sound mixture without having access to any source signal. We show that the separation results are on par with source signal supervision