Artículo
In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%. En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraídos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%.
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
Título:
Aprendizaje profundo y recurrente para la segmentación de sonidos cardíacos basado en características de frecuencia instantánea
Fecha de publicación:
10/2020
Editorial:
Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica
Revista:
Elektron
ISSN:
2525-0159
Idioma:
Inglés
Tipo de recurso:
Artículo publicado
Clasificación temática:
Resumen
Archivos asociados
Licencia
Identificadores
Colecciones
Articulos(IAM)
Articulos de INST.ARG.DE MATEMATICAS "ALBERTO CALDERON"
Articulos de INST.ARG.DE MATEMATICAS "ALBERTO CALDERON"
Citación
Gaona, Álvaro Joaquín; Arini, Pedro David; Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features; Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica; Elektron; 4; 2; 10-2020; 52-57
Compartir
Altmétricas