Mostrar el registro sencillo del ítem

dc.contributor.author
Pellejero, Nicolas Federico  
dc.contributor.author
Grinblat, Guillermo Luis  
dc.contributor.author
Uzal, Lucas César  
dc.date.available
2020-01-24T19:45:42Z  
dc.date.issued
2018-03  
dc.identifier.citation
Pellejero, Nicolas Federico; Grinblat, Guillermo Luis; Uzal, Lucas César; Semantic analysis on faces using deep neural networks; Asociación Española de Inteligencia Artificial; Inteligencia Artificial; 21; 61; 3-2018; 14-29  
dc.identifier.issn
1137-3601  
dc.identifier.uri
http://hdl.handle.net/11336/95795  
dc.description.abstract
En este trabajo se aborda el problema de reconocimiento y clasificación de Expresiones Faciales a partir de video. Actualmente existen excelentes resultados enfocados en entornos controlados, donde se encuentran expresiones faciales artificiales. En cambio, queda mucho por mejorar cuando se trata de entornos no controlados, en los cuales las variaciones de iluminación, ángulo a la cámara, encuadre del rostro, hacen que la poca cantidad de datos etiquetados disponibles sea un impedimento a la hora de entrenar modelos de aprendizaje automatizado. Para atacar esta dificultad se utilizó de forma innovadora la técnica Generative Adversarial Networks, que permite utilizar un gran cúmulo de imágenes no etiquetadas con un estilo de entrenamiento semi supervisado.  
dc.description.abstract
In this paper we address the problem of automatic emotion recognition and classification through video. Nowadays there are excellent results focused on lab-made datasets, with posed facial expressions. On the other hand there is room for a lot of improvement in the case of `in the wild' datasets, where light, face angle to the camera, etc. are taken into account. In these cases it could be very harmful to work with a small dataset. Currently, there are not big enough datasets of adequately labeled faces for the task.\\ We use Generative Adversarial Networks in order to train models in a semi-supervised fashion, generating realistic face images in the process, allowing the exploitation of a big cumulus of unlabeled face images.  
dc.format
application/pdf  
dc.language.iso
eng  
dc.publisher
Asociación Española de Inteligencia Artificial  
dc.rights
info:eu-repo/semantics/openAccess  
dc.rights.uri
https://creativecommons.org/licenses/by-nc/2.5/ar/  
dc.subject
DEEP  
dc.subject
EMOTION  
dc.subject
LEARNING  
dc.subject
RECOGNITION  
dc.subject.classification
Ciencias de la Información y Bioinformática  
dc.subject.classification
Ciencias de la Computación e Información  
dc.subject.classification
CIENCIAS NATURALES Y EXACTAS  
dc.title
Semantic analysis on faces using deep neural networks  
dc.type
info:eu-repo/semantics/article  
dc.type
info:ar-repo/semantics/artículo  
dc.type
info:eu-repo/semantics/publishedVersion  
dc.date.updated
2019-10-17T14:55:19Z  
dc.identifier.eissn
1988-3064  
dc.journal.volume
21  
dc.journal.number
61  
dc.journal.pagination
14-29  
dc.journal.pais
España  
dc.description.fil
Fil: Pellejero, Nicolas F.. Universidad Nacional de Rosario; Argentina  
dc.description.fil
Fil: Grinblat, Guillermo Luis. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Rosario. Centro Internacional Franco Argentino de Ciencias de la Información y de Sistemas. Universidad Nacional de Rosario. Centro Internacional Franco Argentino de Ciencias de la Información y de Sistemas; Argentina  
dc.description.fil
Fil: Uzal, Lucas César. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Rosario. Centro Internacional Franco Argentino de Ciencias de la Información y de Sistemas. Universidad Nacional de Rosario. Centro Internacional Franco Argentino de Ciencias de la Información y de Sistemas; Argentina  
dc.journal.title
Inteligencia Artificial  
dc.relation.alternativeid
info:eu-repo/semantics/altIdentifier/url/http://journal.iberamia.org/index.php/intartif/article/view/127  
dc.relation.alternativeid
info:eu-repo/semantics/altIdentifier/doi/http://dx.doi.org/10.4114/intartif.vol21iss61pp14-29