Repositorio Institucional
Repositorio Institucional
CONICET Digital
  • Inicio
  • EXPLORAR
    • AUTORES
    • DISCIPLINAS
    • COMUNIDADES
  • Estadísticas
  • Novedades
    • Noticias
    • Boletines
  • Ayuda
    • General
    • Datos de investigación
  • Acerca de
    • CONICET Digital
    • Equipo
    • Red Federal
  • Contacto
JavaScript is disabled for your browser. Some features of this site may not work without it.
  • INFORMACIÓN GENERAL
  • RESUMEN
  • ESTADISTICAS
 
Evento

The role of the information bottleneck in representation learning

Vera, Matías AlejandroIcon ; Piantanida, Pablo; Rey Vega, Leonardo JavierIcon
Tipo del evento: Simposio
Nombre del evento: IEEE International Symposium on Information Theory
Fecha del evento: 17/06/2018
Institución Organizadora: Institute of Electrical and Electronics Engineers;
Título de la revista: IEEE International Symposium on Information Theory
Editorial: Institute of Electrical and Electronics Engineers
ISSN: 2157-8117
Idioma: Inglés
Clasificación temática:
Otras Ingeniería Eléctrica, Ingeniería Electrónica e Ingeniería de la Información

Resumen

A grand challenge in representation learning is thedevelopment of computational algorithms that learn the differentexplanatory factors of variation behind high-dimensional data.Encoder models are usually determined to optimize performanceon training data when the real objective is to generalize well toother (unseen) data. Although numerical evidence suggests thatnoise injection at the level of representations might improve thegeneralization ability of the resulting encoders, an informationtheoretic justification of this principle remains elusive. In thiswork, we derive an upper bound to the so-called generalizationgap corresponding to the cross-entropy loss and show that whenthis bound times a suitable multiplier and the empirical riskare minimized jointly, the problem is equivalent to optimizingthe Information Bottleneck objective with respect to the empirical data-distribution. We specialize our general conclusionsto analyze the dropout regularization method in deep neuralnetworks, explaining how this regularizer helps to decrease thegeneralization gap.
Palabras clave: BOTTLENECK , GENERALIZATION , REPRESENTATION , INFORMATION
Ver el registro completo
 
Archivos asociados
Tamaño: 538.7Kb
Formato: PDF
.
Solicitar
Licencia
info:eu-repo/semantics/restrictedAccess Excepto donde se diga explícitamente, este item se publica bajo la siguiente descripción: Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Unported (CC BY-NC-SA 2.5)
Identificadores
URI: http://hdl.handle.net/11336/200020
URL: https://ieeexplore.ieee.org/document/8437679
DOI: http://dx.doi.org/10.1109/ISIT.2018.8437679
Colecciones
Eventos(CSC)
Eventos de CENTRO DE SIMULACION COMPUTACIONAL P/APLIC. TECNOLOGICAS
Citación
The role of the information bottleneck in representation learning; IEEE International Symposium on Information Theory; Colorado; Estados Unidos; 2018; 1-5
Compartir
Altmétricas
 

Enviar por e-mail
Separar cada destinatario (hasta 5) con punto y coma.
  • Facebook
  • X Conicet Digital
  • Instagram
  • YouTube
  • Sound Cloud
  • LinkedIn

Los contenidos del CONICET están licenciados bajo Creative Commons Reconocimiento 2.5 Argentina License

https://www.conicet.gov.ar/ - CONICET

Inicio

Explorar

  • Autores
  • Disciplinas
  • Comunidades

Estadísticas

Novedades

  • Noticias
  • Boletines

Ayuda

Acerca de

  • CONICET Digital
  • Equipo
  • Red Federal

Contacto

Godoy Cruz 2290 (C1425FQB) CABA – República Argentina – Tel: +5411 4899-5400 repositorio@conicet.gov.ar
TÉRMINOS Y CONDICIONES