You are on page 1of 2

Teorı́a de Aprendizaje Estadı́stico y Teorı́a de

Información: aplicaciones a Deep Learning


Objetivos del curso
El curso busca dar fundamentos de naturaleza teórica y práctica al problema de aprendizaje
estadı́stico partiendo de principios básicos desde la teorı́a clásica de aprendizaje estadı́stico y
teorı́a de información: ¿Cuándo funcionan los algoritmos de aprendizaje automático y por qué?
¿Cómo formalizamos lo que significa que un algoritmo aprenda de los datos? ¿Cómo utilizamos
el pensamiento matemático (teorı́a de información y estadı́stica) para diseñar mejores métodos
de aprendizaje automático? Este curso se enfoca en desarrollar una comprensión teórica de
las propiedades estadı́sticas de los algoritmos de Aprendizaje Profundo (Deep Learning), tema
de enorme vigencia y relevancia en la actualidad. El curso complementará los conocimientos
de carácter teóricos a impartir con consideraciones prácticas para la implementación de redes
neuronales profundas.

Fecha y lugar de realización


1-5 de Octubre de 9 hs. a 13 hs. Facultad de Ingenierı́a de la Universidad de Buenos Aires:
Paseo Colón 850.

Audiencia
El curso está orientado a estudiantes avanzados de grado y estudiantes de posgrado de las
área de Informática, Matemática y Electrónica. El curso otorgará créditos para el doctorado.

Programa sintético
Introducción al problema de aprendizaje. Regresión y clasificación. Funciones costo. Reglas
óptimas. Redes neuronales y teoremas de aproximación universal. Ejemplos.

Nociones y métricas básicas de teorı́a de información. Compresión de fuentes con y sin


pérdidas. La interacción de la teorı́a de la información y estadı́stica, principio MDL (Mini-
mum Description Length).

Teorı́a clásica de aprendizaje. Desigualdades de concentración. Aproximación y generaliza-


ción. Dimensión VC (Vapnik-Chervonenkis). Otras nociones de complejidad. Regulariza-
ción. Minimización estructural de riesgo (Structural Risk Minimization). Ejemplos.

Nociones básicas de optimización. Gradiente estocástico descendente (SGD). Nociones de


complejidad computacional.

Maldición de dimensionalidad. Aprendizaje profundo y perspectivas históricas. Backpropa-


gation. Regularización via Dropout. Aprendizaje no supervisado. Autoencoders, Autoenco-
ders variacionales y Denoising Autoencoders. Revisión de tópicos de investigación actuales.

Introducción a TensorFlow. Ejemplos de aplicación.

Docentes a cargo:
Prof. Dr. Pablo Piantanida (MILA - University of Montréal, Canada)

Prof. Dr. Leonardo Rey Vega (FIUBA, Argentina)

Ing. Matı́as Vera (FIUBA, Argentina)


Contacto
Dr. Leonardo Rey Vega: lrey@fi.uba.ar

You might also like