Título: Variational Techniques Applied to Bayesian Inference
Ponente: Daniel Hernández Lobato
Lugar: Sala de grados
Fecha: miércoles 24 de enero, 15:00h
Resumen: Bayesian methods offer significant advantages over many
conventional techniques such as maximum likelihood. However,
their practicality has traditionally been limited by the
computational cost of implementing them, which has often
been done using Monte Carlo methods. In recent years,
however, the applicability of Bayesian methods has been
widely extended through the development of fast analytical
techniques such as variational inference. In this talk a
tutorial introduction to variational methods will be given
and their applicability in both supervised and unsupervised
learning domains will be demonstrated.
[
Presentación]
Título: Expectation Propagation for Approximate Bayesian Inference
Ponente: Jose Miguel Hernández Lobato
Lugar: Seminario B-351
Fecha: jueves 8 de febrero a las 15:00h
Resumen: Las técnicas Bayesianas proporcionan un potente marco
para realizar inferencia en el análisis de datos. Sin
embargo, su aplicabilidad se ve limitada debido al
elevado coste de su implementación. Recientemente han
aparecido algoritmos como Inferencia Variacional y
Expectation Propagation que posibilitan obtener
soluciones aproximadas en planteamientos Bayesianas
a un coste aceptable. En esta charla veremos una
introducción a Expectation Propagation así como su
aplicación a la máquina de Bayes, un equivalente
completamente Bayesiano de la máquina de vectores
soporte.
[
Presentación]
Título: Support Vector Machines and Kernel Perceptrons
Ponente: Daniel García Frank
Lugar: Seminario B-351
Fecha: jueves 1 de marzo a las 15:00h
Resumen: Las Máquinas de Soporte vectorial (Support Vector Machines, SVM), al
igual que los perceptrones multicapa o las Radial-basis Function
Networks (redes RBF), son una categoría de redes feed-forward
universales que pueden ser usadas para clasificación de patrones y
regresión no-lineal. Éstas son máquinas lineales cuyo objetivo
principal consiste en construir un hiperplano como superficie de
decisión tal que se maximiza el margen de separación entre ejemplos
con distinta clase. Uno de los problemas que presentan las SVM resulta
que es necesario resolver un problema de optimización cuadrática para
obtener el clasificador óptimo, lo cual puede suponer un inconveniente
a la hora de usarlas en problemas reales.
Por otra parte, utilizando perceptrones simples bajo unas determinadas
condiciones, es posible construir clasificadores que también maximizan
el margen de separación sin tener que resolver problemas tan complejos
como los de las SVM.
En esta charla se mostrará una introducción a las SVM, así como a
otros métodos de clasificación basados en perceptrones que también
maximizan el margen de separación entre clases, tales cómo el
algoritmo Schlesinger-Kozinec (S-K) o el algoritmo Convex Perceptrons.
[
Presentación]
Título: Transcription Factor Identification: a Bayesian Approach
Ponente: Jose Miguel Hernández Lobato
Lugar: Seminario B-351
Fecha: jueves 15 de marzo a las 15:00h
Resumen: We propose a Bayesian method to identify genes that are likely
to be transcription factors given some data. The data consists
in consecutive measurements of the level of expression of the
genes, obtained by microarray experiments. We show how our
method performs well on artificially generated data and finally
we test it on real data.
[
Presentación]