Pasar al contenido principal
Body

Raleza en modelos paramétricos de aprendizaje maquina

Seminario Súmate

Ulises Rodríguez Domínguez

  • Facultad de Ciencias, UNAM.

09 SEP 2025

13:00 h.

Aula Magna Leonila Vázquez


Transmisión: @matefcunam_oficial


Los modelos paramétricos de aprendizaje máquina están sujetos a cometer errores de predicción para nuevas observaciones dependiendo del balance entre el sesgo y la varianza que estos logren después de ser entrenados. Una manera de ayudar a controlar este balance es mediante técnicas de regularización, las cuales permiten restringir de distintas maneras las soluciones que se pueden aprender para los parámetros. La regularización rala es un tipo particular de regularización que impone o promueve raleza en las soluciones para los parámetros. Otra manera de imponer raleza es ajustando el modelo de una distribución rala a un conjunto de datos. En esta plática abordaremos ambas maneras de imponer raleza en modelos de aprendizaje máquina y veremos ejemplos de aplicación en: aprendizaje profundo y en el modelado de la actividad poblacional de neuronas binarias.


Informes: rpm@ciencias.unam.mx