• Inicio

    Segundo cuatrimestre de 2016

    Docentes: Agustín Gravano (Profesor), Facundo Carrillo (Ayudante de Primera).

    Horario y lugar: Miércoles de 13 a 17h. Aula 2 y labo 4.

    Correlativas: Métodos Numéricos y Teoría de Lenguajes.

    Puntajes: 3 puntos para la Licenciatura y el Doctorado en Ciencias de la Computación.

    Resumen: El Aprendizaje Automático (o Machine Learning) es una rama de la Inteligencia Artificial que se dedica al estudio de los programas que aprenden a realizar una tarea en base a la experiencia. El objetivo del proceso de aprendizaje es utilizar la evidencia conocida para crear un modelo que sirva para dar respuesta a nuevas situaciones no conocidas. Cada día existen más aplicaciones de Aprendizaje Automático: filtros de spam, reconocimiento de caras, autos que se manejan solos, reconocimiento del habla, sistemas de recomendación, detección de fraude, movimiento de robots, y muchos ejemplos más. Esta materia consiste en una introducción abarcativa de las principales técnicas y aplicaciones del área, con una mezcla balanceada de teoría y ejercitación práctica.

    Temario: Aprendizaje supervisado: clasificación y regresión, árboles de decisión, naive Bayes, redes neuronales, vecinos más cercanos, modelos gráficos, algoritmo EM. Aprendizaje no supervisado, clustering. Aprendizaje por refuerzos. Extracción de atributos. Reducción de dimensionalidad. Aplicaciones en procesamiento del lenguaje natural, imágenes, sistemas de recomendación y big data, entre otros.

    ____

    Modo de evaluación

    • Dos exámenes parciales
    • Dos trabajos prácticos grupales
    • Promoción: La materia se promociona obteniendo nota 8 o superior en todas las instancias. Quienes obtengan al menos una nota inferior a 8 deben dar el final. Para quienes recuperen un parcial o TP, la nota que cuenta es la del recuperatorio. La promoción es opcional: pueden optar por dar final para levantar la nota.

    ____

    Bibliografía

    • Mitchell, "Machine Learning", McGraw-Hill, 1997.
    • James, Witten, Hastie & Tibshirani, "An Introduction to Statistical Learning with Applications in R", 6th ed, Springer, 2015.
    • Bishop, "Pattern Recognition and Machine Learning", Springer, 2006.
    • Duda, Hart & Stork, "Pattern Classification", 2nd ed, Wiley, 2001.

    ____

    Descargas y Enlaces

    • Guía de ejercicios. Archivos: Titanic, árboles de decisión, métricas, reducción de dimensionalidad, affairs, grid world.
    • Trabajo Práctico 1.
    • Trabajo Práctico 2.
    • Preguntas tipo para los parciales.

    ____

    Cronograma

    Junto a cada tema se muestran las lecturas sugeridas.

    10/8: Introducción (Mitchell:1) - Aprendizaje de conceptos (Mitchell:2).

    17/8: Árboles de decisión (Mitchell:3). Taller; archivos.

    24/8: Evaluación de hipótesis (JWHT:5.1; Powers2007). Presentación de la primera etapa del TP1.

    31/8: Clasificadores : Naive Bayes (Mitchell:6.9), KNN (Mitchell:8.2), SVM (JWHT:9; opcional: Bishop:6y7). Conjuntos de clasificadores : sesgo, varianza, bagging, Random Forest (artículo de Fortmann-Roe; JWHT:2y8). Presentación de la segunda etapa del TP1.

    7/9: Taller.

    14/9: Reducción de dimensionalidad (JWHT:6.1; Bishop:13.1). Presentación de la tercera etapa del TP1.

    21/9No hay clasesDía del estudiante.

    27/9 (23:59): Fecha límite de entrega del TP1.

    28/9: Competencia del TP1. Repaso y consultas para el parcial. Labo 4.

    5/10: Primer parcial (aula 8, pab 1). Preguntas tipo.

    12/10: Regresión lineal (JWHT:3); ejemplos-regresion-lineal.R.

    19/10: Regresión no lineal y logística (JWHT:4.3, 6.2, 7.1; Bishop:1.1, 3.1; artículo de Fortmann-Roe); ejemplos-regresion-no-lineal.R; ejemplos-regresion-logistica.R.

    26/10: Redes Neuronales (Mitchell:4). Docente invitado: Gustavo Lado. 

    2/11: Aprendizaje por refuerzos (Mitchell:13; Survey JAIR). Presentación del TP2.

    9/11: 13h: Deep Reinforcement Learning (paper) Docente invitado: Ramiro Gálvez. 14-16h: Taller de aprendizaje por refuerzos.

    16/11: Aprendizaje no supervisado: Clustering (Tan, Steinbach & Kumar, "Introduction to Data Mining", Chapter 8: "Cluster Analysis"; Bishop:9)

    22/11 (23:59): Fecha límite de entrega del TP2.

    23/11: 13-15h: Consultas para el parcial. 15-17h: Charlas invitadas: Ernesto Mislej (7Puentes) y Martín Pozzer (Mercado Libre).

    30/11: Segundo parcial (aula 8, pab 1). Preguntas tipo.

    7/12: Recuperatorio del primer parcial (aula 11, pab 1).

    14/12: Recuperatorio del segundo parcial (aula 7, pab 1).