¡El curso de Inteligencia Artificial y el curso de Machine Learning acaban de comenzar esta semana! ¡Echa un vistazo al Syllabus! Esos dos cursos ofrecen 24 semanas (48 conferencias) en total. Además de la aparente riqueza de los contenidos de enseñanza, también ofrecen proyectos de programación basados en Python que representan entre el 40% y el 50% de la calificación de cada curso. Mirando el programa de estudios, creo que ofrecen uno de los cursos en línea más rigurosos y completos sobre IA / ML que he conocido. Esos dos cursos se ven realmente bien para cualquiera que comience / ya esté / busque avanzar en una carrera en ciencias de datos.
Esquema del curso para el curso de Machine Learning (ColumbiaX) (de la parte de introducción del curso):
Esquema del curso
- ¿Qué tipo de preguntas hace Mu Sigma en su prueba de aptitud?
- ¿Cómo comienzo una carrera a los 24 años sin título universitario? Por favor vea los detalles y sugiera.
- ¿Es importante hacer ingeniería informática o puede obtener mejores trabajos que mecánicos o civiles?
- Acabo de completar mi duodécimo estándar. Estoy interesado en informática. Pero estoy confundido con la diversidad dentro de esto. 1. Bsc Multimedia y animación 2. Btech en ingeniería de software 3. BE Informática 4. BE Tecnología de la información De las 4 ¿cuál tiene un buen futuro?
- ¿Debería prepararme para las entrevistas en una de las grandes compañías tecnológicas y comenzar a solicitarlas en un año, o dar el GRE y mudarme a los Estados Unidos para un MS?
Semana 1
- Lección 1 : Discutiremos las diversas perspectivas del curso y el aprendizaje automático en general. Luego cubriremos el problema de máxima verosimilitud para aprender los parámetros de una distribución de probabilidad.
- Lección 2 : Pasamos a nuestro primer problema de aprendizaje supervisado de regresión lineal. Discutimos el enfoque de mínimos cuadrados para la regresión lineal y entendemos las intuiciones geométricas del problema.
Semana 2
- Lección 3 : Continuamos nuestra discusión sobre los mínimos cuadrados al pensar probabilísticamente sobre el problema, haciendo conexiones con la máxima probabilidad. Esto motivará el enfoque de regresión de cresta a la regresión lineal a través de una técnica llamada regularización. Analizamos y comparamos estos dos enfoques fundamentales para la regresión lineal a través de la SVD.
- Lección 4 : Discutimos el equilibrio de sesgo-varianza utilizando mínimos cuadrados y regresión de crestas como un ejemplo motivador. Luego introducimos la regla de Bayes y la inferencia máxima a posteriori (MAP) como alternativa a la máxima verosimilitud, haciendo conexiones a la regresión de cresta.
Semana 3
- Lección 5 : Discutimos la regresión lineal bayesiana como un desarrollo natural de la regresión de cresta. Esto lleva a una discusión sobre la formación de distribuciones predictivas y el “aprendizaje activo” como dos características del enfoque totalmente bayesiano.
- Lección 6 : Terminamos nuestro enfoque en la regresión al considerar casos en los que la dimensionalidad del problema es mucho mayor que el número de muestras. Primero discutimos un enfoque mínimo de L2, que es más útil para introducir dos herramientas matemáticas clave en el aprendizaje automático: análisis y optimización. Luego discutimos los métodos de promoción de la dispersión para la regresión lineal.
Semana 4
- Lección 7 : Cambiamos al problema de clasificación del aprendizaje supervisado. Cubrimos enfoques simples de vecinos más cercanos y discutimos cómo se ve un clasificador óptimo. Esto motiva el enfoque genérico de clasificación de Bayes, una aproximación al clasificador óptimo.
- Lección 8 : Pasamos a los clasificadores lineales generales. Discutimos en detalle la comprensión geométrica del problema, que es crucial para apreciar lo que un clasificador lineal intenta hacer. Discutimos el primer clasificador lineal llamado Perceptron. Si bien este método se ha mejorado, el Perceptron nos brindará nuestra primera ocasión para analizar algoritmos iterativos para el aprendizaje de modelos.
Semana 5
- Lección 9 : Discutimos la regresión logística, un modelo de clasificación lineal discriminativo. Comparamos con el modelo de clasificación de Bayes generativo a través de la función de probabilidades de registro. La distribución de probabilidad formada por el modelo de regresión logística sugiere unirlo con un previo; a través de este ejemplo, discutimos la técnica general de aproximación de Laplace para aproximar una distribución posterior.
- Lección 10 : Hacemos un “truco” que hemos estado usando más concretamente al discutir expansiones de características y su uso en los métodos del núcleo. Después de analizar los núcleos, observamos una instancia específica de un poderoso modelo no paramétrico que los utiliza para la regresión (y clasificación): el proceso gaussiano.
Semana 6
- Lección 11 : Volvemos a la vista geométrica de la clasificación lineal y eliminamos todas las interpretaciones probabilísticas del problema. Esto inspira el enfoque de margen máximo para la clasificación binaria. Discutimos y analizamos un algoritmo de optimización llamado la máquina de vectores de soporte (SVM) que logra este objetivo de margen máximo. Mostramos cómo los núcleos encajan perfectamente en este modelo sin esfuerzo adicional.
- Lección 12 : Cambiamos a un enfoque de clasificación radicalmente diferente para los clasificadores lineales que hemos estado discutiendo hasta ahora. Los clasificadores de árbol intentan encontrar particiones de un espacio para clasificar los datos por separado en cada partición. Introducimos una técnica estadística llamada bootstrap para “embolsar” estos árboles en un “bosque aleatorio”.
Semana 7
- Lección 13 : Discutimos y analizamos el impulso, un método para tomar cualquier clasificador y mejorarlo. Esto se hace aprendiendo secuencias de clasificadores en varios subconjuntos de datos de modo que su combinación ponderada haga predicciones significativamente mejores que cualquier clasificador individual por sí solo. Probamos el teorema del error de entrenamiento de impulsar, quizás la parte más difícil de la clase, pero vale la pena el esfuerzo.
- Lección 14 : Esta conferencia marca el comienzo de la parte de aprendizaje no supervisado del curso. La primera familia de algoritmos que consideramos son los algoritmos de agrupamiento. Presentamos y derivamos el algoritmo k-means, el algoritmo de agrupamiento más fundamental.
Semana 8
- Lección 15 : Discutimos el algoritmo de maximización de expectativas (EM) para realizar la máxima probabilidad a través de una ruta indirecta. El algoritmo EM es una técnica notable que facilita muchos problemas difíciles. Discutimos EM en el contexto de un problema de datos faltantes, pero reaparecerá en las Conferencias 16, 19 y 21.
- Lección 16 : comparamos modelos de agrupamiento duro y blando y cubrimos un algoritmo de k-medias modificado. Luego enfocamos nuestra discusión en un enfoque probabilístico de agrupamiento llamado modelo de mezcla gaussiana, derivando un algoritmo EM iterativo para aprender sus parámetros.
Semana 9
- Lección 17 : Pasamos a otro problema de aprendizaje no supervisado de factorizar una matriz en el producto de dos matrices más pequeñas. Esta es una técnica muy utilizada para el filtrado colaborativo, donde deseamos recomendar contenido a los usuarios. Motivamos el modelo que discutimos, llamado factorización matricial probabilística, en el contexto de la recomendación de la película.
- Lección 18 : Discutimos la factorización de matriz no negativa, que difiere de la Lección 17 al restringir todos los valores en los datos y el modelo para que sean mayores que cero. Esto permite el “aprendizaje basado en partes” a partir de datos, de los cuales el modelado de temas es un buen ejemplo. Presentamos los dos algoritmos NMF estándar para este problema.
Semana 10
- Lección 19 : Cubrimos la técnica fundamental de factorización matricial llamada análisis de componentes principales (PCA), un enfoque de reducción de dimensionalidad muy útil. Las extensiones cubiertas incluyen PCA probabilístico para la eliminación de ruido de imágenes y pintura, y PCA de kernel para reducción de dimensionalidad no lineal.
- Lección 20 : Pasamos al problema no supervisado de diseñar y aprender modelos secuenciales. Nuestro primer tema es el modelo de Markov. Discutimos dos propiedades importantes de las cadenas de Markov y las aplicamos a los problemas de clasificación y clasificación semi-supervisada.
Semana 11
- Lección 21 : Ampliamos el modelo de Markov al modelo oculto de Markov (HMM). Aclaramos la diferencia importante entre los dos y discutimos un algoritmo EM para aprender HMM. Brindamos una discusión de alto nivel sobre cómo se pueden usar los HMM para el reconocimiento de voz.
- Lección 22 : Discutimos un modelo secuencial final donde todas las incógnitas se valoran continuamente. Presentamos el filtro de Kalman para el seguimiento de objetos y utilizamos todo nuestro conocimiento bayesiano para derivar el algoritmo de filtrado para el aprendizaje en tiempo real de este modelo gaussiano lineal de estado continuo.
Semana 12
- Lección 23 : En la última semana cambiamos de marcha a dos problemas que son muy diferentes de lo que hemos discutido anteriormente. En esta conferencia cubrimos el análisis de asociación, que es el problema de aprender combinaciones interesantes altamente probables de la forma A implica B. El algoritmo inteligente y exacto que cubrimos hace que este problema combinatoriamente “imposible” sea muy posible.
- Lección 24 : En esta conferencia final discutimos la selección del modelo. Hemos tomado muchas decisiones de modelado a lo largo de este curso sin saber exactamente cuál es el mejor. Esta conferencia discute dos técnicas básicas para elegir la complejidad final de un modelo.
Calificación
Pruebas (15%): el curso tiene 11 pruebas.
Proyectos (40%): habrá 4 proyectos con un valor del 10% cada uno para un total del 40%. Todos los proyectos cuentan.
Examen final (45%) : Habrá un examen final una semana después de la última clase.
Esquema del curso para el curso de Inteligencia Artificial (ColumbiaX) (de la parte de introducción del curso):
Horario de clases
Semana 1: Introducción a la IA, historia de la IA, logística del curso y hoja de ruta
Semana 2: agentes inteligentes, búsqueda no informada
Semana 3: búsqueda heurística, búsqueda codiciosa, algoritmo A *, búsqueda estocástica
Semana 4: búsqueda adversaria, juego
Semana 5: Aprendizaje automático: conceptos básicos, modelos lineales, K vecinos más cercanos, sobreajuste
Semana 6: Aprendizaje automático: perceptrones, redes neuronales, Bayes ingenuos, árboles de decisión, conjunto, regresión logística y aprendizaje sin supervisión.
Semana 7: problemas de satisfacción de restricciones
Semana 8: procesos de decisión de Markov, aprendizaje por refuerzo.
Semana 9: agentes lógicos, lógica proposicional y lógica de primer orden
Semana 10: aplicaciones de IA para el procesamiento del lenguaje natural (PNL)
Semana 11: aplicaciones de IA para visión / robótica
Semana 12: revisión y conclusión
Asignaciones
Habrá dos tipos de tareas:
Cuestionarios (conceptuales): evalúan su comprensión de las conferencias. Se le puede pedir que razone de manera abstracta sobre la naturaleza de un algoritmo o que realice una técnica a mano en un pequeño problema. Lea atentamente las instrucciones, tenga en cuenta los requisitos de formato y revise sus respuestas antes de enviar. Excepto por las preguntas más desafiantes, a menudo solo tendrá un intento de responder una pregunta.
Proyectos (programación): ofrecen una excelente oportunidad para sumergirse en la programación y el diseño de Python mientras resuelven problemas de IA y aprenden sus aplicaciones. A menudo se le presentará un problema general y se le pedirá que encuentre soluciones al problema mediante la implementación de algoritmos desde cero. Como se mencionó anteriormente, espere pasar al menos varias horas para completar las tareas de programación.
Calificación
Cuestionarios (20%): habrá 11 cuestionarios con un valor del 2% cada uno para un total de 20%. La puntuación más baja se eliminará.
Proyectos (50%): Habrá 5 proyectos en Python con un valor del 10% cada uno para un total del 50%. Todos los proyectos cuentan.
Examen final (30%) : Habrá un examen final una semana después de la última clase.
¡Puedes ver que el programa de esos dos cursos es súper intensivo y completo!