¿Qué tan efectivo sería el programa Micro Master de Inteligencia Artificial ofrecido por la Universidad de Columbia a través de edX para avanzar en la carrera de ciencia de datos?

¡El curso de Inteligencia Artificial y el curso de Machine Learning acaban de comenzar esta semana! ¡Echa un vistazo al Syllabus! Esos dos cursos ofrecen 24 semanas (48 conferencias) en total. Además de la aparente riqueza de los contenidos de enseñanza, también ofrecen proyectos de programación basados ​​en Python que representan entre el 40% y el 50% de la calificación de cada curso. Mirando el programa de estudios, creo que ofrecen uno de los cursos en línea más rigurosos y completos sobre IA / ML que he conocido. Esos dos cursos se ven realmente bien para cualquiera que comience / ya esté / busque avanzar en una carrera en ciencias de datos.

Esquema del curso para el curso de Machine Learning (ColumbiaX) (de la parte de introducción del curso):

Esquema del curso

Semana 1

  • Lección 1 : Discutiremos las diversas perspectivas del curso y el aprendizaje automático en general. Luego cubriremos el problema de máxima verosimilitud para aprender los parámetros de una distribución de probabilidad.
  • Lección 2 : Pasamos a nuestro primer problema de aprendizaje supervisado de regresión lineal. Discutimos el enfoque de mínimos cuadrados para la regresión lineal y entendemos las intuiciones geométricas del problema.

Semana 2

  • Lección 3 : Continuamos nuestra discusión sobre los mínimos cuadrados al pensar probabilísticamente sobre el problema, haciendo conexiones con la máxima probabilidad. Esto motivará el enfoque de regresión de cresta a la regresión lineal a través de una técnica llamada regularización. Analizamos y comparamos estos dos enfoques fundamentales para la regresión lineal a través de la SVD.
  • Lección 4 : Discutimos el equilibrio de sesgo-varianza utilizando mínimos cuadrados y regresión de crestas como un ejemplo motivador. Luego introducimos la regla de Bayes y la inferencia máxima a posteriori (MAP) como alternativa a la máxima verosimilitud, haciendo conexiones a la regresión de cresta.

Semana 3

  • Lección 5 : Discutimos la regresión lineal bayesiana como un desarrollo natural de la regresión de cresta. Esto lleva a una discusión sobre la formación de distribuciones predictivas y el “aprendizaje activo” como dos características del enfoque totalmente bayesiano.
  • Lección 6 : Terminamos nuestro enfoque en la regresión al considerar casos en los que la dimensionalidad del problema es mucho mayor que el número de muestras. Primero discutimos un enfoque mínimo de L2, que es más útil para introducir dos herramientas matemáticas clave en el aprendizaje automático: análisis y optimización. Luego discutimos los métodos de promoción de la dispersión para la regresión lineal.

Semana 4

  • Lección 7 : Cambiamos al problema de clasificación del aprendizaje supervisado. Cubrimos enfoques simples de vecinos más cercanos y discutimos cómo se ve un clasificador óptimo. Esto motiva el enfoque genérico de clasificación de Bayes, una aproximación al clasificador óptimo.
  • Lección 8 : Pasamos a los clasificadores lineales generales. Discutimos en detalle la comprensión geométrica del problema, que es crucial para apreciar lo que un clasificador lineal intenta hacer. Discutimos el primer clasificador lineal llamado Perceptron. Si bien este método se ha mejorado, el Perceptron nos brindará nuestra primera ocasión para analizar algoritmos iterativos para el aprendizaje de modelos.

Semana 5

  • Lección 9 : Discutimos la regresión logística, un modelo de clasificación lineal discriminativo. Comparamos con el modelo de clasificación de Bayes generativo a través de la función de probabilidades de registro. La distribución de probabilidad formada por el modelo de regresión logística sugiere unirlo con un previo; a través de este ejemplo, discutimos la técnica general de aproximación de Laplace para aproximar una distribución posterior.
  • Lección 10 : Hacemos un “truco” que hemos estado usando más concretamente al discutir expansiones de características y su uso en los métodos del núcleo. Después de analizar los núcleos, observamos una instancia específica de un poderoso modelo no paramétrico que los utiliza para la regresión (y clasificación): el proceso gaussiano.

Semana 6

  • Lección 11 : Volvemos a la vista geométrica de la clasificación lineal y eliminamos todas las interpretaciones probabilísticas del problema. Esto inspira el enfoque de margen máximo para la clasificación binaria. Discutimos y analizamos un algoritmo de optimización llamado la máquina de vectores de soporte (SVM) que logra este objetivo de margen máximo. Mostramos cómo los núcleos encajan perfectamente en este modelo sin esfuerzo adicional.
  • Lección 12 : Cambiamos a un enfoque de clasificación radicalmente diferente para los clasificadores lineales que hemos estado discutiendo hasta ahora. Los clasificadores de árbol intentan encontrar particiones de un espacio para clasificar los datos por separado en cada partición. Introducimos una técnica estadística llamada bootstrap para “embolsar” estos árboles en un “bosque aleatorio”.

Semana 7

  • Lección 13 : Discutimos y analizamos el impulso, un método para tomar cualquier clasificador y mejorarlo. Esto se hace aprendiendo secuencias de clasificadores en varios subconjuntos de datos de modo que su combinación ponderada haga predicciones significativamente mejores que cualquier clasificador individual por sí solo. Probamos el teorema del error de entrenamiento de impulsar, quizás la parte más difícil de la clase, pero vale la pena el esfuerzo.
  • Lección 14 : Esta conferencia marca el comienzo de la parte de aprendizaje no supervisado del curso. La primera familia de algoritmos que consideramos son los algoritmos de agrupamiento. Presentamos y derivamos el algoritmo k-means, el algoritmo de agrupamiento más fundamental.

Semana 8

  • Lección 15 : Discutimos el algoritmo de maximización de expectativas (EM) para realizar la máxima probabilidad a través de una ruta indirecta. El algoritmo EM es una técnica notable que facilita muchos problemas difíciles. Discutimos EM en el contexto de un problema de datos faltantes, pero reaparecerá en las Conferencias 16, 19 y 21.
  • Lección 16 : comparamos modelos de agrupamiento duro y blando y cubrimos un algoritmo de k-medias modificado. Luego enfocamos nuestra discusión en un enfoque probabilístico de agrupamiento llamado modelo de mezcla gaussiana, derivando un algoritmo EM iterativo para aprender sus parámetros.

Semana 9

  • Lección 17 : Pasamos a otro problema de aprendizaje no supervisado de factorizar una matriz en el producto de dos matrices más pequeñas. Esta es una técnica muy utilizada para el filtrado colaborativo, donde deseamos recomendar contenido a los usuarios. Motivamos el modelo que discutimos, llamado factorización matricial probabilística, en el contexto de la recomendación de la película.
  • Lección 18 : Discutimos la factorización de matriz no negativa, que difiere de la Lección 17 al restringir todos los valores en los datos y el modelo para que sean mayores que cero. Esto permite el “aprendizaje basado en partes” a partir de datos, de los cuales el modelado de temas es un buen ejemplo. Presentamos los dos algoritmos NMF estándar para este problema.

Semana 10

  • Lección 19 : Cubrimos la técnica fundamental de factorización matricial llamada análisis de componentes principales (PCA), un enfoque de reducción de dimensionalidad muy útil. Las extensiones cubiertas incluyen PCA probabilístico para la eliminación de ruido de imágenes y pintura, y PCA de kernel para reducción de dimensionalidad no lineal.
  • Lección 20 : Pasamos al problema no supervisado de diseñar y aprender modelos secuenciales. Nuestro primer tema es el modelo de Markov. Discutimos dos propiedades importantes de las cadenas de Markov y las aplicamos a los problemas de clasificación y clasificación semi-supervisada.

Semana 11

  • Lección 21 : Ampliamos el modelo de Markov al modelo oculto de Markov (HMM). Aclaramos la diferencia importante entre los dos y discutimos un algoritmo EM para aprender HMM. Brindamos una discusión de alto nivel sobre cómo se pueden usar los HMM para el reconocimiento de voz.
  • Lección 22 : Discutimos un modelo secuencial final donde todas las incógnitas se valoran continuamente. Presentamos el filtro de Kalman para el seguimiento de objetos y utilizamos todo nuestro conocimiento bayesiano para derivar el algoritmo de filtrado para el aprendizaje en tiempo real de este modelo gaussiano lineal de estado continuo.

Semana 12

  • Lección 23 : En la última semana cambiamos de marcha a dos problemas que son muy diferentes de lo que hemos discutido anteriormente. En esta conferencia cubrimos el análisis de asociación, que es el problema de aprender combinaciones interesantes altamente probables de la forma A implica B. El algoritmo inteligente y exacto que cubrimos hace que este problema combinatoriamente “imposible” sea muy posible.
  • Lección 24 : En esta conferencia final discutimos la selección del modelo. Hemos tomado muchas decisiones de modelado a lo largo de este curso sin saber exactamente cuál es el mejor. Esta conferencia discute dos técnicas básicas para elegir la complejidad final de un modelo.

Calificación

Pruebas (15%): el curso tiene 11 pruebas.

Proyectos (40%): habrá 4 proyectos con un valor del 10% cada uno para un total del 40%. Todos los proyectos cuentan.

Examen final (45%) : Habrá un examen final una semana después de la última clase.


Esquema del curso para el curso de Inteligencia Artificial (ColumbiaX) (de la parte de introducción del curso):

Horario de clases

Semana 1: Introducción a la IA, historia de la IA, logística del curso y hoja de ruta

Semana 2: agentes inteligentes, búsqueda no informada

Semana 3: búsqueda heurística, búsqueda codiciosa, algoritmo A *, búsqueda estocástica

Semana 4: búsqueda adversaria, juego

Semana 5: Aprendizaje automático: conceptos básicos, modelos lineales, K vecinos más cercanos, sobreajuste

Semana 6: Aprendizaje automático: perceptrones, redes neuronales, Bayes ingenuos, árboles de decisión, conjunto, regresión logística y aprendizaje sin supervisión.

Semana 7: problemas de satisfacción de restricciones

Semana 8: procesos de decisión de Markov, aprendizaje por refuerzo.

Semana 9: agentes lógicos, lógica proposicional y lógica de primer orden

Semana 10: aplicaciones de IA para el procesamiento del lenguaje natural (PNL)

Semana 11: aplicaciones de IA para visión / robótica

Semana 12: revisión y conclusión

Asignaciones

Habrá dos tipos de tareas:

Cuestionarios (conceptuales): evalúan su comprensión de las conferencias. Se le puede pedir que razone de manera abstracta sobre la naturaleza de un algoritmo o que realice una técnica a mano en un pequeño problema. Lea atentamente las instrucciones, tenga en cuenta los requisitos de formato y revise sus respuestas antes de enviar. Excepto por las preguntas más desafiantes, a menudo solo tendrá un intento de responder una pregunta.

Proyectos (programación): ofrecen una excelente oportunidad para sumergirse en la programación y el diseño de Python mientras resuelven problemas de IA y aprenden sus aplicaciones. A menudo se le presentará un problema general y se le pedirá que encuentre soluciones al problema mediante la implementación de algoritmos desde cero. Como se mencionó anteriormente, espere pasar al menos varias horas para completar las tareas de programación.

Calificación

Cuestionarios (20%): habrá 11 cuestionarios con un valor del 2% cada uno para un total de 20%. La puntuación más baja se eliminará.

Proyectos (50%): Habrá 5 proyectos en Python con un valor del 10% cada uno para un total del 50%. Todos los proyectos cuentan.

Examen final (30%) : Habrá un examen final una semana después de la última clase.


¡Puedes ver que el programa de esos dos cursos es súper intensivo y completo!

No veo por qué un Data Scientist necesitaría este MicroMaster.

Hay 4 partes: Robótica, Animación, IA y ML.

Como Data Scientist, realmente no necesitas Robótica y Animación.

Incluso la IA es cuestionable. El solo hecho de comprender y programar “agentes inteligentes” puede llevarle 50, 100, 500 o más horas. Saber cómo crear y codificar otro jugador GO no ayudará mucho a avanzar en su carrera de Ciencia de Datos.

Mejor invierto mi tiempo en solidificar sus habilidades de Data Science en DataCamp.com o DataQuest.io. Ensúciate las manos. Codifique, limpie datos, visualice, aplique algoritmos … esto puede ser un trabajo horrible. Aquí es donde puedes tener un EDGE sobre un CS Master o incluso un Phd.

Si aún le queda tiempo, escriba algoritmos desde cero (sugerencia: machinelearningmastery.com) para tener una comprensión profunda de los algos.

El hecho de que solo unos pocos científicos de datos utilicen las redes neuronales / aprendizaje profundo exigentes intelectuales no significa que un científico de datos pueda tener una profunda experiencia en su campo.

Buena suerte

PD: El MicroMaster de Columbia en IA se ve increíble. Se basa en electivas reales de un CS Master en Columbia. A este precio, es una ganga. Y, probablemente sea uno de los MOOC más difíciles de la historia.

Acabo de completar el curso de Inteligencia Artificial (IA) y siento que me dio una base sólida en esa disciplina. Los proyectos de programación ayudaron mucho a consolidar el conocimiento adquirido y pueden utilizarse como ejemplos de código para mostrar a los posibles empleadores.

Todavía no estoy trabajando en el campo y probablemente completaré los otros cursos en el programa MicroMasters antes de aplicar en cualquier lugar, pero ya siento que podría resolver problemas relativamente complejos utilizando técnicas de IA y Machine Learning.

Entonces, para responder a su pregunta, creo que este programa es el primer paso perfecto si no tiene los medios o el tiempo para volver a la escuela a tiempo completo. Si no puede encontrar un trabajo después de completar este curso, siempre puede solicitar el título de maestría en Columbia (el programa MicroMasters representa el 25% de su trabajo de curso) o trabajar en proyectos personales para ampliar y mostrar sus habilidades.

Dicho esto, supongo que la necesidad de desarrolladores (o investigadores) de IA será tan alta que no será demasiado difícil encontrar a alguien dispuesto a darle una oportunidad.

¿Has preguntado a tantos graduados del programa como puedas?

Siga vinculado y busque graduados del programa. Conéctese como un “amigo” y envíeles un mensaje preguntando sobre sus experiencias.

More Interesting

Un antiguo empleador mío todavía me debe $ 50,000 debido a una recesión en los negocios. Ahora propone devolverlo a $ 2,500 / m. ¿Debo pedir interés, y si es así, qué porcentaje parece justo?

Cómo conseguir un trabajo en Google

¿Qué factores debo considerar para elegir mi tema de investigación para doctorado?

¿Qué debo hacer para obtener la mejor oferta de colocación en el campus? Comenzaré mi universidad este agosto, B.Tech IT en MAIT.

¿Es el hecho de que no estoy utilizando currículums para trabajos de salario mínimo es lo que me está matando en el proceso que estoy teniendo dificultades para encontrar trabajo?

Soy un desarrollador frontend con sede en Italia y estoy pensando en trabajar en el extranjero. ¿Cuál es la mejor ciudad europea para encontrar una buena compañía en el campo del desarrollo web?

¿Qué programa de maestría en informática en línea es mejor para una carrera de ingeniería de software: Harvard Extension School o el nuevo programa de Georgia Tech y Udacity?

Comencé una empresa de desarrollo de iOS, pero estoy luchando por encontrar trabajo. ¿Que puedo hacer?

Tuve una entrevista de trabajo el viernes pasado (18 de marzo de 2016). ¿Cuánto tiempo debo esperar antes de hacer contacto para ver si he tenido éxito o no?

Si una persona es débil en la codificación, ¿puede él / ella romper el entrenamiento cognitivo?

Todas las pasantías de software parecen requerir fluidez en muchos idiomas, como estudiante de CS con poca experiencia, ¿cómo puedo obtener una?

¿Se está endureciendo el mercado actuarial de nivel de entrada desde la recesión o se ha aliviado? Soy un aspirante a 28 años que cambia de carrera a actuarial.

Fui seleccionado en Franconnect. ¿Cómo es el entrenamiento allí?

¿Qué es mejor: VIT Pune o KJ SOMAIYA?

¿Los estudiantes que se unen a universidades en los EE. UU. O en cualquier otra nación extranjera se enfrentan a un harapiento extremo como sucede en la India?