Cómo convertirse en un científico de datos sin ir a la universidad / tener un título

La mejor manera de convertirse en un científico de datos es aprender, y hacer, ciencia de datos. Hay muchos cursos y herramientas excelentes disponibles en línea que pueden ayudarlo a llegar allí.

Aquí hay una increíble lista de recursos compilados por Jonathan Dinu, cofundador de Zipfian Academy, que capacita a científicos e ingenieros de datos en San Francisco.

NOTA: Esta es la misma lista de ¿Cómo me convierto en un científico de datos? Hay muchas respuestas geniales sobre esa pregunta sobre la enseñanza de la ciencia de datos.

Ambiente
Python es un gran lenguaje de programación de elección para los aspirantes a científicos de datos debido a su aplicabilidad de propósito general, una curva de aprendizaje suave (o firme) y, quizás la razón más convincente, el rico ecosistema de recursos y bibliotecas utilizadas activamente por la comunidad científica.

Desarrollo
Al aprender un nuevo idioma en un nuevo dominio, es de gran ayuda tener un entorno interactivo para explorar y recibir comentarios inmediatos. IPython proporciona un REPL interactivo que también le permite integrar una amplia variedad de marcos (incluido R) en sus programas de Python.

ESTADÍSTICA
Los científicos de datos son mejores en ingeniería de software que los estadísticos y mejores en estadística que cualquier ingeniero de software. Como tal, la inferencia estadística sustenta gran parte de la teoría detrás del análisis de datos y una base sólida de métodos estadísticos y probabilidad sirve como un trampolín en el mundo de la ciencia de datos.

Cursos
edX: Introducción a la estadística: Estadística descriptiva: Un curso básico de estadística introductoria.

Coursera Statistics, Making Sense of Data: un curso de estadística aplicada que enseña la línea completa de análisis estadístico

MIT: Pensamiento estadístico y análisis de datos: Introducción a la probabilidad, muestreo, regresión, distribuciones comunes e inferencia.

Si bien R es el estándar de facto para realizar análisis estadísticos, tiene una curva de aprendizaje bastante alta y hay otras áreas de la ciencia de datos para las que no es muy adecuado. Para evitar aprender un nuevo idioma para un dominio de problema específico, recomendamos intentar realizar los ejercicios de estos cursos con Python y sus numerosas bibliotecas estadísticas. Encontrará que gran parte de la funcionalidad de R se puede replicar con NumPy, @SciPy, @Matplotlib y @Python Data Analysis Library

Libros
Los libros bien escritos pueden ser una gran referencia (y complemento) para estos cursos, y también proporcionan una experiencia de aprendizaje más independiente. Estos pueden ser útiles si ya tiene algún conocimiento del tema o simplemente necesita llenar algunos vacíos en su comprensión:

O’Reilly Think Stats: una introducción a la probabilidad y las estadísticas para programadores de Python

Introducción a la probabilidad: Libro de texto para la clase Stats 134 de Berkeley, un tratamiento introductorio de probabilidad con ejercicios complementarios.

Notas de clase de Berkeley, Introducción a la probabilidad: notas de clase compiladas del libro de texto anterior, completadas con ejercicios.

OpenIntro: Estadísticas: libro de texto introductorio con ejercicios y laboratorios complementarios en un portal en línea.

Think Bayes: una introducción simple a las estadísticas bayesianas con ejemplos de código Python.

APRENDIZAJE DE MÁQUINAS / ALGORITMOS
Una base sólida de informática y algoritmos es esencial para un aspirante a científico de datos. Afortunadamente, hay una gran cantidad de excelentes recursos en línea, y el aprendizaje automático es una de las habilidades más lucrativas (y avanzadas) de un científico de datos.

Cursos
Coursera Machine Learning: el famoso curso de aprendizaje automático de Stanford impartido por Andrew Ng.

Coursera: Métodos computacionales para el análisis de datos: Métodos estadísticos y análisis de datos aplicados a las ciencias físicas, de ingeniería y biológicas.

MIT Data Mining: una introducción a las técnicas de minería de datos y cómo aplicar algoritmos de ML para obtener información.

Edx: Introducción a la Inteligencia Artificial: Introducción a la Inteligencia Artificial: La primera mitad del popular curso de IA de Berkeley que te enseña a construir agentes autónomos para tomar decisiones de manera eficiente en entornos estocásticos y adversos.

Introducción a la informática y la programación: curso introductorio del MIT a la teoría y la aplicación de la informática.

Libros
UCI: un primer encuentro con el aprendizaje automático: una introducción a los conceptos de aprendizaje automático centrados en la intuición y la explicación de por qué funcionan.

Una guía del programador para la minería de datos: un libro basado en la web completo con ejemplos de código (en Python) y ejercicios.

Estructuras de datos y algoritmos con patrones de diseño orientados a objetos en Python: una introducción a la informática con ejemplos de código en Python: cubre el análisis de algoritmos, estructuras de datos, algoritmos de clasificación y diseño orientado a objetos.

Introducción a la minería de datos: una guía interactiva del árbol de decisiones (con conferencias hipervinculadas) para aprender minería de datos y aprendizaje automático.

Elementos del aprendizaje estadístico: uno de los tratamientos más completos de minería de datos y ML, a menudo utilizado como libro de texto universitario.

Stanford: Introducción a la recuperación de información: Libro de texto de un curso de Stanford sobre PNL y recuperación de información con secciones sobre clasificación de texto, agrupación, indexación y rastreo web.

INGESTIÓN Y LIMPIEZA DE DATOS
Uno de los aspectos menos apreciados de la ciencia de datos es la limpieza y el munging de datos que a menudo representa el sumidero de tiempo más significativo durante el análisis. Si bien nunca hay una bala de plata para tal problema, conocer las herramientas, técnicas y enfoques correctos puede ayudar a minimizar el tiempo dedicado a discutir los datos.

Cursos
Escuela de datos: una introducción suave a la limpieza de datos: un enfoque práctico para aprender a limpiar datos, con muchos ejercicios y recursos web.

Tutoriales
Análisis predictivo: preparación de datos: una introducción a los conceptos y técnicas de muestreo de datos, teniendo en cuenta los valores erróneos y manipulando los datos para transformarlos en formatos aceptables.

Herramientas
OpenRefine (anteriormente Google Refine): una herramienta poderosa para trabajar con datos desordenados, limpiarlos, transformarlos, extenderlos con servicios web y vincularlos a bases de datos. Piensa en Excel con esteroides.

Data Wrangler: proyecto de investigación de Stanford que proporciona una herramienta interactiva para la limpieza y transformación de datos.

sed – una Introducción y Tutorial: “El último editor de flujo”, utilizado para procesar archivos con expresiones regulares que a menudo se utilizan para la sustitución.

awk – Introducción y tutorial: “Otra piedra angular de la programación de shell de UNIX” – utilizada para procesar filas y columnas de información.

VISUALIZACIÓN
El análisis de datos más perspicaz es inútil a menos que pueda comunicar sus resultados de manera efectiva. El arte de la visualización tiene una larga historia, y aunque es uno de los aspectos más cualitativos de la ciencia de datos, sus métodos y herramientas están bien documentados.

Cursos
Visualización de UC Berkeley: clase de posgrado sobre técnicas y algoritmos para crear visualizaciones efectivas.

Visualización de datos de la Universidad de Rice: un tratamiento de visualización de datos y cómo presentar información de manera significativa desde la perspectiva de la estadística.

Introducción a la informática, modelado y visualización de la Universidad de Harvard: conecta los conceptos de informática con datos al proceso de visualización interactiva de resultados.

Libros
Tufte: la pantalla visual de información cuantitativa: no disponible gratuitamente, pero quizás el texto más influyente para el tema de la visualización de datos. Un clásico que definió el campo.

Tutoriales
Escuela de datos: de los datos a los diagramas: una introducción suave para trazar y trazar datos, con ejercicios.

Análisis predictivo: descripción general y visualización de datos: una introducción al proceso de modelado predictivo y un tratamiento de la visualización de sus resultados.

Herramientas
D3.js: Documentos basados ​​en datos: manipulación declarativa de elementos DOM con funciones dependientes de datos (con puerto Python).

Vega: una gramática de visualización construida sobre D3 para visualizaciones declarativas en JSON. Lanzado por el equipo de ensueño en Trifacta, proporciona una abstracción de nivel más alto que D3 para crear gráficos basados ​​en SVG.

Rickshaw: una biblioteca de gráficos construida sobre D3 con un enfoque en gráficos de series de tiempo interactivas.

Mapas modestos: una biblioteca liviana con una interfaz simple para trabajar con mapas en el navegador (con puertos a varios idiomas).

Chart.js: Biblioteca de trazado basada en HTML5 “muy simple (solo seis gráficos) con un hermoso estilo y animación.

COMPUTACION A ESCALA
Cuando comienza a operar con datos a escala de la web (o superior), el enfoque fundamental y el proceso de análisis deben cambiar. Para combatir la cantidad cada vez mayor de datos, Google desarrolló el paradigma MapReduce. Este modelo de programación se ha convertido en el estándar de facto para el procesamiento por lotes a gran escala desde el lanzamiento de Apache Hadoop en 2007, el marco de MapReduce de código abierto.

Cursos
UC Berkeley: Análisis de Big Data con Twitter: un curso, impartido en estrecha colaboración con Twitter, que se centra en las herramientas y algoritmos para el análisis de datos aplicados a los datos de microblog de Twitter (con un plan de estudios basado en proyectos).

Coursera: Web Intelligence y Big Data: una introducción al manejo de grandes cantidades de datos de la web; cómo las herramientas y técnicas para adquirir, manipular, consultar y analizar datos cambian a escala.

CMU: Aprendizaje automático con grandes conjuntos de datos: un curso sobre algoritmos de escalamiento de aprendizaje automático en Hadoop para manejar conjuntos de datos masivos.

U de Chicago: Aprendizaje a gran escala: un tratamiento para manejar grandes conjuntos de datos a través de la reducción de dimensionalidad, clasificación, parametrización de características y estructuras de datos eficientes.

UC Berkeley: Machine Learning escalable: una amplia introducción a los sistemas, algoritmos, modelos y optimizaciones necesarios a escala.

Libros
Conjuntos de datos masivos de minería: recursos del curso de Stanford sobre aprendizaje automático a gran escala y MapReduce con el libro adjunto.

Procesamiento de texto intensivo en datos con MapReduce: una introducción a los algoritmos para la indexación y el procesamiento de texto que le enseña a “pensar en MapReduce”.

Hadoop: la guía definitiva: el tratamiento más completo del marco Hadoop, un gran tutorial y referencia por igual.

Programming Pig: una introducción al marco de Pig para programar flujos de datos en Hadoop.

PONIENDOLO TODO JUNTO
Data Science es un campo inherentemente multidisciplinario que requiere una gran cantidad de habilidades para ser un profesional competente. El plan de estudios necesario no se ajusta a las ofertas de cursos tradicionales, pero a medida que crece la conciencia de la necesidad de personas con tales habilidades, estamos viendo que universidades y empresas privadas crean clases personalizadas.

Cursos
UC Berkeley: Introducción a la ciencia de datos: un curso impartido por Jeff Hammerbacher y Mike Franklin que destaca cada una de las variadas habilidades con las que un científico de datos debe ser competente.

Cómo procesar, analizar y visualizar datos: un curso orientado al laboratorio que le enseña todo el proceso de ciencia de datos; desde la adquisición de conjuntos de datos y su análisis a escala hasta la visualización efectiva de los resultados.

Coursera: Introducción a la ciencia de datos: un recorrido por las técnicas básicas para la ciencia de datos, incluidas las bases de datos SQL y NoSQL, MapReduce en Hadoop, algoritmos ML y visualización de datos.

Columbia: Introducción a la ciencia de datos: un curso muy completo que cubre todos los aspectos de la ciencia de datos, con un tratamiento humanista del campo.

Columbia: ciencia de datos aplicada (con libro): otro curso de Columbia: enseña los fundamentos del desarrollo de software aplicado utilizando datos reales, dirigidos a personas con antecedentes matemáticos.

Coursera: Análisis de datos (con notas y conferencias): un curso de estadística aplicada que cubre algoritmos y técnicas para analizar datos e interpretar los resultados para comunicar sus hallazgos.

Libros
Introducción a la ciencia de datos: el libro de texto complementario del curso insignia de la Universidad de Syracuse para su nuevo programa de ciencia de datos.

Tutoriales
Kaggle: Comenzando con Python para la ciencia de datos: una visita guiada para configurar un entorno de desarrollo, una introducción para hacer su primera presentación de competencia y validar sus resultados.

CONCLUSIÓN
La ciencia de datos es un campo infinitamente complejo y acabamos de arañar la superficie aquí. Si desea ensuciarse las manos y ganar experiencia trabajando con estas herramientas en un entorno colaborativo, consulte nuestras opciones en http://zipfianacademy.com.

También está invitado a conectarse con nosotros en Twitter @zipfianacademy y háganos saber si desea obtener más información sobre alguno de estos temas.

Yo recomendaria:

  • Consulte CS109 y otro material gratuito en Internet para ponerse al día con herramientas y técnicas
  • Probar algunos de los concursos de entrenamiento en Kaggle y publicar sus soluciones en GitHub
  • Encuentre conjuntos de datos interesantes y sacie su curiosidad respondiendo y visualizando preguntas interesantes sobre los datos, luego publique su trabajo en un blog de Quora
  • Cree un corpus de repositorios públicos en GitHub e información interesante en su blog, y presente proyectos interesantes en su currículum.
  • Comience a solicitar pasantías en ciencia de datos y analista de datos en su área

Hola,

Comienzo desde cero para aprender ciencia de datos y todavía estoy aprendiendo. Mi objetivo no es convertirme en un científico de datos, sino solo comprender y hacer un buen uso de los grandes datos.

Encuentro algunos cursos muy útiles en la plataforma de capacitación Experfy. Experfy es una empresa incubada en Harvard que ofrece una plataforma de capacitación en línea de próxima generación para tecnologías emergentes, como Big Data, Analytics, Internet de las cosas, Cloud, Seguridad y más. Esos cursos en él tienen un fuerte enfoque en las verticales de la industria y son impartidos por líderes y profesionales de la industria.

Espero que ayude y buena suerte en su camino de convertirse en un científico de datos.

Escribí una publicación de blog sobre este mismo tema y trabajo para una compañía que ayuda a las personas a obtener trabajos de ciencia de datos con un campamento de entrenamiento en línea con mentoría. Aquí está el extracto más relevante:

1- Busca recursos de aprendizaje en todas partes

Familiarícese con diferentes comunidades y recursos de aprendizaje, y conozca cuáles se adaptan a su estilo de aprendizaje. Obtenga una rutina de aprendizaje y un conjunto de rutas en función de cómo desea aprender. Obtenga una idea de dónde se encuentra y cuánto progreso necesita lograr. Nuestra guía de trabajos de ciencia de datos tiene una buena visión general de las habilidades que necesitará para tener éxito en la ciencia de datos y una buena lista de recursos para comenzar si desea aprender ciencia de datos de forma gratuita y en línea.

Querrá pensar constantemente sobre cómo aprender ciencia de datos. Los mejores científicos de datos son aprendices de por vida.

2- Aprende un lenguaje de programación

Como base, sugerimos aprender al menos un lenguaje de programación para que pueda comenzar a jugar con datos a escala. Para empezar, se sugiere encarecidamente que los científicos de datos en ciernes adopten uno de R o Python.

3- Aprende los conceptos básicos de estadística

Como científico de datos, se le pedirá que utilice métodos estadísticos para analizar e interpretar datos. Debe estar familiarizado con esos métodos, así como con la mentalidad general asociada con el pensamiento en las probabilidades.

4- Aprenda qué significan los datos para una industria en particular

Combine su conocimiento de los métodos de ciencia de datos con el conocimiento del dominio para que pueda comenzar a descubrir ideas sobre una industria en particular. Querrá aprender algo que le apasione y luego comenzar a aplicar métodos de ciencia de datos.

5- Combina tus conocimientos y crea proyectos del mundo real

Tome el conocimiento que tiene y comience a construir una cartera de proyectos interesantes de ciencia de datos. Examine diferentes ángulos y preguntas y cree análisis interesantes que pueda compartir con otros. Querrá crear un sitio de cartera utilizando software como WordPress y una cuenta de Github y comenzar a aplicar las habilidades que ha aprendido en teoría.

6- Network y conoce la comunidad de ciencia de datos

Querrá establecer contactos y conocer a la comunidad de ciencia de datos, ya sean eventos locales en Meetup o eventos más grandes como O’Reilly Strata. Es importante que comience a establecer contactos y conocer qué oportunidades hay en la ciencia de datos, y es importante comenzar a encontrar personas con las que pueda colaborar y de las que pueda aprender. Querrá comenzar a construir relaciones con personas en empresas contratantes o que tienen necesidades de ciencia de datos: incluso puede considerar trabajar independientemente como científico de datos si puede construir proyectos a nivel profesional.

7- ¡ Prepárate para el proceso de entrevista de ciencia de datos y entra en una carrera de ciencia de datos!

Después de construir su red y poner en marcha algunos proyectos de cartera, querrá comenzar a aprovechar a las personas dentro de su red y buscar diferentes oportunidades de trabajo. En este punto, debe concentrarse en dominar sus habilidades y pasar el proceso de entrevista de ciencia de datos. Springboard ha creado una guía completa de entrevistas de ciencia de datos que puede ayudar en este sentido.

Una vez que domine la entrevista de ciencia de datos y acepte su primera oferta, estará en una carrera profesional como científico de datos donde no tendrá que mirar hacia atrás. El aprendizaje de la ciencia de datos habrá valido la pena.

“Un científico de datos es alguien que es mejor en estadística que cualquier ingeniero de software y mejor en ingeniería de software que cualquier estadístico”.

Creo que para ser un científico de datos exitoso necesitarás ciertas habilidades como:

  • Matemáticas (por ejemplo, álgebra lineal, cálculo y probabilidad)
  • Estadísticas (por ejemplo, pruebas de hipótesis y estadísticas resumidas)
  • Herramientas y técnicas de aprendizaje automático (p. Ej., Vecinos más cercanos, bosques aleatorios, métodos de conjunto, etc.)
  • Habilidades de ingeniería de software (por ejemplo, computación distribuida, algoritmos y estructuras de datos)
  • Minería de datos
  • Limpieza de datos y munging
  • Visualización de datos (por ejemplo, ggplot y d3.js) y técnicas de informes
  • Técnicas de datos no estructurados.
  • Idiomas R y / o SAS
  • Bases de datos SQL y lenguajes de consulta de bases de datos
  • Python (más común), C / C ++ Java, Perl

Esta lista siempre está sujeta a cambios. Como sugiere Anmol Rajpurohit, “las habilidades genéricas de programación son mucho más importantes que ser expertos en un lenguaje de programación en particular”.

Hay una variedad de cursos que se ofrecen en línea para Data Science. Sin embargo, siempre recomendaría ir con el aprendizaje inmersivo. El aprendizaje inmersivo es una gran cosa en el aprendizaje corporativo. El aprendizaje inmersivo es una última tendencia en los institutos corporativos de aprendizaje y capacitación. En pocas palabras, se trata de trabajo real, problemas reales, datos reales, escenarios reales del lugar de trabajo y experiencia real en el terreno.

En GreyAtom ponemos énfasis en el aprendizaje inmersivo que en realidad significaría:

  • Replicando posibles escenarios de trabajo
  • Aprendizaje interactivo
  • Enseñar habilidades o técnicas particulares
  • aprender = hacer trabajo real
  • Aprendizaje practico
  • Trabajando en equipo, aprendiendo del instructor
  • Menos basado en el aula
  • Más proyecto / estudio de caso basado
  • Manejo de problemas reales, datos reales, escenarios reales, flujo de trabajo real
  • Herramientas que reflejan la industria, herramientas y estructuras alineadas a la industria.
  • Imitando una situación o escenario que enfrentan la industria / empresas
  • O llevar a cabo proyectos basados ​​en escenarios de trabajo reales
  • Juego de roles y realización de una tarea como se hace en el lugar de trabajo.
  • Capacitación para la industria antes de ser contratado.
  • Buscando alternativas para la gestión tradicional de proyectos / escenarios / problemas
  • Fases cortas de trabajo, reevaluación frecuente, adaptación de planes.
  • Scrum sprints: evaluación colaborativa, agradable y rápida, entrega de productos en ciclos cortos, retroalimentación rápida, mejora continua
  • Scrum sprints: creación de lugares de trabajo alegres y sostenibles
  • Los sprints ágiles mejoran la comunicación, el trabajo en equipo y la velocidad.

En GreyAtom, con nuestro plan de estudios ágil, listo para la industria y monitoreo activo de carrera, estaremos allí en cada paso de su viaje para llegar al destino final de convertirse y trabajar como ingeniero de ciencia de datos de Full Stack. Tendrá un historial de contribuciones de código abierto y ayudará a la comunidad más amplia de ingeniería de software (a través de Github, StackOverflow, un blog o similar). Puede consultar el plan de estudios haciendo clic en este enlace Full Stack Data Science Engineering | Greyatom

Los datos realmente impulsan todo lo que hacemos. Si le apasiona la ciencia de datos y desea redefinir su carrera, visítenos en el programa en el sitio de GreyAtom: ciencia de datos, aprendizaje automático, Big Data

Creemos que “Aprender = hacer trabajo real”

Descargo de responsabilidad: soy cofundador de @GreyAtom y ayudar a las personas a encontrar carreras sostenibles en Data Science es mi pasión.

Es difícil encontrar una definición única de un científico de datos, pero siempre es posible que alguien sea autodidacta para cualquiera de ellos. Sin embargo, para algunas de las definiciones es muy poco probable.

Muchas de las personas que son científicos de datos utilizan una comprensión fundamental de las estadísticas y la programación para procesar un conjunto de datos, extraer las características más destacadas y presentar un informe de algún tipo. No es inusual ver a alguien con un título en sociología, asuntos internacionales o gobierno en estos puestos. Su educación no ofrecía habilidades específicas que uno podría pensar como un científico de datos, pero esas personas descubrieron que tener las habilidades les permitía trabajar a un nivel diferente.

Los conceptos más avanzados en ciencia de datos requieren una base más rigurosa en matemática y teoría computacional. Comprender el algoritmo y cómo implementarlo puede ser clave para el éxito en muchos casos. He visto que muchos de los científicos de datos que describí anteriormente intentan ejecutar [matemáticas] O (n ^ 2) [/ matemáticas] o algo peor y no entienden el problema. A menudo, el código son cuadros negros en los que escriben más código. Estas personas aún pueden hacer el trabajo, pero hay clases de problemas que tienen que esperar a que otros lancen el suelo primero.

A medida que el trabajo avanza hacia estos conceptos más avanzados, se hace más difícil de aprender sin una base sólida en la base de las matemáticas y la computación. Tener algunas de esas clases en tu haber hace mucho para que sea más fácil de aprender. ¿Necesitas un título? No, en absoluto, pero sin algunas de las clases podría tener una tarea hercúlea por delante.

participar en un proyecto de ciencia de datos de código abierto, como

Contenido calculado / tsvm

Lo que estamos tratando de hacer es establecer un conjunto de proyectos de investigación de código abierto, colaboración, ciencia de datos / aprendizaje automático

que corresponden al trabajo descrito en mi blog
Estos proyectos están diseñados para proyectos de investigación científica de buena fe que requieren recolectar nuestros propios datos y diseñar experimentos que prueben sistemáticamente ideas teóricas específicas.

A diferencia de Kaggle, que es aislado, competitivo y predefinido, estos proyectos están destinados a ser compartidos, colaborativos y requieren un pensamiento externo.

Cada proyecto involucra

1. comprensión matemática y avance
2. experimentos de ciencia de datos
3. desarrollando un código

Estoy muy abierto a tener colaboradores interesados ​​en hacer una nueva investigación en ciencia de datos

Puede comenzar con The Data Science Specialization (ofrecido por la universidad Johns Hopkins) en Coursera. El enlace es Coursera. Si no puede pagarlo, solo audítelo gratis. Definitivamente te ayudará.

PD: Esto es solo un comienzo. Hay un largo camino por recorrer.

Sin ningún título, será extremadamente difícil, ya que casi todos los puestos en los EE. UU. Requieren algún tipo de título (más del 90% de nosotros tenemos al menos un título de maestría). Es muy difícil aprender las matemáticas y la programación necesarias para comprender adecuadamente los algoritmos de aprendizaje automático y los métodos estadísticos con una base de escuela secundaria. Hay mucha ayuda financiera para estudiantes necesitados; Sugeriría aplicar a la universidad y comenzar desde allí.

Si busca recursos de aprendizaje, consulte los tutoriales en línea de R y los cursos de ciencia de datos – DataCamp. Aquí puede encontrar cursos interactivos gratuitos sobre ciencia de datos y R (similar a tryR por code school pero mucho más centrado):

> Curso de Introducción a R Introducción a R – DataCamp
> Curso de análisis de datos e inferencia estadística por un profesor de la Universidad de Duke Análisis de datos e inferencia estadística
> Finanzas computacionales Introducción a las finanzas computacionales y la econometría financiera – DataCamp

También asegúrese de consultar Learn Data Science – Infographic para obtener más recursos en línea que lo ayudarán a convertirse en un científico de datos.

Usted no Un título técnico que enfatiza la fortaleza en materias como álgebra lineal, estadística y optimización matemática es un requisito para> 99% de los trabajos de ciencia de datos.

Todavía puede intentar aprender estas materias por su cuenta, por supuesto, pero puede ser una mejor idea buscar un título de licenciatura como mínimo, antes de intentar hacer ciencia de datos. Las excepciones siempre están ahí, por supuesto, pero si eres uno, ¡es posible que no estés haciendo esta pregunta!

Sabes, es como preguntar ‘¿puedo ser cocinero sin tomar clases de cocina’? Por supuesto que puede. Su éxito como Data Scientist estará impulsado por su pasión por aprender, analizar y crear. Si solo quieres participar porque crees que paga más, bueno, entonces tengo malas noticias para ti.

Al mismo tiempo, en la actualidad, muchas personas desean ser científicos de datos, no tiene nada de malo, solo hace que sea muy difícil para los reclutadores encontrar a su empleado estrella. Por lo tanto, intentan buscar indicadores clave de éxito en su CV, como educación o empleos anteriores.

No necesita un título para convertirse en un científico de datos, pero para comenzar, lo primero que debe hacer es agregar Python / R / Scala a su conjunto de habilidades. Lo siguiente que debe hacer es tener un conocimiento estadístico básico que deberá seguir agregando a las horas extras como la agrupación, la regresión, etc.

Vaya a Analytics Leap (ww.a-leap. Com) y encontrará una guía para principiantes que encontrará realmente útil.

Mejor,

UNA

si esto puede ayudar

Respuesta anónima a Soy un estudiante de 12º grado (PCM). Deseo convertirme en un científico de datos. ¿Qué grado debo preparar?

Si está comenzando con la ciencia de datos, recomendaría una aplicación de recopilación de datos que es perfecta para principiantes llamada Conseris.