Machine learning é muito legal e já tem tudo pronto e implementado no scitkit-learn
, no entanto, acho muito válido você entender alguns conceitos que geralmente são ignorados por alguns cursos como por exemplo: o que significa um aprendizado para a máquina, como que ela aprende, o que é feito por debaixo do panos? Claro que não precisa se aprofundar muito mas acho interessante ter esse tipo de conhecimento para que você não seja apenas mais um expert em usar bibliotecas.
Portanto, minhas recomendações de estudo são essas:
- Perceptron
- O perceptron é o algoritmo mais básico de aprendizagem e ele aprende através de separação por retas, ou seja, a função hipotése que ele retorna é que a obteve o menor erro na instância de treino e consequentemente é a que mais se aproxima da função solução, mas para que ele funcione os dados precisam ser linearmente separáveis.
- Regressão Linear
- Muito similar ao perceptron, sendo que ele utiliza a fórmula do erro quadrático médio e dessa forma ele consegue descobrir a reta onde o erro para cada ponto será o menor possível.
- Regressão Logística
- Muito similar à regressão linear e ao perceptron, com a diferença que ela classifica os itens no intervalo contínuo de 0 a 1, enquanto o perceptron utiliza a função sinal (pode ser usada a função escada também), por conta disso ela precisa de uma função de ativação chamada Sigmoid ou Função Sigmoid.
- SVM (Supporting Vector Machine)
- O SVM é muito interessante, pois ele utiliza um conceito de vetores de suporte e com base nesses vetores de suporte ele consegue identificar a reta que melhor divide os pontos. Ele acaba sendo mais rápido que os outros, pois ele utiliza apenas alguns pontos da instância que são os que ele classificou como suporte.
- Redes Neurais
- Aqui nesse tópico é onde você vai entender sobre LSTM (Long Short Term Memory), RNN (Recurrent Neural Network), MLP (Multi Layer Perceptron), conceito de camadas, dropout...
Tentei explicar alguns conceitos de maneira resumida, mas recomendo pesquisar pra entender melhor o que eu quis falar, acredito que tenha ficado um pouco confuso com alguns termos que eu utilizei, mas isso é de propósito para atiçar a curiosidade e te incetivar a pesquisar mais.
Um curso que eu não terminei ainda, mas um amigo que fez recomendou é esse Manual Prático do Deep Learning. Nesse curso ele fala sobre como funciona o perceptron, sobre a função sigmoid, entre outros conceitos e já entra em aprendizado profundo, portanto acho um curso muito interessante.