Todo o desenvolvimento será realizado no Databricks, onde as pessoas assinantes do canal terão acesso a este Datalake para realizar seus próprios experimentos.
É desse databricks que você está falando? O que ele oferece em comparação a distribuir os dados num arquivo .json, ou num notebook do kaggle, por exemplo?
Quem não for assinante do canal vai conseguir acompanhar sem acesso a essa datalake?
Pergunto pois vejo muitos termos (datalake, feature store, analytical base table) que eu não tenho familiaridade, mesmo já tendo trabalho com algumas aplicações de ML.
Parabéns pela iniciativa e parceria com o instituto asw.