Boa! valeu pelos toques, vou prestar atenção nisso e dar uma "ensaiada" na resposta pra entrevistas futuras.
Mas pra esclarecer, utilizamos MongoDB, os testes de carga eram realizados percorrendo todo o caminho que um usuário faria dentro da plataforma, desde criar o login até a função real do produto (que não posso comentar aqui... kkk), mas os dados das contas dos usuarios eram inseridos "na mão" via JSONs gigantescos gerados de forma automatizada pelo CS e importados pra dentro do banco.
Dificil te dar um número fechado mas sei que eram mais de 20k de usuários e cada um deles com pelo menos 50-70 registros em cada conta e por volta de 3 ou 4 contas, um número "realista" de acordo com os POs e CS. As queries também foram bem otimizadas no momento de aplicar os filtros.
E concordo contigo, não era pra dar gargalo, a questão é que a modelagem inicial não contemplava referência extendida quando foi criada bem antes de eu entrar no projeto, oque nos levou a usar muitos lookups e populates, e ai o tempo de requisições ia pro espaço.
Por fim, o timeout era justamente como deu o exemplo, depois 30s aguardando a lambda caía, e ai baixamos pra 10s.