Minha pergunta é:
Com o adiventos das IA e seus crawlers os sites estão mais chatos com relação a scraps!
Com uso grande da ferramenta da Cloudflare que detecta muito bom robos em ação!
E com mais difusão de outros sistemas de antibot(com captchas ou detecção de outras formas) além do uso de IPS(um mesmo IP acessando muitas páginas pode ser bloqueado)
Como seu sistema supera esses problemas?