Meus 2 cents:
-
Certas areas sao juridicamente sensiveis - a saude eh uma delas. As vezes eh so uma questao de trocar termos e abordagem para evitar possiveis problemas posteriores. Pondere sobre isso.
-
Sobre a apresentacao da aplicacao em si (sem entrar no merito do que a aplicacao faz) - gostei bastante: voce falou sobre o que eh a aplicacao, mostrou a tecnologia e ate compartilhou os repositorios: seria maravilhoso se mais desenvolvedores quando foseem fazer seus pitchs ou apenas comentar sobre projetos fizessem assim.
-
Sobre o metodo: dei uma olhada no codigo e vi que voce neste momento analisa o input e entao procura respostas pre-programadas. Nao eh um metodo ruim, mas como voce mesmo comentou, pode ser aperfeicoado.
3.1 Uma ideia para usar IA/LLM sem complicar/reescrever tudo eh bem simples: nos locais de tratamento do input e geracao de saida, substituir por chamadas de API de uma IA, usando o metodo RAG (alimentando o contexto com as respostas que voce ja tem).
3.2 Como fazer isso (plataformas open-source prontas, so alimentar os dados e chamar via API local)
- TaskingAI: https://github.com/TaskingAI/TaskingAI
- WebUI - https://github.com/open-webui/open-webui
- AnythingLLM - https://anythingllm.com/
3.3 Um artigo legal sobre o assunto
https://medium.com/@mbrazel/open-source-self-hosted-rag-llm-server-with-chromadb-docker-ollama-7e6c6913da7a
Novamente - acho prudente analisar com cuidado app voltados a saude mental, especialmente apos o episodio de suicidio ligado a IA.
Em juizo (no tribunal) voce teria de provar por A+B que tua aplicacao NAO causou mal - e a questao nem eh provar isso (um bom advogado consegue fazer isso + onus da prova), mas os custos envolvidos - uma boa intencao pode pavimentar a estrada da falencia rapidinho.