Uma aplicação local que permite buscar informações em linguagem natural dentro de arquivos do seu computador, funcionando como um "Copilot pessoal" para seus arquivos.
A InsightFinder oferece uma interface web intuitiva e moderna para realizar buscas inteligentes em seus arquivos locais. Veja como ela funciona:
A interface inicial permite inserir o termo de busca, selecionar a pasta e escolher os tipos de arquivo a serem pesquisados.
Após iniciar a busca, a aplicação mostra os resultados em tempo real, com a IA (Llama2) analisando cada arquivo e indicando sua relevância para o termo pesquisado.
Conforme a busca progride, mais arquivos são analisados e exibidos, permitindo uma visão completa dos documentos relevantes encontrados em seu sistema.
A interface foi projetada para ser simples e eficiente, com:
- Campo de busca em linguagem natural
- Seleção de pasta personalizada
- Filtros por tipo de arquivo
- Resultados em tempo real
- Indicadores visuais de relevância
- Botão para abrir arquivos diretamente
- Justificativas detalhadas da IA para cada resultado
- Busca em linguagem natural
- Suporte a múltiplos formatos de arquivo (TXT, PDF)
- PPTX, XLSX, JPG, PNG em breve
- Processamento local com IA via Ollama
- Interface web amigável
- Privacidade total (tudo roda localmente)
- Python 3.8+
- Node.js 16+ (para o frontend)
- Ollama instalado e rodando localmente
- Tesseract OCR instalado (para processamento de imagens)
- Clone o repositório:
git clone https://github.com/seu-usuario/local_assistant.git
cd local_assistant- Crie e ative um ambiente virtual:
python -m venv venv
venv\Scripts\activate- Instale as dependências do backend dentro do ambiente virutal:
cd backend
pip install -r requirements.txt- Instale as dependências do frontend em outro terminal:
cd frontend
npm install- Baixe e instale o Ollama.
- Após instalar, rode em outro terminal:
ollama run llama2- Para usar outro modelo, como
phi,mistral, oullava, execute:
ollama run nome-do-modelo- Para trocar o modelo padrão no código, edite o arquivo:
backend/main.pyE altere a linha:
OLLAMA_MODEL = "llama2"- Ative o ambiente virtual (caso ainda não esteja ativo):
venv\Scripts\activate- Inicie o backend com FastAPI no ambiente virtual:
cd backend
uvicorn main:app --reload- Em outro terminal, inicie o frontend:
cd frontend
npm run start- Em outro terminal, inicie o servidor llama2:
ollama serve- Acesse a aplicação em
http://localhost:3000, o node deve abrir automaticamente no navegador
insight-finder/
├── backend/
│ ├── main.py
│ ├── requirements.txt
├── frontend/
│ ├── src/
│ ├── public/
│ └── package.json
├── images/
└── README.md
O projeto tenta automaticamente definir a pasta padrão de busca como a pasta de Downloads do sistema (Windows). O campo pode ser editado manualmente na interface.
- Todo o processamento é feito localmente
- Nenhum dado é enviado para a internet
- Os arquivos são indexados apenas nas pastas autorizadas
Este projeto está sob a licença MIT. Veja o arquivo LICENSE para mais detalhes.