-
Notifications
You must be signed in to change notification settings - Fork 1
Fine Tunning
Vanessa Soares edited this page Jul 14, 2024
·
1 revision
A partir dos dados carregados do Brasil Escola é possível rodar um script de fine-tunning para uma LLM. Para isso é necessário seguir os passos abaixo:
- Acesse a pasta
finetunning/lora
pip install -r requirements.txt
- Caso sejá necessário regerar os dados de treino e teste, rode o comando
cd preprocessing && python jsons_to_csv.py
- Rode o script de finetunning: -> Para utilizar o Lora default rode:
nohup python lora-peft-v2.py <conjunto> <observação>
-> Para utilizar o script que utiliza a técnica de cross validation rode:
nohup python lora-peft-cross-validation.py <conjunto> <observação>
-> Para utilizar o script que gera uma matriz de confusão ao final do processamento, rode:
nohup python lora-peft-confusion-matrix.py <conjunto> <observação>
Parametros usados:
- Conjuntos: é qual conjunto de redações deve ser utilizado. Atualmente temos de 1 a 3
- Observação: é apenas uma observação que indique o que esta sendo feito de diferente naquele script e entrara nós logs. Observe que a mensagem deve ser separada por _ e nao por espaços (Exemplo: esta_e_uma_mensagem)
Ao final da execução, se tudo correr bem, uma pasta com arquivos de log deve ser criada em /results.