# Avaliação - MME-Perception ## Estrutura do Diretório ``` main ├── MME_Benchmark │ ├── artwork │ │ ├── images │ │ │ ├── 1.jpg │ │ │ ├── 2.jpg │ │ │ ├── ... │ │ ├── question_answers_YN │ │ │ ├── 1.txt │ │ │ ├── 2.txt │ │ │ ├── ... │ ├── celebrity │ ├── code_reasoning │ ├── ... ├── calculation.py ├── translate_MME ``` ## Estrutura dos Arquivos TXT Cada arquivo `num.txt` contém as perguntas correspondentes à imagem `num.jpg`. Formato do arquivo: ``` pergunta\tresposta(sim ou não)\t ``` (Pode conter múltiplas perguntas para a mesma imagem.) ## Processo de Inferência 1. Iterar sobre as imagens e seus respectivos arquivos `.txt`. 2. Acumular, ao longo do processo, um único arquivo `.txt`, para cada task, os seguintes dados: ``` resposta_esperada{separador}resposta_do_modelo ``` - O `{separador}` é originalmente `\t`, mas pode ser alterado na linha 113 do `calculation.py`. 3. Ao final, juntar todos os arquivos `.txt` resultantes em uma mesma pasta. ## Processo de Avaliação 1. Executar o script `calculation.py`, passando como argumento a pasta onde foram salvos os arquivos `.txt` de cada tarefa: ```bash python calculation.py --results_dir path/para/pasta ``` 2. O script exibirá os scores totais e os scores individuais para cada tarefa. 3. Para salvar os resultados, é necessário modificar o código. 4. O script pega os primeiros caracteres para verificar se a resposta do modelo foi sim ou não para a pergunta, então isso deve ser atentado.