Este é o aplicativo Linux chamado BenchmarkTools.jl, cuja versão mais recente pode ser baixada como v1.6.3sourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online gratuitamente o aplicativo BenchmarkTools.jl com o OnWorks.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
CAPTURAS DE TELA:
BenchmarkTools.jl
DESCRIÇÃO:
O BenchmarkTools facilita o monitoramento do desempenho do código Julia, fornecendo uma estrutura para escrever e executar grupos de benchmarks, bem como comparar os resultados. Este pacote é usado para escrever e executar os benchmarks encontrados em BaseBenchmarks.jl. A infraestrutura de CI para testes automatizados de desempenho da linguagem Julia não está neste pacote, mas pode ser encontrada em Nanosoldier.jl. Nossa história começa com dois pacotes: "Benchmarks" e "BenchmarkTrackers". O pacote Benchmarks implementou uma estratégia de execução para coletar e resumir resultados de benchmarks individuais, enquanto o BenchmarkTrackers implementou uma estrutura para organizar, executar e determinar regressões em grupos de benchmarks. Internamente, o BenchmarkTrackers dependia do Benchmarks para a execução dos benchmarks.
Recursos
- BenchmarkTools é um pacote da linguagem Julia.
- Documentação disponível
- O ruído de amostra individual pode alterar significativamente a estratégia de execução usada para coletar amostras adicionais.
- As estimativas utilizadas para caracterizar os resultados de referência e detectar regressões foram estatisticamente vulneráveis ao ruído.
- Diferentes benchmarks têm diferentes tolerâncias a ruído, mas não havia como ajustar esse parâmetro para cada benchmark individualmente.
- A execução dos testes de desempenho demorou muito tempo — uma ordem de magnitude maior do que o teoricamente necessário para muitas funções.
- Utilizar o sistema no REPL (por exemplo, para reproduzir regressões localmente) era frequentemente complicado.
Linguagem de Programação
Julia
Categorias
Este aplicativo também pode ser obtido em https://sourceforge.net/projects/benchmarktools-jl.mirror/. Ele foi hospedado no OnWorks para facilitar sua execução online a partir de um de nossos sistemas operacionais gratuitos.