Mas mataas na pag-download para sa Linux

Ito ang Linux app na pinangalanang Higher na ang pinakabagong release ay maaaring ma-download bilang higherv0.2.1sourcecode.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.

 
 

I-download at patakbuhin online ang app na ito na pinangalanang Higher with OnWorks nang libre.

Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:

- 1. Na-download ang application na ito sa iyong PC.

- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.

- 3. I-upload ang application na ito sa naturang filemanager.

- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.

- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.

- 6. I-download ang application, i-install ito at patakbuhin ito.

MGA SCREENSHOT:


Mas mataas


DESCRIPTION:

ang higher ay isang dalubhasang library na idinisenyo upang palawigin ang mga kakayahan ng PyTorch sa pamamagitan ng pagpapagana ng mas mataas na pagkakasunud-sunod na pagkita ng kaibhan at meta-learning sa pamamagitan ng differentiable optimization loops. Nagbibigay-daan ito sa mga developer at mananaliksik na mag-compute ng mga gradient sa pamamagitan ng buong proseso ng pag-optimize, na mahalaga para sa mga gawain tulad ng meta-learning, hyperparameter optimization, at model adaptation. Ang library ay nagpapakilala ng mga utility na nagko-convert ng karaniwang torch.nn.Module na mga instance sa "stateless" na mga functional na form, kaya ang mga update ng parameter ay maaaring ituring bilang differentiable operations. Nagbibigay din ito ng mga differentiable na pagpapatupad ng mga karaniwang optimizer tulad ng SGD at Adam, na ginagawang posible na mag-backpropagate sa pamamagitan ng arbitrary na bilang ng mga inner-loop na hakbang sa pag-optimize. Sa pamamagitan ng pag-aalok ng malinaw at flexible na interface, pinapasimple ng mas mataas ang pagbuo ng mga kumplikadong algorithm sa pag-aaral na nangangailangan ng pagsubaybay sa gradient sa maraming antas ng pag-update. Tinitiyak ng disenyo nito ang pagiging tugma sa mga kasalukuyang modelo ng PyTorch.



Mga tampok

  • Ine-enable ang differentiable inner-loop optimization at gradient tracking sa pamamagitan ng mga update
  • Kino-convert ang mga modelo ng torch.nn.Module sa functional, stateless na mga form para sa meta-learning
  • Nagbibigay ng mga differentiable na bersyon ng mga karaniwang optimizer gaya ng Adam at SGD
  • Nagbibigay-daan sa na-unroll na pag-optimize para sa mas mataas na pagkakasunud-sunod na gradient computation
  • Madaling isinasama sa mga kasalukuyang PyTorch workflow na may kaunting pagbabago
  • Sinusuportahan ang mga custom na differentiable optimizer sa pamamagitan ng pagpaparehistro at subclassing


Wika ng Programming

Sawa


Kategorya

Mga Aklatan

Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/higher.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.



Pinakabagong Linux at Windows online na mga programa


Mga kategorya upang i-download ang Software at Mga Programa para sa Windows at Linux