Amazon Best VPN GoSearch

OnWorks-Favicon

X-Transformers-Download für Linux

Kostenloser Download der x-transformers Linux-App zur Online-Ausführung in Ubuntu online, Fedora online oder Debian online

Dies ist die Linux-App namens x-transformers, deren neueste Version als 2.7.6sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.

Laden Sie diese App namens x-transformers mit OnWorks kostenlos herunter und führen Sie sie online aus.

Befolgen Sie diese Anweisungen, um diese App auszuführen:

- 1. Diese Anwendung auf Ihren PC heruntergeladen.

- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.

- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.

- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.

- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.

- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.

SCREENSHOTS

Ad


x-Transformatoren


BESCHREIBUNG

Ein einfacher, aber vollständiger Transformator mit voller Aufmerksamkeit und einer Reihe vielversprechender experimenteller Funktionen aus verschiedenen Artikeln. Schlägt vor, erlernte Speicherschlüssel/-werte vor der Teilnahme hinzuzufügen. Sie konnten Feedforwards vollständig eliminieren und eine ähnliche Leistung wie die ursprünglichen Transformatoren erreichen. Ich habe festgestellt, dass das Beibehalten der Feedforwards und das Hinzufügen der Speicherschlüssel/-werte zu einer noch besseren Leistung führt. Schlägt vor, erlernte Token hinzuzufügen, ähnlich wie CLS-Token, benannte Speichertoken, die neben den Eingabetoken durch die Aufmerksamkeitsschichten geleitet werden. Sie können auch die normalisierten l2-Einbettungen verwenden, die als Teil von fixnorm vorgeschlagen werden. Ich habe festgestellt, dass es zu einer verbesserten Konvergenz führt, wenn es mit einer kleinen Initialisierung (vorgeschlagen von BlinkDL) gepaart wird. Die kleine Initialisierung wird übernommen, solange l2norm_embed auf True gesetzt ist.



Eigenschaften

  • Nur Decoder (GPT-ähnlich)
  • Nur Encoder (BERT-ähnlich)
  • Hochmoderne Bildklassifizierung
  • Steigerung der Selbstaufmerksamkeit mit persistentem Gedächtnis
  • Transformatoren ohne Tränen
  • Root-Mean-Square-Layer-Normalisierung


Programmiersprache

Python


Kategorien

Maschinelles lernen

Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/x-transformers.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.


Kostenlose Server & Workstations

Laden Sie Windows- und Linux-Apps herunter

Linux-Befehle

Ad




×
Werbung
❤ ️Hier einkaufen, buchen oder kaufen – kostenlos, damit die Dienste kostenlos bleiben.