This is the Windows app named CodeLlama whose latest release can be downloaded as codellamasourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Laden Sie diese App namens CodeLlama mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
CodeLama
BESCHREIBUNG
Code Llama ist eine Familie von Llama-basierten Codemodellen, die für Programmieraufgaben wie Codegenerierung, -vervollständigung und -reparatur optimiert sind. Es gibt Varianten, die auf Basiscodierung, Python und Anweisungsverfolgung spezialisiert sind. Das Repo dokumentiert die Größen und Fähigkeiten (z. B. 7B, 13B, 34B) und hebt Funktionen wie Infilling und großen Eingabekontext hervor, um echte IDE-Workflows zu unterstützen. Es zielt sowohl auf allgemeine Softwaresynthese als auch auf sprachspezifische Produktivität ab und bietet zum Releasezeitpunkt eine starke Leistung unter offenen Modellen. Typische Anwendungen umfassen promptgesteuerte Generierung, Funktions- oder Klassenvervollständigung und Zero-Shot-Einhaltung von natürlichsprachlichen Anweisungen zu Codeänderungen. Das Ökosystem bietet mehrere Distributionen (z. B. im HF-Format), sodass Entwickler in Standard-Toolchains und Serving-Stacks integrieren können. Als Teil der umfassenderen Llama-Initiative ergänzt Code Llama anweisungenoptimierte Chat-Modelle durch die Konzentration auf codezentrierte Aufgaben und Editor-Integrationen.
Eigenschaften
- Mehrere Modellgrößen für unterschiedliche Latenz-/Qualitätsanforderungen
- Spezialisierungen für Basiscodierung, Python und Anweisungsbefolgung
- Auffüllen für Vervollständigungen in der Mitte der Datei
- Starke Zero-Shot- und Prompt-bedingte Codesynthese
- Unterstützung für lange Kontextfenster in Codierungs-Workflows
- Mit gängigen Serving-Toolchains kompatible Distributionen
Programmiersprache
Python
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/codellama.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.