Це програма для Windows під назвою ChatLLM.cpp, останню версію якої можна завантажити як chatllm_win_x64.7z. Її можна запускати онлайн на безкоштовному хостинг-провайдері OnWorks для робочих станцій.
Завантажте та запустіть онлайн цю програму під назвою ChatLLM.cpp разом з OnWorks безкоштовно.
Дотримуйтесь цих інструкцій, щоб запустити цю програму:
- 1. Завантажив цю програму на свій ПК.
- 2. Введіть у наш файловий менеджер https://www.onworks.net/myfiles.php?username=XXXXX із потрібним ім'ям користувача.
- 3. Завантажте цю програму в такий файловий менеджер.
- 4. Запустіть будь-який онлайн емулятор ОС OnWorks з цього веб-сайту, але кращий онлайн-емулятор Windows.
- 5. З ОС OnWorks Windows, яку ви щойно запустили, перейдіть до нашого файлового менеджера https://www.onworks.net/myfiles.php?username=XXXXX з потрібним іменем користувача.
- 6. Завантажте програму та встановіть її.
- 7. Завантажте Wine зі сховищ програмного забезпечення дистрибутивів Linux. Після встановлення ви можете двічі клацнути програму, щоб запустити їх за допомогою Wine. Ви також можете спробувати PlayOnLinux, модний інтерфейс замість Wine, який допоможе вам встановити популярні програми та ігри Windows.
Wine — це спосіб запуску програмного забезпечення Windows на Linux, але без використання Windows. Wine — це рівень сумісності Windows з відкритим вихідним кодом, який може запускати програми Windows безпосередньо на будь-якому робочому столі Linux. По суті, Wine намагається повторно реалізувати достатньо Windows з нуля, щоб він міг запускати всі ці програми Windows, насправді не потребуючи Windows.
ЕКРАНИ
Ad
ChatLLM.cpp
ОПИС
chatllm.cpp — це чиста реалізація на C++, розроблена для спілкування в реальному часі з великими мовними моделями (LLM) на персональних комп'ютерах, що підтримує виконання як на центральному, так і на графічному процесорі. Вона дозволяє користувачам запускати різні LLM з кількістю параметрів від менш ніж 1 мільярда до понад 300 мільярдів, забезпечуючи швидкий та ефективний розмовний досвід зі штучним інтелектом без залежності від зовнішніх серверів.
Функції
- Чиста реалізація на C++ для виведення LLM
- Підтримує моделі з параметрами від <1B до >300B
- Можливості чату в режимі реального часу
- Сумісний з виконаннями на процесорах та графічних процесорах
- Відсутність залежності від зовнішніх серверів
- Сприяє адаптивному розмовному штучному інтелекту
- Відкритий код та настроюваний
- Інтегрується з різними архітектурами LLM
- Активна підтримка громади
Мова програмування
C + +
Категорії
Цю програму також можна завантажити з https://sourceforge.net/projects/chatllm-cpp.mirror/. Вона розміщена на OnWorks для найпростішого запуску онлайн з однієї з наших безкоштовних операційних систем.