Это приложение Linux под названием ChatLLM.cpp, последний релиз которого можно загрузить как chatllm_win_x64.7z. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.
Загрузите и запустите онлайн это приложение под названием ChatLLM.cpp с помощью OnWorks бесплатно.
Следуйте этим инструкциям, чтобы запустить это приложение:
- 1. Загрузил это приложение на свой компьютер.
- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 3. Загрузите это приложение в такой файловый менеджер.
- 4. Запустите онлайн-эмулятор OnWorks Linux или Windows или онлайн-эмулятор MACOS с этого веб-сайта.
- 5. В только что запущенной ОС OnWorks Linux перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 6. Скачайте приложение, установите его и запустите.
СКРИНШОТЫ:
ChatLLM.cpp
ОПИСАНИЕ:
chatllm.cpp — это реализация на чистом C++, разработанная для чата в реальном времени с использованием больших языковых моделей (LLM) на персональных компьютерах, поддерживающая как CPU, так и GPU-выполнения. Она позволяет пользователям запускать различные LLM с параметрами от менее 1 миллиарда до более 300 миллиардов, что обеспечивает отзывчивый и эффективный опыт общения с помощью ИИ без использования внешних серверов.
Особенности
- Реализация на чистом C++ для вывода LLM
- Supports models from 1B to >300B parameters
- Возможности чата в реальном времени
- Совместимо с исполнениями на CPU и GPU
- Нет зависимости от внешних серверов
- Обеспечивает отзывчивый разговорный ИИ
- Открытый исходный код и возможность настройки
- Интегрируется с различными архитектурами LLM
- Активная поддержка сообщества
Язык программирования
C + +
Категории
Это приложение, которое также можно загрузить с https://sourceforge.net/projects/chatllm-cpp.mirror/. Оно размещено в OnWorks для того, чтобы его можно было запустить онлайн самым простым способом из одной из наших бесплатных операционных систем.