This is the Windows app named ChatLLM.cpp whose latest release can be downloaded as chatllm_win_x64.7z. It can be run online in the free hosting provider OnWorks for workstations.
Загрузите и запустите онлайн это приложение под названием ChatLLM.cpp с помощью OnWorks бесплатно.
Следуйте этим инструкциям, чтобы запустить это приложение:
- 1. Загрузил это приложение на свой компьютер.
- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 3. Загрузите это приложение в такой файловый менеджер.
- 4. Запустите любой онлайн-эмулятор OS OnWorks с этого сайта, но лучше онлайн-эмулятор Windows.
- 5. В только что запущенной ОС Windows OnWorks перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 6. Скачайте приложение и установите его.
- 7. Загрузите Wine из репозиториев программного обеспечения вашего дистрибутива Linux. После установки вы можете дважды щелкнуть приложение, чтобы запустить его с помощью Wine. Вы также можете попробовать PlayOnLinux, необычный интерфейс поверх Wine, который поможет вам установить популярные программы и игры для Windows.
Wine - это способ запустить программное обеспечение Windows в Linux, но без Windows. Wine - это уровень совместимости с Windows с открытым исходным кодом, который может запускать программы Windows непосредственно на любом рабочем столе Linux. По сути, Wine пытается заново реализовать Windows с нуля, чтобы можно было запускать все эти Windows-приложения, фактически не нуждаясь в Windows.
СКРИНШОТЫ
Ad
ChatLLM.cpp
ОПИСАНИЕ
chatllm.cpp — это реализация на чистом C++, разработанная для чата в реальном времени с использованием больших языковых моделей (LLM) на персональных компьютерах, поддерживающая как CPU, так и GPU-выполнения. Она позволяет пользователям запускать различные LLM с параметрами от менее 1 миллиарда до более 300 миллиардов, что обеспечивает отзывчивый и эффективный опыт общения с помощью ИИ без использования внешних серверов.
Особенности
- Реализация на чистом C++ для вывода LLM
- Поддерживает модели с параметрами от <1B до >300B
- Возможности чата в реальном времени
- Совместимо с исполнениями на CPU и GPU
- Нет зависимости от внешних серверов
- Обеспечивает отзывчивый разговорный ИИ
- Открытый исходный код и возможность настройки
- Интегрируется с различными архитектурами LLM
- Активная поддержка сообщества
Язык программирования
C + +
Категории
Это приложение, которое также можно загрузить с https://sourceforge.net/projects/chatllm-cpp.mirror/. Оно размещено в OnWorks для того, чтобы его можно было запустить онлайн самым простым способом из одной из наших бесплатных операционных систем.