Загрузка DeepSeek R1 для Linux

Это Linux-приложение DeepSeek R1, последнюю версию которого можно скачать в архиве v1.0.0sourcecode.zip. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.

 
 

Бесплатно скачайте и запустите онлайн это приложение под названием DeepSeek R1 с OnWorks.

Следуйте этим инструкциям, чтобы запустить это приложение:

- 1. Загрузил это приложение на свой компьютер.

- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 3. Загрузите это приложение в такой файловый менеджер.

- 4. Запустите онлайн-эмулятор OnWorks Linux или Windows или онлайн-эмулятор MACOS с этого веб-сайта.

- 5. В только что запущенной ОС OnWorks Linux перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 6. Скачайте приложение, установите его и запустите.

СКРИНШОТЫ:


DeepSeek R1


ОПИСАНИЕ:

DeepSeek-R1 — это большая языковая модель с открытым исходным кодом, разработанная DeepSeek, предназначенная для превосходного решения сложных задач рассуждения в таких областях, как математика, кодирование и язык. DeepSeek R1 предлагает неограниченный доступ как для коммерческого, так и для академического использования. Модель использует архитектуру «смесь экспертов» (MoE), включающую 671 миллиард общих параметров с 37 миллиардами активных параметров на токен, и поддерживает длину контекста до 128,000 1 токенов. Режим обучения DeepSeek-R1 уникальным образом интегрирует крупномасштабное обучение с подкреплением (RL) без необходимости контролируемой тонкой настройки, что позволяет модели развивать продвинутые возможности рассуждения. Этот подход привел к производительности, сравнимой с ведущими моделями, такими как oXNUMX от OpenAI, при сохранении экономической эффективности. Для дальнейшей поддержки исследовательского сообщества DeepSeek выпустила дистиллированные версии модели, основанные на таких архитектурах, как LLaMA и Qwen.



Особенности

  • Архитектура «Смешанные эксперты» (MoE) — включает 671 миллиард общих параметров, из которых 37 миллиардов активных параметров на токен, что оптимизирует эффективность и производительность.
  • Длина контекста 128 КБ — поддерживает расширенное контекстное окно до 128,000 XNUMX токенов, что позволяет лучше понимать длинный контент.
  • Обучение с подкреплением — использует масштабное обучение с подкреплением (RL) вместо контролируемой тонкой настройки, улучшая способности к рассуждению.
  • Высокая производительность — достигает результатов, сопоставимых с ведущими моделями, такими как GPT-4-turbo от OpenAI, при этом являясь более экономичным.
  • Открытый исходный код и коммерческое использование — выпущено по лицензии MIT, обеспечивающей неограниченный доступ как для академических, так и для корпоративных приложений.
  • Мультимодальные возможности и возможности кодирования — преуспевает в математике, кодировании и логическом мышлении, что делает его пригодным для различных задач ИИ.
  • Доступны оптимизированные версии — включают оптимизированные версии на основе таких архитектур, как LLaMA и Qwen, обеспечивающие высокую эффективность.
  • Облачное и локальное развертывание — доступно через Azure AI Foundry и GitHub, что обеспечивает бесперебойную интеграцию в различные платформы.


Язык программирования

Питон


Категории

Большие языковые модели (LLM), фреймворки обучения с подкреплением, модели ИИ

Это приложение также можно скачать по адресу https://sourceforge.net/projects/deepseek-r1.mirror/. Оно размещено на OnWorks для максимально удобного запуска онлайн через одну из наших бесплатных операционных систем.



Новейшие онлайн-программы для Linux и Windows


Категории для загрузки Программное обеспечение и программы для Windows и Linux