Il s'agit de l'application Linux XGBoost, dont la dernière version est téléchargeable sous le nom xgboost-src-3.0.5.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée XGBoost avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
Le modèle XGBoost, intégrant XNUMX caractéristiques radiomiques et quatre variables cliniques (site de la tumeur primaire [cavité buccale], TNM, âge et tabagisme), s’est avéré être le meilleur modèle de prédiction pour la progression à XNUMX ans. Ce dernier a permis d’obtenir une AUC de XNUMX, une sensibilité de XNUMX, une spécificité de XNUMX et une précision de XNUMX. Nos efforts se concentrent désormais sur l’augmentation de la taille de l’échantillon afin de valider ce modèle et d’évaluer les résultats de la survie sans progression, dans le but de fournir aux cliniciens un score de risque pour une catégorisation plus précise des patients sur la base des TDM de diagnostic.
DESCRIPTION
XGBoost est une bibliothèque optimisée d'amplification de gradient distribué, conçue pour être évolutive, flexible, portable et très efficace. Il prend en charge la régression, la classification, le classement et les objectifs définis par l'utilisateur, et fonctionne sur tous les principaux systèmes d'exploitation et plates-formes cloud.
XGBoost fonctionne en implémentant des algorithmes d'apprentissage automatique sous le framework Gradient Boosting. Il propose également un boosting d'arbres parallèles (GBDT, GBRT ou GBM) qui peut résoudre rapidement et avec précision de nombreux problèmes de science des données. XGBoost peut être utilisé pour Python, Java, Scala, R, C++ et plus encore. Il peut fonctionner sur une seule machine, Hadoop, Spark, Dask, Flink et la plupart des autres environnements distribués, et est capable de résoudre des problèmes au-delà de milliards d'exemples.
Caractéristiques
- Flexible - avec prise en charge de la régression, de la classification, du classement et des objectifs définis par l'utilisateur
- Portable - multiplateforme, y compris les plateformes cloud
- Prend en charge plusieurs langages de programmation
- Surmonte de nombreux défis liés à la science des données et à l'apprentissage automatique
- Prend en charge la formation distribuée sur plusieurs machines
- S'intègre avec Flink, Spark et d'autres systèmes de flux de données cloud
- Système backend bien optimisé
Langage de programmation
C + +
Catégories
Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/xgboost.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.