Esta es la aplicación para Linux llamada ForwardDiff.jl, cuya última versión se puede descargar como v0.10.39sourcecode.tar.gz. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada ForwardDiff.jl con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
ForwardDiff.jl
DESCRIPCIÓN
ForwardDiff implementa métodos para obtener derivadas, gradientes, jacobianos, hessianos y derivadas de orden superior de funciones de Julia nativas (o cualquier objeto invocable) mediante diferenciación automática en modo directo (DA). Si bien el rendimiento puede variar según las funciones que se evalúen, los algoritmos implementados por ForwardDiff generalmente superan a los algoritmos no DA (como la diferenciación finita) tanto en velocidad como en precisión. Funciones como f, que asignan un vector a un escalar, son el mejor ejemplo de diferenciación automática en modo inverso, pero ForwardDiff puede ser una buena opción si x no es demasiado grande, ya que es mucho más simple. El mejor ejemplo de diferenciación en modo directo es una función que asigna un escalar a un vector.
Caracteristicas
- Diferenciación automática en modo directo para Julia
- Diferenciación automática en modo de avance (AD)
- Si bien el rendimiento puede variar según las funciones que evalúes
- Los algoritmos implementados por ForwardDiff generalmente superan a los algoritmos que no son AD
- Funciones como f, que asignan un vector a un escalar, son el mejor caso para la diferenciación automática en modo inverso.
- ForwardDiff aún puede ser una buena opción si x no es demasiado grande, ya que es mucho más simple.
Lenguaje de programación
Julia
Categorías
Esta aplicación también se puede obtener de https://sourceforge.net/projects/forwarddiff-jl.mirror/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.