これはFairlearnというLinuxアプリで、最新リリースはv0.13.0sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーOnWorksでオンラインで実行できます。
OnWorks で Fairlearn というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
フェアラーン
DESCRIPTION
Fairlearn は、人工知能 (AI) システムの開発者がシステムの公平性を評価し、観察された不公平な問題を軽減できるようにする Python パッケージです。Fairlearn には、モデル評価用のメトリクスだけでなく、緩和アルゴリズムも含まれています。このリポジトリには、ソースコードに加えて、Fairlearn の使用例を含む Jupyter ノートブックも含まれています。AI システムは、さまざまな理由で不公平に動作する可能性があります。Fairlearn では、人々への影響、つまり危害の観点から、AI システムが不公平に動作しているかどうかを定義します。AI システムの公平性とは、単にコード行を実行することではありません。各ユースケースでは、社会的側面と技術的側面の両方が、AI システムによって誰がどのように被害を受ける可能性があるかを決定します。不公平の複雑な原因は数多くあり、緩和にはさまざまな社会的および技術的プロセスがあり、ライブラリ内の緩和アルゴリズムだけではありません。
オプション
- サービス品質への悪影響
 - ドキュメントが利用可能
 - 利用可能な例
 - 配分の害
 - モデルによって悪影響を受けるグループを評価するための指標
 - 不公平を軽減するためのアルゴリズム
 
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/fairlearn.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。
