これは「Gemini Fullstack LangGraph Quickstart」というLinuxアプリです。最新リリースはgemini-fullstack-langgraph-quickstartsourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
Gemini Fullstack LangGraph Quickstart with OnWorks というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショット:
Gemini フルスタック LangGraph クイックスタート
説明:
gemini-fullstack-langgraph-quickstart は、Google DeepMind の Gemini チームによるフルスタック リファレンス アプリケーションです。LangGraph と Google Gemini モデルを使用して、研究強化型の会話型 AI システムを構築する方法を示します。このプロジェクトは、React (Vite) フロントエンドと LangGraph/FastAPI バックエンドを備えており、リアルタイムの研究および推論タスクのためにシームレスに連携するように設計されています。バックエンド エージェントは、ユーザー入力に基づいて検索クエリを動的に生成し、Google Search API を介して情報を取得し、リフレクティブ リザベーションを実行して知識のギャップを特定します。その後、Gemini モデルによって合成された包括的で引用数の多い回答が生成されるまで、検索を反復的に絞り込みます。リポジトリには、ブラウザベースのチャット インターフェースと、研究クエリを直接実行するためのコマンドライン スクリプト (cli_research.py) の両方が用意されています。本番環境では、バックエンドは Redis および PostgreSQL と統合され、永続メモリ、ストリーミング出力、バックグラウンド タスクの調整を管理します。
オプション
- React フロントエンドと LangGraph バックエンドを使用したフルスタック AI アプリ
- 動的クエリ生成機能を備えたGeminiベースのリサーチエージェント
- リアルタイムのウェブ検索を可能にする統合 Google Search API
- 知識のギャップを特定し埋めるための反射的推論ループ
- 収集した情報源からの引用を含む最終的な回答を生成します
- Redis と PostgreSQL のサポートを備えた Docker ベースの本番環境への展開に対応
プログラミング言語
Python、TypeScript
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/gemini-fullst-langgraph.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。