生成 AI アプリケーションを開発する場合は、GitHub Models を使用して、AI モデルを無料で検索して実験できます。 アプリケーションを運用環境に移行する準備ができたら、有料の Azure アカウントからトークンに切り替えることができます。 Azure AI のドキュメントを参照してください。
「GitHub モデルの責任ある使用」も参照してください。
AI モデルの検索
AI モデルを検索するには、GitHub Marketplace に移動し、サイドバーの [モデル] をクリックします。
モデルの詳細を表示するには、モデル名をクリックします。
Note
OpenAI の o1
モデルは現在 パブリック プレビュー にあり、変更される可能性があります。
プレイグラウンドでの AI モデルの実験
Note
このプレイグラウンドは パブリック プレビュー にあり、変更される可能性があります。 アクセスを要求するには、待機リストに登録します。
GitHub Marketplace には、モデル パラメーターを調整し、モデルがどのように応答するかを確認するためのプロンプトを送信できる無料のプレイグラウンドが用意されています。
プレイグラウンドを開くには、GitHub Marketplace に移動し、サイドバーの [モデル] をクリックします。 モデルの名前をクリックし、 [プレイグラウンド] をクリックします。
モデルのパラメーターを調整するには、サイドバーの [パラメーター] タブを選択します。 選択したパラメーターに対応するコードを表示するには、 [チャット] タブから [コード] タブに切り替えます。
2 つのモデルを同時に比較することもできます。 モデルのメニュー バーで、[ Compare] をクリックし、2 つ目のチャット ウィンドウにある [Model: MODEL-NAME ] ドロップダウン メニューを使って比較するモデルを選択します。 いずれかのチャット ウィンドウにプロンプトを入力すれば、そのプロンプトは自動的にもう 1 つのウィンドウにも反映され、各モデルからの応答を比較できます。
プレイグラウンドにはレート制限があります。 以下の「レート制限」を参照してください。
API を使用した AI モデルの実験
Note
この無料 API の使用は パブリック プレビュー にあり、変更される可能性があります。 アクセスを要求するには、待機リストに登録します。
GitHub には無料の API 使用が用意されているため、独自のアプリケーションで AI モデルを実験できます。
独自のアプリケーションでモデルを使用する方法を知るには、GitHub Marketplace に移動し、サイドバーの [モデル] をクリックします。 モデルの名前をクリックし、 [プレイグラウンド] をクリックします。 チャット ウィンドウの上部にあるメニュー バーで、[ Code] をクリックします。
各モデルを使用する手順は似ています。 一般的に、次のことを行う必要があります。
-
必要に応じて、言語ドロップダウンを使用してプログラミング言語を選択します。
-
必要に応じて、SDK ドロップダウンを使用して、使用する SDK を選択します。
すべてのモデルを Azure AI 推論 SDK と共に使用でき、一部のモデルでは追加の SDK がサポートされています。 モデルを簡単に切り替えたい場合は、[Azure AI 推論 SDK] を選択する必要があります。 言語として [REST] を選択した場合、SDK は使用されません。 代わりに、API エンドポイントを直接使用します。
-
codespace を開くか、ローカル環境を設定します。
- codespace で実行するには、 [codespace の実行] をクリックし、[新しい codespace の作成] をクリックします。
- ローカルで実行するには:
- GitHub personal access token を作成します。 トークンはスコープやアクセス許可を持つべきではありません。 「個人用アクセス トークンを管理する」を参照してください。
- トークンを環境変数として保存します。
- 必要に応じて、SDK の依存関係をインストールします。
-
サンプル コードを使用して、モデルに要求を行います。
無料の API の使用はレート制限されています。 以下の「レート制限」を参照してください。
プレイグラウンドでの実験を保存および共有する
プリセットを使って、プレイグラウンドでの進捗を保存および共有することができます。 プリセットには以下を保存できます。
- 現在の状態
- パラメーター
- チャット履歴 (省略可能)
現在のコンテキストのプリセットを作成するには、[Preset: PRESET-NAME ] ドロップダウン メニューを選択して、[ Create new preset] をクリックします。 プリセットに名前を付ける必要があります。また、プリセットの説明を入力したり、チャット履歴を含めたり、プリセットの共有を許可したりすることもできます。
プリセットを読み込むには、次の 2 つの方法があります。
- [Preset: PRESET-NAME ] ドロップダウン メニューを選択して、読み込むプリセットをクリックします。
- 共有されたプリセットの URL を開きます
プリセットを読み込んだ後は、プリセットを編集、共有、または削除できます。
- プリセットを編集するには、パラメーターを変更してモデルにプロンプトを送信します。 変更に問題がなければ、[Preset: PRESET-NAME ] ドロップダウン メニューを選択して、[ Edit preset] をクリックし、更新を保存します。
- プリセットを共有するには、[Preset: PRESET-NAME ] ドロップダウン メニューを選択し、[ Share preset] をクリックして共有可能な URL を取得します。
- プリセットを削除するには、[Preset: PRESET-NAME ] ドロップダウン メニューを選択し、[ Delete preset] をクリックして、削除を確定します。
Visual Studio Code で AI モデルの実験を行う
Note
Visual Studio Code 用 AI ツールキット拡張機能は パブリック プレビュー 段階であり、変更される可能性があります。
IDE で AI モデルの実験を行いたい場合は、Visual Studio Code 用 AI ツールキット拡張機能をインストールした後、調整可能なパラメーターとコンテキストを使ってモデルをテストできます。
-
Visual Studio Code で、Visual Studio Code 用 AI ツールキットのプレリリース バージョンをインストールします。
-
拡張機能を開くには、アクティビティ バーの AI ツールキット アイコンをクリックします。
-
AI ツールキットが GitHub アカウントに接続することを認可します。
-
AI ツールキット パネルの [My models] セクションで、[Open Model Catalog] をクリックし、実験に使うモデルを見つけます。
- GitHub Models を通じてリモートでホストされるモデルを使うには、モデル カードの [Try in playground] をクリックします。
- モデルをダウンロードしてローカルで使うには、モデル カードの [Download] をクリックします。 ダウンロードが完了したら、同じモデル カードの [Load in playground] をクリックします。
-
サイド バーで、モデルのコンテキスト命令と推論パラメーターを指定し、プロンプトを送信します。
運用環境への移行
プレイグラウンドと無料 API の使用のレート制限は、モデルでの実験や AI アプリケーションの開発に役立ちます。 アプリケーションを運用環境に移行する準備ができたら、GitHub personal access token ではなく、有料の Azure アカウントのトークンを使用できます。 コードで他に変更する必要はありません。
詳細については、Azure AI のドキュメントを参照してください。
転送率の制限
プレイグラウンドと無料の API の使用には、1 分あたりの要求数、1 日あたりの要求数、要求あたりのトークン数、同時要求数のレート制限があります。 レート制限を受けた場合、さらに要求を行うには、該当したレート制限がリセットされるまで待つ必要があります。
低、高、埋め込みモデルのレート制限は異なります。 使用しているモデルの種類を確認するには、GitHub Marketplace のモデルの情報を参照してください。
レート制限レベル | 転送率の制限 | 無料版および Copilot Individual | Copilot Business | Copilot Enterprise |
---|---|---|---|---|
低 | 1 分あたりの要求数 | 15 | 15 | 20 |
1 日あたりの要求数 | 150 | 300 | 450 | |
要求あたりのトークン数 | 8000 入力、4000 出力 | 8000 入力、4000 出力 | 8000 入力、8000 出力 | |
同時要求数 | 5 | 5 | 8 | |
高 | 1 分あたりの要求数 | 10 | 10 | 15 |
1 日あたりの要求数 | 50 | 100 | 150 | |
要求あたりのトークン数 | 8000 入力、4000 出力 | 8000 入力、4000 出力 | 16000 入力、8000 出力 | |
同時要求数 | 2 | 2 | 4 | |
埋め込み | 1 分あたりの要求数 | 15 | 15 | 20 |
1 日あたりの要求数 | 150 | 300 | 450 | |
要求あたりのトークン数 | 64000 | 64000 | 64000 | |
同時要求数 | 5 | 5 | 8 | |
Azure OpenAI o1-preview | 1 分あたりの要求数 | 1 | 2 | 2 |
1 日あたりの要求数 | 8 | 10 | 12 | |
要求あたりのトークン数 | 4000 入力、4000 出力 | 4000 入力、4000 出力 | 4000 入力、8000 出力 | |
同時要求数 | 1 | 1 | 1 | |
Azure OpenAI o1-mini | 1 分あたりの要求数 | 2 | 3 | 3 |
1 日あたりの要求数 | 12 | 15 | 20 | |
要求あたりのトークン数 | 4000 入力、4000 出力 | 4000 入力、4000 出力 | 4000 入力、4000 出力 | |
同時要求数 | 1 | 1 | 1 |
これらの制限は、予告なしに変更される場合があります。
フィードバックを行う
GitHub Models に関するフィードバックを行うには、GitHub Community で新しいディスカッションを開始するか、既存のディスカッションにコメントします。