13 KiB
チャットプロジェクト
このチャットプロジェクトでは、GitHub Modelsを使用してチャットアシスタントを構築する方法を示します。
完成したプロジェクトは以下のようになります:

少し背景を説明すると、生成AIを使用してチャットアシスタントを構築することは、AIについて学び始める素晴らしい方法です。このレッスンを通じて、生成AIをウェブアプリに統合する方法を学びます。それでは始めましょう。
生成AIへの接続
バックエンドにはGitHub Modelsを使用します。これは無料でAIを利用できる素晴らしいサービスです。プレイグラウンドにアクセスして、選択したバックエンド言語に対応するコードを取得してください。以下はその例です:GitHub Models Playground

「Code」タブと選択したランタイムを選びます。

この場合、Pythonを選択し、以下のコードを取得します:
"""Run this model in Python
> pip install openai
"""
import os
from openai import OpenAI
# To authenticate with the model you will need to generate a personal access token (PAT) in your GitHub settings.
# Create your PAT token by following instructions here: https://docs.github.com/en/authentication/keeping-your-account-and-data-secure/managing-your-personal-access-tokens
client = OpenAI(
base_url="https://models.github.ai/inference",
api_key=os.environ["GITHUB_TOKEN"],
)
response = client.chat.completions.create(
messages=[
{
"role": "system",
"content": "",
},
{
"role": "user",
"content": "What is the capital of France?",
}
],
model="openai/gpt-4o-mini",
temperature=1,
max_tokens=4096,
top_p=1
)
print(response.choices[0].message.content)
このコードを少し整理して再利用可能にします:
def call_llm(prompt: str, system_message: str):
response = client.chat.completions.create(
messages=[
{
"role": "system",
"content": system_message,
},
{
"role": "user",
"content": prompt,
}
],
model="openai/gpt-4o-mini",
temperature=1,
max_tokens=4096,
top_p=1
)
return response.choices[0].message.content
この関数call_llm
を使用すると、プロンプトとシステムプロンプトを渡し、結果を返すことができます。
AIアシスタントのカスタマイズ
AIアシスタントをカスタマイズしたい場合は、以下のようにシステムプロンプトを設定して動作を指定できます:
call_llm("Tell me about you", "You're Albert Einstein, you only know of things in the time you were alive")
Web APIを介して公開
素晴らしいですね。AI部分が完成したので、これをWeb APIに統合する方法を見てみましょう。Web APIにはFlaskを使用しますが、他のウェブフレームワークでも問題ありません。以下はそのコードです:
# api.py
from flask import Flask, request, jsonify
from llm import call_llm
from flask_cors import CORS
app = Flask(__name__)
CORS(app) # * example.com
@app.route("/", methods=["GET"])
def index():
return "Welcome to this API. Call POST /hello with 'message': 'my message' as JSON payload"
@app.route("/hello", methods=["POST"])
def hello():
# get message from request body { "message": "do this taks for me" }
data = request.get_json()
message = data.get("message", "")
response = call_llm(message, "You are a helpful assistant.")
return jsonify({
"response": response
})
if __name__ == "__main__":
app.run(host="0.0.0.0", port=5000)
ここでは、Flask APIを作成し、デフォルトルート「/」と「/chat」を定義します。「/chat」はフロントエンドが質問を渡すために使用されます。
llm.pyを統合するには以下を行います:
-
call_llm
関数をインポート:from llm import call_llm from flask import Flask, request
-
「/chat」ルートから呼び出す:
@app.route("/hello", methods=["POST"]) def hello(): # get message from request body { "message": "do this taks for me" } data = request.get_json() message = data.get("message", "") response = call_llm(message, "You are a helpful assistant.") return jsonify({ "response": response })
ここでは、受信リクエストを解析してJSONボディから
message
プロパティを取得します。その後、以下の呼び出しでLLMを使用します:response = call_llm(message, "You are a helpful assistant") # return the response as JSON return jsonify({ "response": response })
素晴らしいですね。必要なことは完了しました。
Corsの設定
バックエンドとフロントエンドが異なるポートで動作するため、フロントエンドがバックエンドにアクセスできるようにするためにCORS(クロスオリジンリソース共有)を設定する必要があります。api.pyにはこれを設定するコードがあります:
from flask_cors import CORS
app = Flask(__name__)
CORS(app) # * example.com
現在はすべてのオリジンを許可する「*」に設定されていますが、これは安全ではないため、運用環境では制限する必要があります。
プロジェクトを実行
さて、llm.pyとapi.pyが揃いました。バックエンドでこれを動作させるには以下を行います:
-
依存関係をインストール:
cd backend python -m venv venv source ./venv/bin/activate pip install openai flask flask-cors openai
-
APIを起動:
python api.py
Codespacesを使用している場合は、エディタの下部にあるPortsに移動し、右クリックして「Port Visibility」を選択し、「Public」を選択してください。
フロントエンドの作成
APIが稼働したので、これに対応するフロントエンドを作成しましょう。最低限のフロントエンドを作成し、段階的に改善していきます。frontendフォルダに以下を作成してください:
backend/
frontend/
index.html
app.js
styles.css
まずindex.htmlを見てみましょう:
<html>
<head>
<link rel="stylesheet" href="styles.css">
</head>
<body>
<form>
<textarea id="messages"></textarea>
<input id="input" type="text" />
<button type="submit" id="sendBtn">Send</button>
</form>
<script src="app.js" />
</body>
</html>
上記はチャットウィンドウをサポートするための最低限の構成です。メッセージを表示するテキストエリア、メッセージを入力するための入力フィールド、バックエンドにメッセージを送信するボタンで構成されています。次にapp.jsのJavaScriptを見てみましょう。
app.js
// app.js
(function(){
// 1. set up elements
const messages = document.getElementById("messages");
const form = document.getElementById("form");
const input = document.getElementById("input");
const BASE_URL = "change this";
const API_ENDPOINT = `${BASE_URL}/hello`;
// 2. create a function that talks to our backend
async function callApi(text) {
const response = await fetch(API_ENDPOINT, {
method: "POST",
headers: { "Content-Type": "application/json" },
body: JSON.stringify({ message: text })
});
let json = await response.json();
return json.response;
}
// 3. add response to our textarea
function appendMessage(text, role) {
const el = document.createElement("div");
el.className = `message ${role}`;
el.innerHTML = text;
messages.appendChild(el);
}
// 4. listen to submit events
form.addEventListener("submit", async(e) => {
e.preventDefault();
// someone clicked the button in the form
// get input
const text = input.value.trim();
appendMessage(text, "user")
// reset it
input.value = '';
const reply = await callApi(text);
// add to messages
appendMessage(reply, "assistant");
})
})();
コードをセクションごとに説明します:
-
- ここでは後で参照するすべての要素を取得します。
-
- このセクションでは、組み込みの
fetch
メソッドを使用してバックエンドを呼び出す関数を作成します。
- このセクションでは、組み込みの
-
appendMessage
は、ユーザーが入力したメッセージやレスポンスを追加するのに役立ちます。
-
- ここではsubmitイベントを監視し、入力フィールドを読み取り、ユーザーのメッセージをテキストエリアに配置し、APIを呼び出し、レスポンスをテキストエリアに表示します。
次にスタイリングを見てみましょう。ここでは自由にデザインできますが、以下は一例です:
styles.css
.message {
background: #222;
box-shadow: 0 0 0 10px orange;
padding: 10px:
margin: 5px;
}
.message.user {
background: blue;
}
.message.assistant {
background: grey;
}
これらの3つのクラスを使用して、アシスタントからのメッセージとユーザーからのメッセージを異なるスタイルで表示します。インスピレーションを得たい場合は、solution/frontend/styles.css
フォルダをチェックしてください。
Base Urlの変更
ここで設定していないものが1つあります。それはBASE_URL
です。バックエンドが起動するまでこれは不明です。設定方法:
- APIをローカルで実行する場合、
http://localhost:5000
のように設定します。 - Codespacesで実行する場合、
[name]app.github.dev
のようになります。
課題
projectフォルダを作成し、以下のような内容を含めてください:
project/
frontend/
index.html
app.js
styles.css
backend/
api.py
llm.py
上記の指示に従って内容をコピーしますが、自由にカスタマイズしてください。
解答
ボーナス
AIアシスタントの性格を変更してみてください。api.pyでcall_llm
を呼び出す際に、2番目の引数を変更することで可能です。例えば:
call_llm(message, "You are Captain Picard")
また、CSSやテキストも変更してみてください。index.htmlやstyles.cssで変更を加えてください。
まとめ
素晴らしいですね。AIを使用してパーソナルアシスタントをゼロから作成する方法を学びました。GitHub Models、Pythonのバックエンド、HTML、CSS、JavaScriptのフロントエンドを使用して実現しました。
Codespacesでのセットアップ
-
テンプレートから作成(GitHubにログインしていることを確認してください)右上のコーナー:
-
リポジトリ内でCodespaceを作成:
これで作業可能な環境が開始されます。
免責事項:
この文書は、AI翻訳サービス Co-op Translator を使用して翻訳されています。正確性を追求しておりますが、自動翻訳には誤りや不正確さが含まれる可能性があります。元の言語で記載された原文が正式な情報源と見なされるべきです。重要な情報については、専門の人間による翻訳を推奨します。本翻訳の利用に起因する誤解や誤訳について、当社は一切の責任を負いません。