ドキュメンテーション

使用開始

エージェントフロー

テキスト埋め込み

トークン化

モデルの管理

モデル情報

チャットの操作

SDKメソッドであるllm.respond()llm.applyPromptTemplate()、またはllm.act()は、入力としてチャットパラメータを受け取ります。SDKを使用する際、チャットを表す方法はいくつかあります。

オプション1:単一の文字列を入力する

チャットが単一のユーザーメッセージのみを持つ場合、単一の文字列でチャットを表現できます。.respondメソッドの例を以下に示します。

prediction = llm.respond("What is the meaning of life?")

オプション2:Chatヘルパークラスを使用する

より複雑なタスクには、Chatヘルパークラスを使用することをお勧めします。これは、チャットを管理するための様々な一般的に使用されるメソッドを提供します。Chatクラスの例を以下に示します。ここでは、チャットインスタンスの初期化時に最初のシステムプロンプトが提供され、その後、対応するメソッド呼び出しによって最初のユーザーメッセージが追加されます。

chat = Chat("You are a resident AI philosopher.")
chat.add_user_message("What is the meaning of life?")

prediction = llm.respond(chat)

Chat.from_historyメソッドを使用して、Chatオブジェクトを素早く構築することもできます。

chat = Chat.from_history({"messages": [
  { "role": "system", "content": "You are a resident AI philosopher." },
  { "role": "user", "content": "What is the meaning of life?" },
]})

オプション3:チャット履歴データを直接提供する

チャット履歴を受け入れるAPIは内部的にChat.from_historyを使用するため、通常の辞書形式のチャット履歴データも受け入れます。

prediction = llm.respond({"messages": [
  { "role": "system", "content": "You are a resident AI philosopher." },
  { "role": "user", "content": "What is the meaning of life?" },
]})