Jinba FlowワークフローでローカルまたはクラウドベースのLlamaモデルを使用するためのLlamaモデル認証情報を設定します。

前提条件

  • Llamaモデルへのアクセス(ローカルまたはクラウドベース)
  • クラウドLlamaサービスのAPIキー(クラウドを使用する場合)

APIキーの取得(クラウドサービス)

クラウドLlamaサービス用(例:Replicate、Ollama Cloud)

  1. 選択したLlamaクラウドサービスプロバイダーにアクセス
  2. アカウントにサインインするか、新しく作成
  3. APIキーまたは認証情報セクションに移動
  4. 新しいAPIキーを生成
  5. 生成されたキーをコピー

ローカルLlamaモデル用

ローカルでLlamaモデルを実行する場合(例:Ollamaを使用)、通常APIキーは不要ですが、接続詳細を設定する必要があります。

Jinba Flowでの設定

クラウドベースLlama

  1. Jinba Flowのワークスペース設定に移動
  2. 「シークレット」セクションに移動
  3. 利用可能な認証情報のリストから「Llama」を探す
  4. 「設定」または「新規追加」をクリック
  5. 指定されたフィールドにAPIキーを入力
  6. 希望するLlamaモデルバージョンを選択
  7. 「保存」をクリックして認証情報を保存

ローカルLlamaモデル

  1. Jinba Flowのワークスペース設定に移動
  2. 「シークレット」セクションに移動
  3. 利用可能な認証情報のリストから「Llama」を探す
  4. 「設定」または「新規追加」をクリック
  5. 接続タイプとして「ローカル」を選択
  6. ローカルサーバーURLを入力(例:http://localhost:11434
  7. インストールしたモデル名を指定
  8. 「保存」をクリックして認証情報を保存

利用可能なモデル

Llama 3モデル

  • Llama 3.1 8B - ほとんどのタスクに高速で効率的
  • Llama 3.1 70B - 複雑な推論により適したモデル
  • Llama 3.1 405B - 最も高性能なモデル(クラウドのみ)

Llama 2モデル

  • Llama 2 7B - 軽量モデル
  • Llama 2 13B - バランスの取れたパフォーマンス
  • Llama 2 70B - 高性能

ローカル設定(オプション)

Llamaモデルをローカルで実行したい場合:
  1. Ollamaをインストール
  2. 希望するモデルをプル:ollama pull llama3.1:8b
  3. Ollamaサービスを開始:ollama serve
  4. Jinba Flowでローカル接続を設定