jinba home page
日本語
Support
Go to jinba
Go to jinba
検索...
検索...
Navigation
認証情報
Llama認証情報
はじめに
Jinbaflowの概要
ワークフローの作り方
概要
方法1: チャットパネル
方法2: グラフエディタ(ドラッグ&ドロップ)
方法3: YAMLコーディングパネル
ツール
検証と変換
業務効率化
コミュニケーション
AIとLLM
Eコマース
サンドボックス&スクリプト
検索とデータ取得
ファイル
メディア生成
CMSとWebツール
Jinba
認証情報
Anthropic認証情報
OpenAI認証情報
Llama認証情報
Slack認証情報
Discord認証情報
LINE認証情報
Chatwork認証情報
Notion認証情報
Google OAuth認証情報
Netsea認証情報
Shopify認証情報
Luma認証情報
Kling認証情報
GitHub 認証情報
Gemini 認証情報
Grok 認証情報
このページの内容
前提条件
APIキーの取得(クラウドサービス)
クラウドLlamaサービス用(例:Replicate、Ollama Cloud)
ローカルLlamaモデル用
Jinba Flowでの設定
クラウドベースLlama
ローカルLlamaモデル
利用可能なモデル
Llama 3モデル
Llama 2モデル
ローカル設定(オプション)
認証情報
Llama認証情報
Jinba FlowワークフローでローカルまたはクラウドベースのLlamaモデルを使用するためのLlamaモデル認証情報を設定します。
前提条件
Llamaモデルへのアクセス(ローカルまたはクラウドベース)
クラウドLlamaサービスのAPIキー(クラウドを使用する場合)
APIキーの取得(クラウドサービス)
クラウドLlamaサービス用(例:Replicate、Ollama Cloud)
選択したLlamaクラウドサービスプロバイダーにアクセス
アカウントにサインインするか、新しく作成
APIキーまたは認証情報セクションに移動
新しいAPIキーを生成
生成されたキーをコピー
ローカルLlamaモデル用
ローカルでLlamaモデルを実行する場合(例:Ollamaを使用)、通常APIキーは不要ですが、接続詳細を設定する必要があります。
Jinba Flowでの設定
クラウドベースLlama
Jinba Flowのワークスペース設定に移動
「シークレット」セクションに移動
利用可能な認証情報のリストから「Llama」を探す
「設定」または「新規追加」をクリック
指定されたフィールドにAPIキーを入力
希望するLlamaモデルバージョンを選択
「保存」をクリックして認証情報を保存
ローカルLlamaモデル
Jinba Flowのワークスペース設定に移動
「シークレット」セクションに移動
利用可能な認証情報のリストから「Llama」を探す
「設定」または「新規追加」をクリック
接続タイプとして「ローカル」を選択
ローカルサーバーURLを入力(例:
http://localhost:11434
)
インストールしたモデル名を指定
「保存」をクリックして認証情報を保存
利用可能なモデル
Llama 3モデル
Llama 3.1 8B
- ほとんどのタスクに高速で効率的
Llama 3.1 70B
- 複雑な推論により適したモデル
Llama 3.1 405B
- 最も高性能なモデル(クラウドのみ)
Llama 2モデル
Llama 2 7B
- 軽量モデル
Llama 2 13B
- バランスの取れたパフォーマンス
Llama 2 70B
- 高性能
ローカル設定(オプション)
Llamaモデルをローカルで実行したい場合:
Ollama
をインストール
希望するモデルをプル:
ollama pull llama3.1:8b
Ollamaサービスを開始:
ollama serve
Jinba Flowでローカル接続を設定
OpenAI認証情報
Slack認証情報
アシスタント
Responses are generated using AI and may contain mistakes.