atwiki-logo
  • 新規作成
    • 新規ページ作成
    • 新規ページ作成(その他)
      • このページをコピーして新規ページ作成
      • このウィキ内の別ページをコピーして新規ページ作成
      • このページの子ページを作成
    • 新規ウィキ作成
  • 編集
    • ページ編集
    • ページ編集(簡易版)
    • ページ名変更
    • メニュー非表示でページ編集
    • ページの閲覧/編集権限変更
    • ページの編集モード変更
    • このページにファイルをアップロード
    • メニューを編集
    • 右メニューを編集
  • バージョン管理
    • 最新版変更点(差分)
    • 編集履歴(バックアップ)
    • アップロードファイル履歴
    • ページ操作履歴
  • ページ一覧
    • ページ一覧
    • このウィキのタグ一覧
    • このウィキのタグ(更新順)
    • このページの全コメント一覧
    • このウィキの全コメント一覧
    • おまかせページ移動
  • RSS
    • このウィキの更新情報RSS
    • このウィキ新着ページRSS
  • ヘルプ
    • ご利用ガイド
    • Wiki初心者向けガイド(基本操作)
    • このウィキの管理者に連絡
    • 運営会社に連絡(不具合、障害など)
localmlhub @ ウィキ
  • ウィキ募集バナー
  • 目安箱バナー
  • 操作ガイド
  • 新規作成
  • 編集する
  • 全ページ一覧
  • 登録/ログイン
ページ一覧
localmlhub @ ウィキ
  • ウィキ募集バナー
  • 目安箱バナー
  • 操作ガイド
  • 新規作成
  • 編集する
  • 全ページ一覧
  • 登録/ログイン
ページ一覧
localmlhub @ ウィキ
  • 新規作成
  • 編集する
  • 登録/ログイン
  • 管理メニュー
管理メニュー
  • 新規作成
    • 新規ページ作成
    • 新規ページ作成(その他)
      • このページをコピーして新規ページ作成
      • このウィキ内の別ページをコピーして新規ページ作成
      • このページの子ページを作成
    • 新規ウィキ作成
  • 編集
    • ページ編集
    • ページ編集(簡易版)
    • ページ名変更
    • メニュー非表示でページ編集
    • ページの閲覧/編集権限変更
    • ページの編集モード変更
    • このページにファイルをアップロード
    • メニューを編集
    • 右メニューを編集
  • バージョン管理
    • 最新版変更点(差分)
    • 編集履歴(バックアップ)
    • アップロードファイル履歴
    • ページ操作履歴
  • ページ一覧
    • このウィキの全ページ一覧
    • このウィキのタグ一覧
    • このウィキのタグ一覧(更新順)
    • このページの全コメント一覧
    • このウィキの全コメント一覧
    • おまかせページ移動
  • RSS
    • このwikiの更新情報RSS
    • このwikiの新着ページRSS
  • ヘルプ
    • ご利用ガイド
    • Wiki初心者向けガイド(基本操作)
    • このウィキの管理者に連絡
    • 運営会社に連絡する(不具合、障害など)
  • atwiki
  • localmlhub @ ウィキ
  • oobaboogaの引数表

localmlhub @ ウィキ

oobaboogaの引数表

最終更新:2023年08月07日 05:12

匿名ユーザー

- view
だれでも歓迎! 編集
オプション 説明
-h, --help ヘルプメッセージを表示して終了します。
--notebook ノートブックモードでウェブUIを起動します。出力は入力と同じテキストボックスに書き込まれます。
--chat キャラクター.AIのウェブサイトに似たスタイルでチャットモードでウェブUIを起動します。
--multi-user マルチユーザーモード。チャット履歴は保存または自動的に読み込まれません。警告:これは非常に実験的です。
--character CHARACTER チャットモードでデフォルトでロードするキャラクターの名前。
--model MODEL デフォルトでロードするモデルの名前。
--lora LORA [LORA ...] ロードするLoRAのリスト。複数のLoRAをロードする場合は、スペースで区切って名前を指定します。
--model-dir MODEL_DIR すべてのモデルが格納されたディレクトリへのパス。
--lora-dir LORA_DIR すべてのLoRAが格納されたディレクトリへのパス。
--model-menu ウェブUIが最初に起動されたときにターミナルにモデルメニューを表示します。
--no-stream テキストの出力をリアルタイムでストリームしません。
--settings SETTINGS このyamlファイルからデフォルトのインターフェース設定をロードします。
--extensions EXTENSIONS [EXTENSIONS ...] ロードする拡張機能のリスト。複数の拡張機能をロードする場合は、スペースで区切って名前を指定します。
--verbose プロンプトをターミナルに表示します。
--loader LOADER モデルローダーを手動で選択します。それ以外の場合は自動検出されます。
--cpu テキスト生成にCPUを使用します。警告:CPUでのトレーニングは非常に遅くなります。
--auto-devices 利用可能なGPUとCPUにモデルを自動的に分割します。
--gpu-memory GPU_MEMORY [GPU_MEMORY ...] GPUごとに割り当てる最大GPUメモリ(GiB)。
--cpu-memory CPU_MEMORY オフロードされた重み用に割り当てる最大CPUメモリ(GiB)。
--disk モデルがGPUとCPUの両方のメモリを超える場合、残りのレイヤーをディスクに送信します。
--disk-cache-dir DISK_CACHE_DIR ディスクキャッシュを保存するディレクトリへのパス。デフォルトは "cache" です。
--load-in-8bit 8ビット精度でモデルをロードします(bitsandbytesを使用)。
--bf16 bfloat16精度でモデルをロードします。NVIDIA Ampere GPUが必要です。
--no-cache テキスト生成時にuse_cacheをFalseに設定します。これにより、VRAMの使用量が少し減少しますが、パフォーマンスが低下します。
--xformers xformerのメモリ効率の良いアテンションを使用します。これにより、トークン/秒が増加するはずです。
--sdp-attention torch 2.0のsdpアテンションを使用します。
--trust-remote-code モデルをロードする際にtrust_remote_code=Trueを設定します。ChatGLMとFalconに必要です。
--load-in-4bit 4ビット精度でモデルをロードします(bitsandbytesを使用)。
--compute_dtype COMPUTE_DTYPE 4ビットの計算精度を指定します。有効なオプション: bfloat16、float16、float32。
--quant_type QUANT_TYPE 4ビットの量子化タイプを指定します。有効なオプション: nf4、fp4。
--use_double_quant 4ビットでの使用時にuse_double_quantを指定します。
--threads THREADS 使用するスレッドの数。
--n_batch N_BATCH llama_evalを呼び出す際に一緒にバッチ化する最大プロンプトトークンの数。
--no-mmap mmapを使用しないようにします。
--low-vram 低VRAMモード。
--mlock システムにモデルをRAMに保持させるようにします。
--cache-capacity CACHE_CAPACITY 最大キャッシュ容量。単位なしで提供された場合、バイトが想定されます。
--n-gpu-layers N_GPU_LAYERS GPUにオフロードするレイヤーの数。
--n_ctx N_CTX プロンプトコンテキストのサイズ。
--llama_cpp_seed LLAMA_CPP_SEED llama-cppモデル用のシード。デフォルトは0(ランダム)。
--wbits WBITS 指定された精度(ビット単位)の事前量子化モデルをロードします。サポートされているオプション: 2、3、4、8。
--model_type MODEL_TYPE 事前量子化モデルのモデルタイプ。現在、LLaMA、OPT、GPT-Jがサポートされています。
--groupsize GROUPSIZE グループサイズ。
--pre_layer PRE_LAYER [PRE_LAYER ...] GPUに割り当てるレイヤーの数。これを設定すると、4ビットモデルのためにCPUオフロードが有効になります。
--checkpoint CHECKPOINT 量子化チェックポイントファイルへのパス。指定しない場合、自動的に検出されます。
--monkey-patch モンキーパッチを適用して、量子化モデルでLoRAを使用します。
--quant_attn (triton)量子アテンションを有効にします。
--warmup_autotune (triton)ウォームアップオートチューニングを有効にします。
--fused_mlp (triton)融合MLPを有効にします。
--gptq-for-llama 廃止予定
--autogptq 廃止予定
--triton Tritonを使用します。
--no_inject_fused_attention フューズドアテンションを使用しません(VRAMの要件を低減させます)。
--no_inject_fused_mlp Tritonモードのみ: フューズドMLPを使用しません(VRAMの要件を低減させます)。
--no_use_cuda_fp16 一部のシステムでモデルを高速化することができます。
--desc_act quantize_config.jsonが存在しないモデル用のパラメーターで、BaseQuantizeConfigでdesc_actを設定するかどうかを定義します。
--gpu-split GPU_SPLIT モデルのレイヤーごとに使用するVRAM(GB)のカンマ区切りリスト。例: 20,7,7
--max_seq_len MAX_SEQ_LEN 最大シーケンス長。
--compress_pos_emb COMPRESS_POS_EMB 位置埋め込みの圧縮係数。通常、max_seq_len / 2048に設定する必要があります。
--alpha_value ALPHA_VALUE NTK RoPEスケーリングの位置埋め込みのアルファ係数。上記と同じです。これまたはcompress_pos_embのいずれかを使用しますが、両方を使用しないでください。
--flexgen 廃止予定
--percent PERCENT [PERCENT ...] FlexGen: 割り当てパーセンテージ。スペースで区切られた6つの数字を指定する必要があります(デフォルト:0、100、100、0、100、0)。
--compress-weight FlexGen: 重み圧縮を有効にします。
--pin-weight [PIN_WEIGHT] FlexGen: 重みをピン留めするかどうか(これをFalseに設定すると、CPUメモリが20%削減されます)。
--deepspeed DeepSpeed ZeRO-3を統合したTransformersの使用を有効にします。
--nvme-offload-dir NVME_OFFLOAD_DIR DeepSpeed: ZeRO-3 NVMEオフロードに使用するディレクトリ。
--local_rank LOCAL_RANK DeepSpeed: 分散セットアップのためのオプション引数。
--rwkv-strategy RWKV_STRATEGY RWKV: モデルをロードする際に使用するストラテジー。例:「cpu fp32」、「cuda fp16」、「cuda fp16i8」。
--rwkv-cuda-on RWKV: パフォーマンス向上のためにCUDAカーネルをコンパイルします。
--listen ウェブUIをローカルネットワークからアクセス可能にします。
--listen-host LISTEN_HOST サーバーが使用するホスト名。
--listen-port LISTEN_PORT サーバーが使用するリスニングポート。
--share パブリックURLを作成します。これはGoogle ColabなどでウェブUIを実行するのに便利です。
--auto-launch 起動時にウェブUIをデフォルトブラウザで自動的に開きます。
--gradio-auth GRADIO_AUTH "username:password"のようにgradioの認証を設定します。複数の場合はコンマで区切り、"u1:p1,u2:p2,u3:p3"のようにします。
--gradio-auth-path GRADIO_AUTH_PATH gradioの認証ファイルパスを設定します。ファイルには1つ以上のuser:passwordペアが次のような形式で含まれている必要があります: "u1:p1,u2:p2,u3:p3"
--api API拡張機能を有効にします。
--api-blocking-port API_BLOCKING_PORT ブロッキングAPIのリスニングポート。
--api-streaming-port API_STREAMING_PORT ストリーミングAPIのリスニングポート。
--public-api Cloudfareを使用してAPIのためのパブリックURLを作成します。
--multimodal-pipeline MULTIMODAL_PIPELINE 使用するマルチモーダルパイプライン。例:llava-7b、llava-13b。

タグ:

+ タグ編集
  • タグ:
タグの更新に失敗しました
エラーが発生しました。ページを更新してください。
ページを更新
「oobaboogaの引数表」をウィキ内検索
LINE
シェア
Tweet
localmlhub @ ウィキ
記事メニュー

メニュー

  • トップページ
  • FAQ
  • 超簡単初めてのLLaMaガイド
  • Windows向け初心者ガイド
  • 日本語言語モデル
  • ローカル言語モデルのリンク
  • Kobold.cppで小説っぽいのを作る
  • Kobold.cppでAIとチャットしてみる
  • oobabooga / text-generation-webui入門
    • oobaboogaの引数表
  • 右メニュー



リンク

  • @wiki
  • @wikiご利用ガイド




ここを編集
記事メニュー2

更新履歴

取得中です。


ここを編集
人気記事ランキング
  1. Kobold.cppで小説っぽいのを作る
  2. Kobold.cppでAIとチャットしてみる
  3. 超簡単初めてのLLaMaガイド
  4. Windows向け初心者ガイド
  5. 日本語言語モデル
もっと見る
最近更新されたページ
  • 388日前

    超簡単初めてのLLaMaガイド
  • 508日前

    トップページ
  • 508日前

    メニュー
  • 634日前

    Kobold.cppでAIとチャットしてみる
  • 650日前

    oobaboogaの引数表
  • 664日前

    Kobold.cppで小説っぽいのを作る
  • 708日前

    Windows向け初心者ガイド
  • 711日前

    日本語言語モデル
  • 711日前

    「rinna」日本語に特化した対話GPT言語モデル
  • 712日前

    右メニュー
もっと見る
人気記事ランキング
  1. Kobold.cppで小説っぽいのを作る
  2. Kobold.cppでAIとチャットしてみる
  3. 超簡単初めてのLLaMaガイド
  4. Windows向け初心者ガイド
  5. 日本語言語モデル
もっと見る
最近更新されたページ
  • 388日前

    超簡単初めてのLLaMaガイド
  • 508日前

    トップページ
  • 508日前

    メニュー
  • 634日前

    Kobold.cppでAIとチャットしてみる
  • 650日前

    oobaboogaの引数表
  • 664日前

    Kobold.cppで小説っぽいのを作る
  • 708日前

    Windows向け初心者ガイド
  • 711日前

    日本語言語モデル
  • 711日前

    「rinna」日本語に特化した対話GPT言語モデル
  • 712日前

    右メニュー
もっと見る
ウィキ募集バナー
新規Wikiランキング

最近作成されたWikiのアクセスランキングです。見るだけでなく加筆してみよう!

  1. R.E.P.O. 日本語解説Wiki
  2. VCR GTA3まとめウィキ
  3. ドタバタ王子くん攻略サイト
  4. 機動戦士ガンダム EXTREME VS.2 INFINITEBOOST wiki
  5. ありふれた職業で世界最強 リベリオンソウル @ ウィキ
  6. STAR WARS ジェダイ:サバイバー攻略 @ ウィキ
  7. アサシンクリードシャドウズ@ ウィキ
  8. パズル&コンクエスト(Puzzles&Conquest)攻略Wiki
  9. ドラゴンボール Sparking! ZERO 攻略Wiki
  10. SYNDUALITY Echo of Ada 攻略 ウィキ
もっと見る
人気Wikiランキング

atwikiでよく見られているWikiのランキングです。新しい情報を発見してみよう!

  1. アニヲタWiki(仮)
  2. ストグラ まとめ @ウィキ
  3. ゲームカタログ@Wiki ~名作からクソゲーまで~
  4. 初音ミク Wiki
  5. oblivion xbox360 Wiki
  6. 機動戦士ガンダム バトルオペレーション2攻略Wiki 3rd Season
  7. ときめきメモリアル大辞典
  8. 検索してはいけない言葉 @ ウィキ
  9. Grand Theft Auto V(グランドセフトオート5)GTA5 & GTAオンライン 情報・攻略wiki
  10. SDガンダム ジージェネレーションクロスレイズ 攻略Wiki
もっと見る
全体ページランキング

最近アクセスの多かったページランキングです。話題のページを見に行こう!

  1. 参加者一覧 - ストグラ まとめ @ウィキ
  2. anbrella(餡ブレラ) - ストグラ まとめ @ウィキ
  3. 焔のマヨリ - モンスター烈伝オレカバトル2@wiki
  4. モンスター一覧_第1章 - モンスター烈伝オレカバトル2@wiki
  5. RqteL - ストグラ まとめ @ウィキ
  6. 鱈 タラオ - ストグラ まとめ @ウィキ
  7. ギャング - ストグラ まとめ @ウィキ
  8. 魔獣トゲイラ - バトルロイヤルR+α ファンフィクション(二次創作など)総合wiki
  9. アイテム一覧_第1章 - モンスター烈伝オレカバトル2@wiki
  10. フェルシー・ロロ - アニヲタWiki(仮)
もっと見る

  • このWikiのTOPへ
  • 全ページ一覧
  • アットウィキTOP
  • 利用規約
  • プライバシーポリシー

2019 AtWiki, Inc.