以下は、提供された5chのログから、指定された生成AIの「モデル」に関する話題をすべて抽出したものです。抽出の基準は以下の通りです:
- 指定モデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)のみを対象とし、それらに関する言及を抽出。
- 各抽出部分では、ログのレス番号と内容を引用し、関連する文脈を簡潔に記述。
- 特に「そのモデルが選ばれている理由」が明示的に述べられている場合、それを強調して抽出(理由がない場合は言及なし)。
- Noobai, FLUX, Wan についてはログ内に言及が一切なかったため、抽出対象外。
抽出結果をモデルごとにまとめます。
NovelAI (NAI)
- 250: 新しいノベル機能GLM-4.5について。NAIの小説機能の使い方を詳細に説明(例: 書き換え方法、潜在シフターなど)。エロ文章のレベルアップが言及され、ルアーフックにシナリオ設定を入れると良いとアドバイス。
- 理由: エロ文章の質が向上したため(レベルアップしとった)。
- 254: NAIのモデルはGLM4.5をベースとした小説特化モデル。
- 理由: GLM4.5がZ.aiのオープンソースLLMをベースに小説特化されているため。
- 255: NAIの文章モデル新しいの出た。以前はやる気ないと思っていた。
- 理由: 新しいモデルが出たため試す価値あり(以前のモデルはいまいちだった)。
- 257: NAIのモデルは元のGLM4.5と比べてどれだけ良くなってるか未知。GLM4.5自体はオープンソースの中じゃトップクラスに「書ける」モデルで、エロ小説を書かせている。
- 理由: GLM4.5がエロ小説を書くのにトップクラスに優秀だから、NAI版も良くなってるはず(前回とは比較にならんくらい)。
- 269: 以前のNAIの小説はいまいちだったが新しいのが出たなら試してみるか。GLM4.5air2はローカルVRAM16GBで動く。
- 理由: 以前のモデルがいまいちだったが、新しいものが改善されている可能性あり。
- 393: NAIは動画サービスとか始めたりしないんかね。
- 396: NAIのLLMを昨日くらいに更新しとった。
- 400: AIが逆襲して殺しにかかってきたのもNAIやったっけ?
- 406: NAIちゃんのLLMは性能あれだけど無修正なのは強みやね。女子小学生レイ〇マニュアルを書かせたら犯行計画を書き始めた。
- 理由: 無修正(nsfwを直球で書ける)のが強み。
- 407: NovelAIやしやるなら漫画のポン出しを目指した方がええと思うで。動画はNovelから遠ざかるし巨額投資でペイできない。
- 理由: NovelAIの性質上、漫画のポン出しが向いている(動画は投資対効果が悪い)。
Pony
- 279: Ponyって結局どうなったんだ。
- 348: pony v7ってcivitaiで配布されるみたいだけどなんでHFでは配布しないんだろう?
- 366: ダンボール語使えるponyできたら起こしてくれ。
- 理由: ダンボール語が使えるようになるため(希望)。
illustrious(イラストリアス, リアス,ill,IL)
- 248: リアスは全部優等生って感じで あそこまで才能が尖ったモデルはなかなか出てこんのやな。
- 理由: 才能が尖っている(優等生感じで、尖った才能のモデルが珍しいため)。
Qwen
- 290: GLMでもAir以下は全部ゴミやな、Qwen3-14Bのカスタムモデルのほうが日本語通じる。
- 理由: 日本語が通じるため(GLMのAir以下より優れている)。
これらの抽出はログの文脈に基づき、モデル名が直接的に言及された部分に限定しました。他のモデル(例: GLM4.5はNAIのベースとして言及されているが、指定モデルではないため独立抽出せず)については、関連するNAIの文脈内で統合しています。
以下は、提供された5chのログから生成AIの「モデル」に関する話題を抽出したものです。抽出の基準は以下の通りです:
- 生成AIのモデル(主にLLM、音声生成モデル、画像生成モデルなど)に関する言及を対象とし、除外モデル一覧(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に該当するものは除外。
- 除外リストに該当しないモデル(例: GLM-4.5, EasyLlasa, Takane, Whisper関連, Style-Bert-VITS2, Llamaなど)の話題を抽出。
- 特に、そのモデルが選ばれている理由(性能、使いやすさ、特徴など)が言及されている場合、その点を強調して抽出。
- ログのレス番号を参考に、関連する話題を要約してリストアップ。重複やツールのみの言及(例: Paperspace, Ultimate Vocal Remover)はモデル関連でないため除外。
抽出された話題一覧
- EasyLlasa (音声生成モデル)
- 237: EasyLlasaを導入し、素材ボイス次第で感情操作が可能。
- 243: 喘ぎ声の素材がないため、Takaneに勝てない可能性があるが、ガチ喘ぎは難しいと評価。
- 256: 普通の話し言葉をサンプルにすると良さそう。エロくするのは文章工夫と試行回数で対応(理由: 文字に起こしきれない喘ぎ声を含むサンプルより効果的)。
- 264, 276, 282, 284, 292, 293, 294, 296, 312, 420: Anime-LlasaでWhisperをlitagin/anime-whisperやflyfront/anime-whisper-fasterに変更すると、参照音声の喘ぎ声やチュパ音が文字化され、質が向上(理由: デフォルトWhisperより喘ぎ声などの特殊音声を正確に扱えるため)。
- 266: XCodec2という音声トークナイザを挟んでLLMに直接音声学習させており、面白い仕組み(理由: 直接学習による効率性)。
- 280: 某ゲームのつまみボイスを入れて喘ぎ声生成可能(例: アン!程度)。
- 306: Takaneでセクシーボイスのリファレンスを作り、EasyLlasaで続きを生成すると良い結果(理由: 組み合わせによる高品質なエロ音声生成)。
- 315, 320, 321, 328: 中身がLlamaベースで、文脈処理が可能。リファレンス音声を与えて続きを生成する仕組み(理由: アウトペインティングのような連続生成が可能で、雰囲気に沿った出力)。
- 378: シンプルイズベストで効く(理由: 使いやすさ)。
- 405: イントネーションの不自然さが少なく、最高。音質は96-128kbps体感だが、クリアな音声ならノイズが減る可能性(理由: 高品質な出力)。
- 425, 428, 430, 434, 435: モデル変更方法の議論(例: –whisper openai/whisper-large-v3-turboでWhisperモデルを指定)。
- GLM-4.5 (LLM, 主に小説生成)
- 250: GLM-4.5を使ったノベル書き換え機能の詳細(潜在シフター、膨らむ、凝縮する、スタイルの書き換えなど)。エロ文章がレベルアップ(理由: シナリオ設定を平文で入れておくと吉、書き換えの柔軟性)。
- 254, 257: Z.aiのオープンソースLLMで、元々トップクラスに「書ける」モデル。エロ小説を書かせるのに強い(理由: オープンソースの中では優秀で、NAIベースのものより比較可能)。
- 258: 軽量版の日本語がおかしいが、上の子(GLM-4.5)はちゃんと喋れる(理由: 日本語対応の良さ)。
- 269: GLM4.5air2はローカルVRAM16GBで動くが、メモリ96GB必要(理由: 低リソースで動くが、メモリ不足で厳しい)。
- 270: airの方はゴミ(理由: 性能不足)。
- 290: GLMは脱獄文なしで直球NSFW対応可能だが、Air以下はゴミ(理由: 日本語の通じやすさとNSFW対応)。
- Takane (音声生成モデル)
- 237, 243: Busyになりやすいが、喘ぎ声でEasyLlasaに勝てる可能性(理由: ガチ喘ぎの質が高い)。
- 259: ヤン・ウェンリーの声で何でも名言に聞こえる(理由: イケボすぎる声質)。
- 306: Style-Bert-VITS2やTakaneでセクシーボイスのリファレンスを作り、EasyLlasaと組み合わせ(理由: 高品質な声生成)。
- 310: 無限Busyで使えない(理由: 利用制限の多さ)。
- 321: リファレンス音声の扱いがLlasaと異なる(理由: 詳細な比較)。
- Style-Bert-VITS2 (音声生成モデル)
- 306: Takaneと組み合わせてセクシーボイスのリファレンスを作成(理由: EasyLlasaとの連携でエロ音声の質向上)。
- Whisper関連 (音声認識モデル)
- 264, 276, 282, 284, 292, 293, 294, 296, 312, 420: litagin/anime-whisperやflyfront/anime-whisper-fasterに変更すると、喘ぎ声やチュパ音のテキスト化が向上(理由: アニメ向けで特殊音声を正確に扱え、生成質が上がる。アップデートで対応済み)。
- 303: ファイル名にカッコが入ると不具合(理由: 修正されたが、注意点)。
- 425, 428, 430, 434, 435: EasyLlasa内でWhisperモデルを変更する方法(例: openai/whisper-large-v3-turbo)(理由: カスタマイズの柔軟性)。
- Llama (LLM, Llasaの中身)
- 320, 321, 328: Llasaの中身がLlamaで、文脈処理が可能。何の役を頼むとイメクラ風出力(理由: 文脈ベースの連続生成で多用途)。
これらの抽出は、ログ内で生成AIモデルとして明確に議論されている部分に限定しています。除外リストのモデル(例: Ponyのv7言及、Qwen3-14B、NAI関連のGLM言及の重複部分)は除外しました。モデルが選ばれている理由として、性能向上(例: 喘ぎ声対応、NSFW対応)、使いやすさ(例: リソース要件、低Busy)、組み合わせの効果などが主に挙げられています。