Fine-tuning

「Fine-tuning」タグの記事(6件)

第1回:きっかけと全体像 — ChatGPTがファンドマネージャーに勝った日 連載

第1回:きっかけと全体像 — ChatGPTがファンドマネージャーに勝った日

ChatGPTがプロのファンドマネージャーを上回ったという実験に触発され、LLMファインチューニングで日本株の株価予測AIサービス「千里眼」を構築するまでの全体像を紹介します。

読む →
第3回:LoRAと量子化の技術解説 — LLMを軽くする仕組みたち 連載

第3回:LoRAと量子化の技術解説 — LLMを軽くする仕組みたち

LLMファインチューニングに不可欠な軽量化技術であるLoRA、量子化、QLoRAの仕組みを解説し、架空の事実をモデルに学習させる「富士山実験」で技術の有効性を実証します。

読む →
第4回:Colabで株価予測 — 3モデルの試行錯誤 連載

第4回:Colabで株価予測 — 3モデルの試行錯誤

Google ColabのT4 GPUでELYZA 8BとLLM-jp 7.2Bを使い株価予測ファインチューニングに挑戦。精度不足に直面しつつも、追加学習やGGUF変換など多くの技術的知見を得た過程を記録します。

読む →
第2回:ローカルGPUでの挑戦と挫折 — RTX 3060の6GBで8Bモデルに挑む 連載

第2回:ローカルGPUでの挑戦と挫折 — RTX 3060の6GBで8Bモデルに挑む

ノートPC搭載のRTX 3060(6GB VRAM)でELYZA 8Bモデルのファインチューニングに挑戦し、VRAM不足で断念するまでの過程と、そこから得た教訓を記録します。

読む →
第5回:OpenAI APIファインチューニング — 約8分で完了した最終解 連載

第5回:OpenAI APIファインチューニング — 約8分で完了した最終解

OpenAI APIのファインチューニングでgpt-4o-miniをカスタマイズし、約8分の学習で安定したJSON出力と十分な予測精度を実現。データ準備の苦労と、Colabとの決定的な違いを詳しく解説します。

読む →
第6回:訓練データの設計 — 5種類のデータをどう統合したか 連載

第6回:訓練データの設計 — 5種類のデータをどう統合したか

LLMファインチューニングにおける訓練データの設計思想を解説。企業情報・ニュース・株価・財務・マクロ経済指標の5種類のデータ統合、正解ラベルの作り方、8バージョンに及ぶ試行錯誤の過程を記録します。

読む →