LLM

「LLM」タグの記事(11件)

「継続的学習」の虚実 ― AIは本当に自ら進化できるのか インサイト

「継続的学習」の虚実 ― AIは本当に自ら進化できるのか

多くのAIサービスが「継続的学習」を謳う中、本物の自己学習と単なるメモ機能の違いを見極める視点について考察します。

読む →
第1回:きっかけと全体像 — ChatGPTがファンドマネージャーに勝った日 連載

第1回:きっかけと全体像 — ChatGPTがファンドマネージャーに勝った日

ChatGPTがプロのファンドマネージャーを上回ったという実験に触発され、LLMファインチューニングで日本株の株価予測AIサービス「千里眼」を構築するまでの全体像を紹介します。

読む →
第3回:LoRAと量子化の技術解説 — LLMを軽くする仕組みたち 連載

第3回:LoRAと量子化の技術解説 — LLMを軽くする仕組みたち

LLMファインチューニングに不可欠な軽量化技術であるLoRA、量子化、QLoRAの仕組みを解説し、架空の事実をモデルに学習させる「富士山実験」で技術の有効性を実証します。

読む →
第4回:Colabで株価予測 — 3モデルの試行錯誤 連載

第4回:Colabで株価予測 — 3モデルの試行錯誤

Google ColabのT4 GPUでELYZA 8BとLLM-jp 7.2Bを使い株価予測ファインチューニングに挑戦。精度不足に直面しつつも、追加学習やGGUF変換など多くの技術的知見を得た過程を記録します。

読む →
第2回:ローカルGPUでの挑戦と挫折 — RTX 3060の6GBで8Bモデルに挑む 連載

第2回:ローカルGPUでの挑戦と挫折 — RTX 3060の6GBで8Bモデルに挑む

ノートPC搭載のRTX 3060(6GB VRAM)でELYZA 8Bモデルのファインチューニングに挑戦し、VRAM不足で断念するまでの過程と、そこから得た教訓を記録します。

読む →
第5回:OpenAI APIファインチューニング — 約8分で完了した最終解 連載

第5回:OpenAI APIファインチューニング — 約8分で完了した最終解

OpenAI APIのファインチューニングでgpt-4o-miniをカスタマイズし、約8分の学習で安定したJSON出力と十分な予測精度を実現。データ準備の苦労と、Colabとの決定的な違いを詳しく解説します。

読む →
第7回:翻訳LLMの選定 — DeepSeekからChatGPTへ 連載

第7回:翻訳LLMの選定 — DeepSeekからChatGPTへ

翻訳用LLMプロバイダとしてDeepSeekを導入したところ、処理速度・中国語混入・入力データ漏洩の3つの問題が発生。ChatGPTへの統一に至った経緯と、LLMプロバイダ選定の教訓をまとめます。

読む →
第6回:訓練データの設計 — 5種類のデータをどう統合したか 連載

第6回:訓練データの設計 — 5種類のデータをどう統合したか

LLMファインチューニングにおける訓練データの設計思想を解説。企業情報・ニュース・株価・財務・マクロ経済指標の5種類のデータ統合、正解ラベルの作り方、8バージョンに及ぶ試行錯誤の過程を記録します。

読む →
第3回 個人開発でできるリアルタイム翻訳 - Ollama・LM Studio・自宅GPUの限界 連載

第3回 個人開発でできるリアルタイム翻訳 - Ollama・LM Studio・自宅GPUの限界

RTX 3060でのローカルLLM検証:Ollamaのセットアップとクラッシュ、LM Studio 0.4.0のヘッドレスCLI、並列リクエスト制御のロック機構、モバイルLLMの実現可能性調査、そして多言語対応ガイド。

読む →