「継続的学習」の虚実 ― AIは本当に自ら進化できるのか
多くのAIサービスが「継続的学習」を謳う中、本物の自己学習と単なるメモ機能の違いを見極める視点について考察します。
「LLM」タグの記事(11件)
多くのAIサービスが「継続的学習」を謳う中、本物の自己学習と単なるメモ機能の違いを見極める視点について考察します。
ChatGPTがプロのファンドマネージャーを上回ったという実験に触発され、LLMファインチューニングで日本株の株価予測AIサービス「千里眼」を構築するまでの全体像を紹介します。
LLMファインチューニングに不可欠な軽量化技術であるLoRA、量子化、QLoRAの仕組みを解説し、架空の事実をモデルに学習させる「富士山実験」で技術の有効性を実証します。
Google ColabのT4 GPUでELYZA 8BとLLM-jp 7.2Bを使い株価予測ファインチューニングに挑戦。精度不足に直面しつつも、追加学習やGGUF変換など多くの技術的知見を得た過程を記録します。
ノートPC搭載のRTX 3060(6GB VRAM)でELYZA 8Bモデルのファインチューニングに挑戦し、VRAM不足で断念するまでの過程と、そこから得た教訓を記録します。
OpenAI APIのファインチューニングでgpt-4o-miniをカスタマイズし、約8分の学習で安定したJSON出力と十分な予測精度を実現。データ準備の苦労と、Colabとの決定的な違いを詳しく解説します。
翻訳用LLMプロバイダとしてDeepSeekを導入したところ、処理速度・中国語混入・入力データ漏洩の3つの問題が発生。ChatGPTへの統一に至った経緯と、LLMプロバイダ選定の教訓をまとめます。
LLMファインチューニングにおける訓練データの設計思想を解説。企業情報・ニュース・株価・財務・マクロ経済指標の5種類のデータ統合、正解ラベルの作り方、8バージョンに及ぶ試行錯誤の過程を記録します。
RTX 3060でのローカルLLM検証:Ollamaのセットアップとクラッシュ、LM Studio 0.4.0のヘッドレスCLI、並列リクエスト制御のロック機構、モバイルLLMの実現可能性調査、そして多言語対応ガイド。