Stable diffusion などの画像生成系については触れてないです
個人的な意見です
LLM
- すべての機械学習の中心に LLM がいる
Fine Tuning と LLM
- 今は1から LLM を作る時代ではない
- GPT2 なりを Fine Tuning して独自の LLM を構築するのが主流 (というかクソ簡単だから
- ニューラルネットワーク、深層学習、keras、tensorflow、torch などを学ばなくても自作の LLM が作れる
- それにより HuggingFace や GPTs などに大量に独自 LLM が発生している
- そもそもベースとなる LLM を変えるだけでもいろいろと精度は変わりそう
Transformer
- 公開されているさまざまな LLM をローカルで簡単に動かすことができるツール
- これができたことにより Fine Tuning がより簡単にできるようになると理解
- 簡単 LLM 作成時代に突入するきっかけになった基礎技術
LangChain
- LLM に質問するだけだったものに質問の仕方を工夫することで Fine Turning しないでも独自の知識を持ったかのように LLM に回答されることができるようになるツール
- 例えばローカルで文章の類似度検索した結果を元に LLM にコンテキスト付きの質問をすることができる (Retrieval Chain と呼ばれる手法
- Retrieval Chain に限って言えば頑張るべきは類似度検索の精度/再現率になるので FAISS や ChromaDB のチューニング勝負になりそう
- FAISS や ChromaDB を使いこなす必要があるということ
- Fine Tuning とどっちがいい精度になるのかは不明
- そもそもベースとなる LLM を変えるだけでもいろいろと精度は変わりそう (Fine Tuning 同様
- Agent はあくまでも LLM を環境としてフィードバックループを繰り返す技術 (っぽい
- これが LLM + 特定の環境 (ゲームなど) にもフィードバックできるようになると便利そう (もうあるかも、参考
Classical Machine Learning
- すべて LLM で解決できるのかもしれない
- 二値判定、多値判定、クラスタリング、分類器などは LLM に質問するだけで処理してくれる
強化学習
- LLM と組み合わせて使うようになるのかもしれない (上記強化学習同様
- サンプル効率問題、次の行動の判断を LLM に任せる場合に何回尋ねるべきか、その場合のラグはどうなるのか (一応解決策があるらしいが
- 環境(主にゲーム)がすぐにフィードバックして画面で確認できるので楽しさはある
- プログラミングの導入でマイクラを使うように機械学習の導入でカートポールを使うのはどうだろうか
検索との使い分け
- 結局どっちを信じるかではある
- どちらも間違っている想定で最終的には自分で検証するのが一番
- どちらも問題を解決するためのアプローチでしかないと思うが LLM は Agent 化して解決までやってくれる可能性はある
Apple Sillicon について
- モデルを学習するのに Apple Sillicon 対応していないケースが多い
- pytorch などの基礎となるライブラリは対応しているがそれを扱うツール系が対応していないケースが多い
- 対応していないと全く使えないケースや CPU のみで動作するケースがある
- そこで登場したのが mlx
- M2 Mac の場合 LLM LoRA などはこれで作るのが最適
- 音声や画像関連も対応してくれるとうれしいがどうなるか不明
- なので全体としてやはり CUDA 優位な傾向がある
何かあったら追記するかも
0 件のコメント:
コメントを投稿