-
vllm
vLLM vs SGLang: LLM推論フレームワークの比較
-
テキスト生成
【openai, aiofiles, backoff】非同期の段階的推論パイプラインを構築する – LLMで合成データを作ろう
-
言語モデル
【Python】フォルダ配下のコードを一括でまとめる方法 – LLMでのコード生成への活用
-
Models
RLHFの報酬モデル分析:OpenAssistantの報酬モデルが日本語応答で機能するか調査してみた
-
テキスト生成
【Llama-2】8bit+LoRAでRLHFファインチューニングを試す【学習できることは確認】
-
Models
日本語版LIMAデータセットでopen-calm-7bをLoRAファインチューニングしてチャットボットを作成してみた
-
Datasets
日本語LIMAデータセットlima-jaを作成したので公開します
-
テキスト生成
cohesive AIの使い方を徹底解説!日本語でスマホからも利用可能!最新AIエディター機能を紹介!
-
テキスト生成
68億パラメータ日本語LLMが登場!サイバーエージェントが公開したモデルを試してみた!和製ChatGPTに成り得るのか?
-
言語モデル
Googleの対話型AI「Bard」の登録方法・使い方を徹底解説!性能をCHATGPTと比較してみた!
-
FastAPI
【FastAPI】uvicornコマンドでのpycache 生成させない方法
-
vllm
vLLM vs SGLang: LLM推論フレームワークの比較
-
テキスト生成
【openai, aiofiles, backoff】非同期の段階的推論パイプラインを構築する – LLMで合成データを作ろう
-
言語モデル
【Python】フォルダ配下のコードを一括でまとめる方法 – LLMでのコード生成への活用
-
uv
【Python】uvの使い方を忘れたときに見るための早見表
-
vllm
vllmがいつの間にかmacに対応してたので試す
-
mlx
MLXでSunoのBarkモデルの移植を試してみた
-
Models
RLHFの報酬モデル分析:OpenAssistantの報酬モデルが日本語応答で機能するか調査してみた
-
テキスト生成
【Llama-2】8bit+LoRAでRLHFファインチューニングを試す【学習できることは確認】
-
Pytorch
【Pytorch】nn.Identityの役割・使い方・メリットを徹底解説!入力を変換せずにそのまま出力する方法
