ローカルAI 最強LLM llama.cpp

こちらに書きました。

OSC名古屋2024で発表しました資料です。

 


cmakeで簡単にビルド出来るのでNetBSDでも動作しました。

CPUだけでも使えるフリーの量子化省メモリローカルLLMのllama.cppを入れて賢いデータセットでJava,PythonプログラムをAIに書かせてみた。オフラインでも使える。ジャンクノートPCでおけ。LLM禁止職場に最適。大変素晴らしい。メモリは8〜16GB程度必要。NetBSDでもビルド出来た

タグ:

+ タグ編集
  • タグ:
最終更新:2024年05月30日 12:01