Technically Impossible
id:espio999
GPU無し、RAM=8GBのLM Studio導入 - モデルのダウンロード、サーバ起動からエディタ連携まで
2023年のllama.cpp*1登場によって、GPU処理からCPU処理へのオフロードが可能となって以来、ローカル環境で生成AIを動作させることが現実的になった。本来、多くのVRAMが要求されるモデルでも、RAM=8GBの環境で動作させることも、難しいことではなくなった。さらにLM StudioとSML (Small Language Model)の登場により、その…