mmnga/cyberagent-open-calm-7b-gguf

jaggufgpt-neoxjalicense:cc-by-sa-4.0endpoints_compatibleregion:uscc-by-sa-4.0
9.6K

cyberagent-open-calm-7b-gguf

cyberagentさんが公開しているopen-calm-7bのggufフォーマット変換版です。

他モデルはこちら
mmnga/cyberagent-open-calm-7b-gguf
mmnga/cyberagent-open-calm-3b-gguf
mmnga/cyberagent-open-calm-1b-gguf

注意:こちらはブランチで試用になります。llama.cpp本家にgptneoxが実装された時に、このggufファイルが使用できない可能性があります。

GitHubリポジトリの readme はこちら

Usage (試用)

git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j
./main -m 'cyberagent-open-calm-7b-q4_0.gguf' -n 128 -p '吾輩は猫である。名前は実を言うと、'  --top_p 0.9 --temp 0.7 --repeat-penalty 1.1

CUBLAS

LLAMA_CUBLAS=1 make -j
./main -m 'cyberagent-open-calm-7b-q4_0.gguf' -n 128 -p '吾輩は猫である。名前は実を言うと、' -ngl 40
DEPLOY IN 60 SECONDS

Run cyberagent-open-calm-7b-gguf on Runcrate

Deploy on H100, A100, or RTX GPUs. Pay only for what you use. No setup required.