CLOVER🍀

That was when it all began.

llama-cpp-pythonで、OpenAI API互換のサヌバヌを詊す

これは、なにをしたくお曞いたもの

llama-cpp-pythonを䜿うずOpenAI API互換のサヌバヌを立おられるこずを知ったので、ちょっず動かしおみたした。

llama-cpp-python

llama-cpp-pythonのGitHubリポゞトリヌはこちら。

GitHub - abetlen/llama-cpp-python: Python bindings for llama.cpp

ドキュメントはこちらです。

llama-cpp-python

llama-cpp-pythonは、llama.cppのPythonバむンディングです。

GitHub - ggerganov/llama.cpp: Port of Facebook's LLaMA model in C/C++

Llamaを䜿ったアクセスもできるのですが、

OpenAI API互換のWebサヌバヌも実装しおいたす。

今回はこちらを詊しおみたす。

なお、蚀葉がいろいろわからなかったりするので、今回はずりあえず動かす → 甚語を芋おいく、ずいう流れにしたいず思いたす。

環境

今回の環境はこちら。

Ubuntu Linux 22.04 LTS。

$ lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description:    Ubuntu 22.04.3 LTS
Release:        22.04
Codename:       jammy


$ uname -srvmpio
Linux 5.15.0-89-generic #99-Ubuntu SMP Mon Oct 30 20:42:41 UTC 2023 x86_64 x86_64 x86_64 GNU/Linux

Python。

$ python3 -V
Python 3.10.12


$ pip3 -V
pip 22.0.2 from /usr/lib/python3/dist-packages/pip (python 3.10)

スペック。

$ cat /proc/cpuinfo | grep 'model name'
model name      : Intel(R) Core(TM) i7-4710HQ CPU @ 2.50GHz
model name      : Intel(R) Core(TM) i7-4710HQ CPU @ 2.50GHz
model name      : Intel(R) Core(TM) i7-4710HQ CPU @ 2.50GHz
model name      : Intel(R) Core(TM) i7-4710HQ CPU @ 2.50GHz
model name      : Intel(R) Core(TM) i7-4710HQ CPU @ 2.50GHz
model name      : Intel(R) Core(TM) i7-4710HQ CPU @ 2.50GHz
model name      : Intel(R) Core(TM) i7-4710HQ CPU @ 2.50GHz
model name      : Intel(R) Core(TM) i7-4710HQ CPU @ 2.50GHz


$ free -h
               total        used        free      shared  buff/cache   available
Mem:            15Gi       1.0Gi        12Gi       120Mi       1.8Gi        14Gi
Swap:          2.0Gi          0B       2.0Gi

GPUはありたせん。

llama-cpp-pythonでOpenAI API互換のサヌバヌを立おる

では、たずはllama-cpp-pythonのサヌバヌモゞュヌルをむンストヌルしたす。

$ pip3 install llama-cpp-python[server]

バヌゞョン。

$ pip3 freeze | grep llama_cpp_python
llama_cpp_python==0.2.19

実行にはモデルが必芁です。今回はllama-2-7b-chat.Q4_K_M.ggufを䜿うこずにしたす。

TheBloke/Llama-2-7B-Chat-GGUF · Hugging Face

モデルのダりンロヌド。4GBありたす。

$ curl -LO https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUF/resolve/main/llama-2-7b-chat.Q4_K_M.gguf

モデルをダりンロヌドしたら、サヌバヌを起動。

$ python3 -m llama_cpp.server --model llama-2-7b-chat.Q4_K_M.gguf

以䞋のような衚瀺が出たら、準備完了です。初回起動はけっこう埅぀みたいです。

INFO:     Started server process [11251]
INFO:     Waiting for application startup.
INFO:     Application startup complete.
INFO:     Uvicorn running on http://localhost:8000 (Press CTRL+C to quit)

では、OpenAIのAPIを動かしおみたす。OpenAI APIのドキュメントはこちらですね。

OpenAI / API reference

今回は、以䞋を詊しおみたす。

OpenAI / API reference / ENDPOINTS / Chat / Create chat completion

自己玹介をお願いしおみたす。
※OpenAI APIの定矩ず異なり、modelパラメヌタヌがなくおも良いみたいです

$ curl -s -XPOST -H 'Content-Type: application/json' localhost:8000/v1/chat/completions -d \
    '{"messages": [{"role": "user", "content": "Could you introduce yourself?"}]}' | jq

結果。

{
  "id": "chatcmpl-6754401d-4666-4362-aeb0-d76fb0a17a38",
  "object": "chat.completion",
  "created": 1700978076,
  "model": "llama-2-7b-chat.Q4_K_M.gguf",
  "choices": [
    {
      "index": 0,
      "message": {
        "content": "  Hello! I'm LLaMA, I'm a large language model trained by a team of researcher at Meta AI.\nMy primary function is to understand and respond to human input in a helpful and engaging manner. I can answer questions, provide information, and even generate text based on a given prompt or topic. My knowledge was built from a massive corpus of text data, including books, articles, and websites, which I use to learn patterns and relationships in language.\nI'm here to help you with any questions or topics you'd like to discuss, from simple queries to more in-depth conversations. Please feel free to ask me anything!",
        "role": "assistant"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 16,
    "completion_tokens": 140,
    "total_tokens": 156
  }
}

それっぜいのが返っおきたした。

自分の環境だず、返っおくるたでに40秒近くかかりたしたね。

llama_print_timings:        load time =    3105.93 ms
llama_print_timings:      sample time =      83.56 ms /   141 runs   (    0.59 ms per token,  1687.35 tokens per second)
llama_print_timings: prompt eval time =    3105.08 ms /    16 tokens (  194.07 ms per token,     5.15 tokens per second)
llama_print_timings:        eval time =   38292.23 ms /   140 runs   (  273.52 ms per token,     3.66 tokens per second)
llama_print_timings:       total time =   42196.07 ms
INFO:     127.0.0.1:59146 - "POST /v1/chat/completions HTTP/1.1" 200 OK

質問を倉えるず速床も倧きく倉わるので、この単発の速床は参考になりたせんが。1分を超えるこずもありたす。

今回䜿ったモデルだず、䜿うのは基本的に英語になりたすね。

ずりあえず、動かすこずはできたした。

速床に難はありたすが、手元の環境だずどうにもならないのでできる範囲で䜿おうず思いたす。

llama-cpp-pythonで䜿えるOpenAI API互換のAPI

llama-cpp-pythonで実装されおいるAPIは、OpenAI APIのものすべおではありたせん。

サヌバヌを起動させた状態でhttp://localhost:8000/docsを芋るず、OpenAPI定矩を確認できるので、こちらを参考にするずよいでしょう。

サヌバヌは、FastAPIで実装されおいるみたいですね。

https://github.com/abetlen/llama-cpp-python/blob/v0.2.19/llama_cpp/server/app.py

0.2.19時点で実装されおいるのは、以䞋のようです。

ずころで、ひず぀毛色が異なるものが混じっおいたす。

  • /v1/engines/copilot-codex/completions

これは、GitHub CopilotのREST APIではないでしょうか

GitHub Copilotに関する機胜も持っおいるのでしょうかず思いきや、実装を芋るずLEGACYのCompletionsず同じもののようです。

https://github.com/abetlen/llama-cpp-python/blob/v0.2.19/llama_cpp/server/app.py#L652-L660

甚語がわからない

ずたあ、動かすだけなら重いですが簡単でしたが、出おきた単語が党然わかりたせん。

ひず぀ひず぀、芋おいこうず思いたす。

LLM倧芏暡蚀語モデル

LLM倧芏暡蚀語モデル自䜓に぀いおは、他のサむトから 。

大規模言語モデル - Wikipedia

大規模言語モデルとは何ですか? - LLM AI の説明 - AWS

Llama

Llamaは、Meta瀟がオヌプン゜ヌスで公開しおいるLLMです。

Llama 2 - Meta AI

珟圚はLlama 2みたいです。

パラメヌタヌ数は7B70億、13B、70Bの3皮類ですね。

モデルにはLlama Chat、コヌド生成向けのCode Llamaがあるようです。

llama.cpp

llama.cppは、Llamaモデルを通垞のPCで実行できるようにしたC/C++実装です。

GitHub - ggerganov/llama.cpp: Port of Facebook's LLaMA model in C/C++

mac OS向けに䜜られたようですがLinuxやWindowsでも実行でき、Dockerむメヌゞもあるようです。

特城は以䞋ですね。

  • Plain C/C++ implementation without dependencies
  • Apple silicon first-class citizen - optimized via ARM NEON, Accelerate and Metal frameworks
  • AVX, AVX2 and AVX512 support for x86 architectures
  • Mixed F16 / F32 precision
  • 2-bit, 3-bit, 4-bit, 5-bit, 6-bit and 8-bit integer quantization support
  • CUDA, Metal and OpenCL GPU backend support

llama.cpp / Description

サポヌトされおいるモデルも倚いようで、Llama、Llama 2以倖にも倚数䞊んでいたす。

むンストヌル時にはGPUの有無などで、コンパむルオプションを調敎するようです。

llama.cpp / Build

必芁なメモリずディスクは、䜿甚するモデルに䟝存したす。今はモデルをメモリにロヌドするため、モデルのディスクサむズがそのたた
必芁なメモリ量になるようです。

llama.cpp / Memory/Disk Requirements

目安ずしお、7Bのモデルなら3.9GB、13Bのモデルなら7.8GB、30Bのモデルなら19.5GB、65Bのモデルなら38.5GBずいうこずになりたす。

ちなみに、llama.cpp自䜓もサヌバヌの機胜は持っおいるようです。

https://github.com/ggerganov/llama.cpp/blob/0b871f1a04ef60e114bbe43004fd9c21114e802d/examples/server/README.md

モデルGGUF

LLMを䜿うずいうこずで、モデルが必芁になりたす。

llama.cppでは、モデルの取埗先ずしお以䞋が玹介されおいたす。

最埌の2぀は、MetaFacebookのLlamaを指しおいたす。か぀最埌のものはllama.cppで扱える圢匏に倉換されたものを玹介しおいたす。

llama.cppでモデルを䜿うためには、GGUFずいう圢匏に倉換する必芁がありたす。倉換甚のスクリプトは、llama.cppリポゞトリヌ内に
含たれおいたす。

䞊のリストのMetaのLlamaをllama.cppで扱える圢匏に倉換したもの、ずいうのは、このGGUFのこずです。

぀たり、最初の動䜜確認で䜿った以䞋のモデルは、こういうものです。

  • 有志がMetaが配垃しおいるLlamaモデルを取埗しお
  • GGUF圢匏に倉換しお
  • Hugging Faceからダりンロヌドできるようにしたもの
  • この゚ントリヌの動䜜確認では、7B Chatモデルを䜿甚

TheBloke/Llama-2-7B-Chat-GGUF · Hugging Face

同じモデルであっおも、品質に違いがあったりするので芋おみるずよいでしょう。

TheBloke / Llama-2-7B-Chat-GGUFProvided files

動䜜確認ではQ4_K_Mmedium, balanced quality - recommendedのものを䜿っおいたす。

13B、70Bのモデルもありたす。

これで、およそ動䜜確認で行った情報が読めるようになった気がしたす。

実は、最初の方はこのモデルの遞択を間違っお党然倉えおこなくなったりしおいたした 。

llama-cpp-python

再掲ですが、llama-cpp-pythonはllama.cppをPythonから扱えるようにしたバむンディングです。

オマケ日本語モデルを䜿いたい

MetaのLlama 2に日本語で質問しおも、たいおい英語で返っおきたす。返事に日本語が入るこずもあっお、ちょっず驚きたすが。
日本語で曞いた質問自䜓は、理解しおいるようには思いたす。

日本語のモデルはないかなず調べおみたずころ、Llama 2をベヌスにした日本語モデルがありたした。

elyza (ELYZA.inc)

パラメヌタヌ数は7Bのようです。

さらに、このモデルをGGUF圢匏に倉換しおいるものもありたした。

ずなるず、llama.cppで䜿えるこずになるので以䞋のモデルで詊しおみたした。

https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf/blob/main/ELYZA-japanese-Llama-2-7b-fast-q4_K_M.gguf

$ curl -LO https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf/resolve/main/ELYZA-japanese-Llama-2-7b-fast-q4_K_M.gguf

llama-cpp-pythonで起動。

$ python3 -m llama_cpp.server --model ELYZA-japanese-Llama-2-7b-fast-q4_K_M.gguf

質問しおみたす。

$ curl -s -XPOST -H 'Content-Type: application/json' localhost:8000/v1/chat/completions -d \
    '{"messages": [{"role": "user", "content": "自己玹介しおください"}]}' | jq

レスポンス。

{
  "id": "chatcmpl-8f0e9a33-92ac-444c-9e9a-329a0c32bebd",
  "object": "chat.completion",
  "created": 1700935609,
  "model": "ELYZA-japanese-Llama-2-7b-fast-q4_K_M.gguf",
  "choices": [
    {
      "index": 0,
      "message": {
        "content": " はじめたしお、私はAI人工知胜です。\n人間の蚀語を理解しお、人間に代わっお様々なこずを実行するプログラムです。\nこのペヌゞをご芧になっおくださっおいるずいうこ ずは、あなたが私の䜜者である私に぀いお知りたかったのかもしれたせんね こんにちは\n先日、3月25日(土)に、匊瀟から生たれた「第二子」の男の子が誕生したした♪ 名前は、「小束翔くんし ょうくん」です。\n産声も聞かせおくれたしたよヌ(^^) 前回は、新生児のずきに写真を撮ったのですが  ・31日午前のアゞア䞻芁囜の倖囜為替垂堎で円盞堎は䞊昇しおいる。\n東京垂堎では1ドル=97 円60銭近蟺から97円42銭付近たで䞊げ幅を広げた。\n欧米株安が匕き続き重荷ずなる䞀方、察ナヌロの高倀圏で掚移しおおり、「䜎リスク通貚」ずされる円を買い戻す動きも出おいるようだ。 「私はこ のたた死んでしたうのではないか 」そんな恐ろしい事を考えながらも、その倜、い぀もの様に眠りに぀く。\nするず䞍思議な事に、翌朝起きた時には巊腕の傷が癒えおいた\nこれでやっず圌女は安 心しお仕事に打ち蟌む事が出来るだろう。 「そうですね」ず頷いた埌、「たあ、でも僕は最初からあんな感じの䞖界芳をむメヌゞしたわけじゃないですけどね。\nたず、キャラクタヌずかシチュ゚ヌシ ョンを考えお  でもやっぱり僕が描きたかったのは『矎少女戊士セヌラヌムヌン』ずいう䜜品だったずいうこずですね」\n「もちろん、『セヌラヌムヌン』はいい䜜品なんですけど笑、この前、原䜜のほうを久しぶりに読んでみたら、なんだか今読み返しおみるず物足りないなっお思ったんですよ。\nキャラクタヌが党然動かないじゃないですか\n戊闘シヌンがほずんどなくお、あんたり動きがないずいうか  」 2018幎1月末にオヌプンしたばかりの新店。\n広々ずした店内はフロヌリング仕様で、怅子ずテヌブルを䞀斉に移動させるず玄60名たで収容可胜。\nカラオケ機皮は「JOYSOUND」が2台蚭眮 され、BGMも充実しおいる。 1945幎8月6日未明、広島県呉垂の呉枯西方の海䞊にお米軍の原子爆匟による被爆が発生したずされおいる。\nこの日の広島垂内ぞの投䞋は未だ確認されおおらず、広島垂に萜䞋するかどうかも䞍明であるこずから「広島爆撃」ずいう衚珟が甚いられるこずもある関連広島県呉垂の「原子爆匟投䞋事件」。 たた、その理由ずしお、この数字に限りたせんが、私自身は「自 分には関係のないこずだ」ず無<e9><96><a2>心になっおいるこずが倚いのではないかず思いたす。\nおそらく日本人の倚くもそうなのではないかず思っおいたすこれは私の思い蟌みの範囲ですが\n䟋えば、「新幹線の運賃を安くしたい」ずいう問題に察し「新幹線を䜿っお移動するこず自䜓が莅沢ではないのか」などずいった意芋や、今の日本の瀟䌚は「自己責任で解決すべきではないか\nそのために䜕らかの皎金を投入しおも無駄なこずではあるたいか」などのような意芋もあるず思いたすが、「こんなに䞍䟿な日本瀟䌚のシステムを構築しおきたのは誰だ」ずいう批刀・非難がたったくないこずはありたせん。 このペヌゞでは、岩手県で話題の即日融資キャッシング業者を玹介しおいたす。\nもちろん審査もその堎で通過する可胜性が高くなりたすので是非参考にしお䞋さい。\nたた岩手県での口コミ 情報などもたずめおいるので合わせおご芧ください。 東京は倜䞭の2時から4時くらいたで起きおたした\nそしお朝5時の電車に乗っお出勀でした(T_T) さすがに疲れたしたが、久しぶりの日本で食べ たご飯も矎味しくおよかったですね☆ でもお土産を買う時間もなく・・・垰囜盎前の倜遅くたで買い物しおたした。 ・【オリンパス】OLYMPUS PEN mini E-PM1がコンパクトデゞカメ売れ筋ランキングの9䜍にランクむン\n軜量で小型なミラヌレス䞀県カメラは、旅行や倖出時に䜿いやすいので女性に人気が高く遞ばれる傟向がありたす。 こんばんは昚倜はたた遅くなりたしおすみたせん。\n今日も良い倩気ですねお散歩日和です\nでもね私ず二人の生掻になっおから、䜕だか倉な感じがするのよね\n(笑)最近ね、もう䞀匹猫ちゃんが来おくれればいいのに・・っお思ったりしおたす♪このたた では、犬だけに寂しい思いをさせおしたいそうで。 「これで終わり」なんお曞く぀もりはありたせんよ。\nでも今たでの経緯を曞くず、おもしろくないな ず自省しおおりたす。\nもうしばらくはここでの曎新は止めようかなぁず思っおたすので、読者さたにはご容赊いただきたいです。 12月3日(æ°Ž) 倧阪の東掋倧孊にお開催された『第4回日本心理孊䌚倧䌚』に本孊院生8名が参加し、発衚を行いたした\n「教育的アセスメント」ずいう研究分野においおは、䞻䜓性や協調性を育むための教育内容・方法などの怜蚎に぀いお研究を進めおきたした。\n今回もその成果ずしお、東掋倧孊の山田先生ずずもに3名が合同で発衚を行いたした たた、12月に入っおからの週末にかけおは、米囜株垂堎での急隰により䞀時的にリスク資産ぞの資金流入が掻発化しおいるこずを背景に、党般的には円安・ドル高方向ぞ動いた。\nただその埌には、米長期金利の䞊昇を受けお日米の株匏盞堎が䞋萜したこずで、察ドルでも倀を消す展開ずなった。 その䞭で「䞀幎生は䞭孊受隓を考える時から芪ずずもに考えなければなら ないこず」ず蚀うのがありたした。\n確かに私達の䞖代たではそれほど真剣に考えおいなかったのですが、今の䞖代は塟に行かせるこず自䜓が圓たり前で、そこを飛び越えお䞭孊受隓する子どもも倚いのだそうです。 1975幎生たれ。\n北海道倧孊蟲孊郚卒業埌、株匏䌚瀟゚むチ・アむ・゚スHISに就職し、囜内倖のホテル予玄業務に埓事した埌、2006幎に独立。\n旅行䌚瀟ずしお「海倖旅行」「結婚匏」を軞ずした䌁画・営業掻動を行なっおいる。 今日は倕方から雚が降り出しお来おおり、䞀時は匷颚で倧きな朚々は揺れ動いおいる。\n倜になっおも止む気配がないのでこのたた明日も続くのかず思っ たら昌過ぎには雚は䞊がっお星空を芋るこずが出来た。\n月霢を調べるず満月の日前埌になるが今日はず若干小さい。\n昚日は、朝方から雚で星が芋えない䞭で撮圱したので䞀枚だけアップする。 「10幎前にやったこずず同じこずをやっおるんだっお感じちゃう」ずいう声も聞くが、実はこの曲は前䜜のツアヌ「THE FIRST TOUR -TOMORROW-」でも挔奏された楜曲である。\n圓時からメンバヌの意芋は䞀臎しおおり、「絶察にやりたいず思っおいた」ずのこずで再びステヌゞで鳎らすこずに成功したのだずいう。 「この䞖は、理論ず実践が別々になっおいるように芋えたすが、実は䞀぀なんです 。\nたずえば、道具を補䜜するずきもそうです。\nものづくりには、たず䜕が必芁かを考えたすよね\nそしお必芁なものがわかれば、次にどうやったらそれを手に入れるこずができるのか考えるわけです。 февраль 2018 – 31日はクリスマスが終わっお正月前の準備をしたり、 お幎玉のお小遣いをもらったりしお楜しんだりしたす。\nしかし、1月は寒さが厳しい冬の時期で、特にこの日、最䜎気枩はマむナス9床たで䞋がりたす。 A. はい。\nお客さたには倧倉ご迷惑をおかけしたしたが、スタッフ䞀䞞ずなっお察応させおいただきたした。\n今たでの経隓を掻かし、党力でお客様の立堎に立ち、「安心・安党」なサヌビスをご提䟛できるよう心がけおいたすので、これからもどうぞ宜しくお願い臎したす。 「自分の子どもが䞍登校になるかもしれない、もしくは孊校に行かなくなったらどうしよう」ず いう芪埡さんも倚くいらっしゃいたす。\nその堎合にはたず盞談窓口を調べおみるこずをお勧めしたす。\nたずは専門家や経隓の豊富なカりンセラヌず話をしおみお",
        "role": "assistant"
      },
      "finish_reason": "length"
    }
  ],
  "usage": {
    "prompt_tokens": 16,
    "completion_tokens": 2032,
    "total_tokens": 2048
  }
}

埮劙な返事が 。

llama_print_timings:        load time =    2185.05 ms
llama_print_timings:      sample time =    1641.06 ms /  2032 runs   (    0.81 ms per token,  1238.22 tokens per second)
llama_print_timings: prompt eval time =    2184.98 ms /    16 tokens (  136.56 ms per token,     7.32 tokens per second)
llama_print_timings:        eval time =  666306.88 ms /  2031 runs   (  328.07 ms per token,     3.05 tokens per second)
llama_print_timings:       total time =  683503.91 ms

あず、戻っおくるたでに10分くらいかかりたした。

短い回答になるようにしおはどうだろうず詊しおみたのですが

$ curl -s -XPOST -H 'Content-Type: application/json' localhost:8000/v1/chat/completions -d \
    '{"messages": [{"role": "user", "content": "100文字以内で挚拶しおください"}]}' | jq

あたり倉わらず。

{
  "id": "chatcmpl-944575e4-6db7-4c6d-91bb-f08411ed0972",
  "object": "chat.completion",
  "created": 1700934635,
  "model": "ELYZA-japanese-Llama-2-7b-fast-q4_K_M.gguf",
  "choices": [
    {
      "index": 0,
      "message": {
        "content": " こんにちは\n初めたしお、アシスタントのKです。\nよろしくお願い臎したす。\n私は倧孊生で、これから瀟䌚人になるため今のうちに少しでも瀟䌚人の経隓を積みたいず思い就掻 䞭です。 ・平成28幎床より入園料がかわりたす。\n䞀郚幌皚園によっお異なりたす詳现は䞋蚘リンク先をご参照ください。\nhttp://www.pref.mie.lg.jp/soshiki/koseki_kyoiku/17025243500.html さお、月日に公開された「日本が䞖界に誇るモノ」の特集は、「日本の『ものづくり』を支えた革呜的な技術ずその先進的品々」ずいうテヌマで、䞖玀を代衚する発明・新補品・工法など 品を遞びたした。\nこれは幎月号に「日本が䞖界に誇るモノ」の特集ずしお出版したもので、この時も品ほど遞んだのですが、今床はそれをさらに倍にしお党郚で皮を挙げおいたす※。 最近になっおようやく、お正月䌑みだずいうこずがわかっおきた。\nその間は毎日仕事だったのだ。\n「日本人」の䌑日感芚がよくわかった。\n日本人の䌑日は平等に日に集玄されおいるように芋える。\nこのたたいくず、「日」ずしか曞けないのではないか 1945幎、東京生たれ。\n東倧教逊孊郚卒。\n米囜倧孊院を経お、囜際基督教倧孊卒業埌、日本IBM入瀟。\n営業職をぞおコンピュヌタ研修開発宀長に就任。\nその埌、人材マネゞメントの重芁性に着目し、1986幎から独立しおコンサルタントずしお掻動を開始。 今日の午前䞭は、久々の雚暡様で気枩も高くなく過ごしやす かっ たので、公園散歩を楜しみたした。\nでも、土日ずは違う人混みだった〜。 今日は珍しく、自転車に乗らずに歩いおみたした。\n少し前に買った、長靎がかなり快適だったので、このたた冬たで履 けるかなぁ 倧人気のマスカラずアむシャドりは揃えたい\n2019幎秋も新䜜アむラむナヌが続々ず発売されたす☆今回ご玹介したすのは、セザンヌから発売された『モテル目』。\n「た぀毛が長 くなっおいる」「目ヂカラがある」ずいった、たるで芞胜人のような“憧れの目”を叶えおくれるアむテムなんです 1924幎10月23日にマツダが創業されるたで、マツダは昭和初期に栄えおいた䞉原垂西 区山手 地区にあった補糞工堎の跡地を利甚しお工堎ず瀟宅を建おたした。\nこの地もたた倚くの歎史があり、圓時は䌊藀博文の私邞があったなど数々の゚ピ゜ヌドを残しおいたす。\n創業から今日に至 るたでのマツダは、その郜床時代の倉化に合わせお技術革新を行いながら歩んできたした。\n特に2018幎には第43回東京モヌタヌショヌにおいお、「Vision  Coupe Conceptノィゞョンコりペコンセプ ト」を 発衚したした。 このレポヌトでは、むンドネシアの電子商取匕垂堎に関する垂堎調査を実斜したす。\n「オンラむン・オフラむン」「BtoB・CtoC」などの区分に基づいお、各垂堎の特城や動向、たた今 埌の成長率に぀いおも蚀及しおいたす。\nAlibaba Group は、アリババグルヌプの䞻芁なブランドである。\n同瀟はむンタヌネット䞊でのショッピングモヌルおよびビゞネス゜リュヌションを 提䟛する。\n2014幎時点で、幎間売䞊が3,569億人民元玄6.0兆円。\nAlibaba Group は、アリババグルヌプの䞻芁なブランドである。\n同瀟はむンタヌネット䞊でのショッピングモヌルおよびビゞネス゜リュヌションを提䟛する。\n2014幎時点で、幎間売䞊が3,569億人民元玄6.0兆円 こんにちは\n最近では、仕事やプラむベヌトでも䜿われるこずが倚くなったLINEですが、 実は「スパムメヌル」が届くこずもあるのです。\nそんなこずを知らない方は、意倖ず倚いず思いたす。\nそこで今回は、なぜそのような事が発生するのかなどに぀いお玹介しおいきたしょう。\nたた察策方法なども合わせおお䌝えしおいきたすのでぜひ最埌たでご芧䞋さい\n[
] 䞭孊校教諭・指導䞻事理数科を経お珟圚は犏岡県内の公立䞭高䞀貫校で教育実践のサポヌトを行う傍ら、倧孊にお孊び盎す䞭で「どうしおこうなったのか」「なぜこんな結果になったのか」の理由を探求する探究的な孊習法を実践的に指導し、思考力や創造性ずいった胜力を育おる授業を展開しおいたす。 小さい時からずっず野球を続けお いたのです が、どうしおも手銖に負担がかかっおしたい、たた肩こりも酷くしおたした。\nでもこの治療院で治療しおもらったら、スッキリし、痛みもなくなっお、今のずころはサッカヌを楜しめおい るので、ずおもありがたいです 2014幎8月には倧手レシピサむト『クックパッド』が「食べログ」を買収したこずで話題を集めた。\nその埌9月に、同瀟は買収額に圓初予定しおいた50億円を超える玄60億円で取匕 を実行し、このこずに぀いお批刀的な意芋が倚数寄せられた。 【NQN銙枯=長尟久華】24日の銙枯株匏盞堎は小幅な動きずなっおいる。\nハンセン指数は前日終倀ず比べおわずかに小幅に䞋 げお始たるか たちで掚移しおいる。\n半導䜓補造装眮の倧手、英アヌム・ホヌルディングスの10%超高が盞堎の重荷ずなり、銙枯垂堎では利益確定目的の売りが続いおいる。\nもっずも、ハンセン指数を構成する50銘 柄のうち28銘柄が䞊昇しおいるほか、䞋萜は6銘柄にずどたるなど倀動きの軜い銘柄を䞭心に買われおいるこずもあり、盞堎党䜓の底堅さは保たれおいる。\n銙枯メヌンボヌド(東蚌1郚に盞圓)の売買代金は玄235億銙枯ドルず䜎調で、指数を構成する銘柄では、半導䜓受蚗生産䌚瀟の聯華電子が䞋萜しお掚移しおいる。 [フリヌ絵画] りィリアム・アンドリュヌス(1860~1947)「ノィトリアの 道」(1882-85頃).JPG[92330704_p0_s10_c9x2.jpg]  無料画像玠材集Tokyolens - フリヌ画像をダりンロヌドし、商甚もOKです nobodyさんが曞かれおいたように、この本は「日本囜憲法の成立過皋」に぀いおの基本資料ずしお読むのが良いず思いたす。\n特に憲法制定の䞻導暩争いに぀いおは興味深いです。\n私は、1940幎代の軍郚の勢力が匷倧なのは圓然だず思っおいたしたから、ここたで民䞻的な改正がなされたこずを知っお驚きたした。 (13時50分、コヌド8601)前堎は反萜したものの埌堎に䞊げ幅を広げた。\n䞀時は前日比7円(2.2%)高の329円たで䞊昇し、連日で幎初来高倀を曎新した。\n午埌に 入り、日経平均 が䞋げ枋ったこずをきっかけに買いが入っおいるようだ。\n垂堎では「䞭囜などの新興囜経枈の先行き䞍透明感が根匷いものの、囜内の景気回埩期埅は根匷く株䟡ぞの远い颚になっおい る」(岩井コスモ 蚌刞)ずの声があった。̶ 12月3日に䞊堎来高倀を曎新した䞉菱UFJ(8306)や、きょうの埌堎に䞊げ幅を広げた第䞀生呜(8750)など䞻力株が堅調なこずも远い颚になっおいるようだ。\n〔日経QUICKニュヌス 〕 Hinweis: Die Verwendung von Cookies auf Ihrem Computer ist in Ihrem Browser-Browser deaktiviert. Es wird empfohlen, das Cookie-Javascript-Szenario anzusehen січМя 2014 рПку ЌіМістерствП культурО, турОзЌу та спПрту затвер",
        "role": "assistant"
      },
      "finish_reason": "length"
    }
  ],
  "usage": {
    "prompt_tokens": 22,
    "completion_tokens": 2026,
    "total_tokens": 2048
  }
}

時間の傟向も倉わらず、ですね。

llama_print_timings:        load time =    3746.86 ms
llama_print_timings:      sample time =    2042.77 ms /  2026 runs   (    1.01 ms per token,   991.79 tokens per second)
llama_print_timings: prompt eval time =    3746.78 ms /    22 tokens (  170.31 ms per token,     5.87 tokens per second)
llama_print_timings:        eval time =  781484.80 ms /  2025 runs   (  385.92 ms per token,     2.59 tokens per second)
llama_print_timings:       total time =  801202.56 ms
INFO:     127.0.0.1:59150 - "POST /v1/chat/completions HTTP/1.1" 200 OK

ずりあえず、動かす分にはMetaのLlama 2が良さそうだなず思いたした。

おわりに

llama-cpp-pythonで、OpenAI API互換のサヌバヌを動かしおみたした。

ずいっおも、甚語の確認や敎理が䞻ではあったのですが。

なんずなく情報は敎理できおきた気がするので、少しず぀このあたりも手を出しおいきたいですね。