オラマの使い方 初心者向けです。
ダウンロード、インストール

Win版は以下より。
使い方
クライアント版が起動。クラウド版はすぐ利用可能。
他LLMはダウンロードしてから利用します。

基本的なヘルプは以下。
ollama --help
以下でローカルLLMをダウンロードします。
「Llama3」で4.9GB. 「Llama3」は、
時間がかかるのでしばし休憩。
ollama run llama3

以下で情報表示
/show info

llama3はうちからは「GeFoce RTX 3060 12GBメモリ」ですが快適に利用できます。
Pythonから使う
Pythonから利用
まずはライブラリをインストール
pip install ollama
あとはPythonから呼びましょう。
import ollama
response = ollama.chat(model='llama3', messages=[
{
'role': 'user',
'content': 'Llama 3の凄さを一言で教えて。回答は日本語で。',
},
])print(response['message']['content'])
実行するとこんな感じ。すぐ英語で答えようとするので(?)日本語で答えるようしっかり指示しておくといいです。

Webサーチ対応
以下のライブラリで検索を利用します。
pip install googlesearch-python ollama
Pythonはこんな感じ。