之前,本地安裝了大模型后,新鮮了幾天,然后就一直沒(méi)怎么用,直到偶遇這款插件 ollama-logseq。
如果你知道 obsidian 里的那款 copilot 插件的話,這款插件和它差不多。
先說(shuō)上手的感覺(jué)
我自己的感覺(jué)是,有了這款插件,logseq 和人工智能的距離,一下子拉近了不少。
這款插件,可以讓大模型運(yùn)行在塊之上,當(dāng)然也可以用在頁(yè)之上,可以任意提問(wèn),也可以命題作文。
具體運(yùn)行的效果,體現(xiàn)的是大模型的智力水平,如果不滿意就換一個(gè)模型試試,只要 ollama 里安裝的模型,都可以調(diào)用。
本地安裝大模型
首先,需要本地安裝了 ollama 框架 + 大模型,在瀏覽器訪問(wèn):localhost:11434,如果顯示 ollama 正在運(yùn)行,就可以走下一步:
11434 應(yīng)該是 ollama 默認(rèn)的一個(gè)端口,如果你要是改了的話,用你自己設(shè)置的訪問(wèn)端口,設(shè)置頁(yè)里有選項(xiàng),見(jiàn)下 ...
如果想要安裝本地大模型,可以參考我之前安裝 ollama 框架 + 大模型的過(guò)程,我一共折騰了兩次,你可以看看哪種方式更適合:
第一次,用命令行安裝大模型:160. 搭建本地運(yùn)行的 chatGPT
第二次,用 docker 安裝大模型:168. 本地運(yùn)行大模型,有必要嗎?
我本地目前用第二次的方法,在 docker 中穩(wěn)定運(yùn)行。
安裝插件 ollama-logseq
在 logseq 插件市場(chǎng)搜索上面的名稱,直接安裝。
如果訪問(wèn)插件市場(chǎng)很慢的話,私信 plugin ,后臺(tái)會(huì)回復(fù)一個(gè)百度盤的鏈接,下載其中的 “ollama-logseq-v1.1.3.zip”(157KB)。
插件配置
安裝插件后,打開(kāi)插件的配置頁(yè),上面的第一項(xiàng)就是設(shè)置本地大模型的訪問(wèn)端口:
第二項(xiàng) LLM Model,填上你自己本地安裝的大模型名稱,運(yùn)行時(shí)就會(huì)統(tǒng)一用這個(gè)選定的模型。
換模型時(shí),在這里修改名稱即可。在 ollama 或 webUi 中,查看本地已安裝的模型大模型。
其他項(xiàng),保持默認(rèn)。
運(yùn)行效果
在任意位置,以下兩種調(diào)用方式都可以調(diào)用 ollama:
鍵盤輸入:/ollama
快捷鍵:ctrl + shift + o
初次使用時(shí),有些慢,需要稍等1、2分鐘。
兩種方式都會(huì)彈出來(lái)下面的界面:
下面分別展開(kāi) ...
ask ai:可以向大模型提問(wèn)任何問(wèn)題:
ask with page context:就當(dāng)前頁(yè),提問(wèn)大模型。如果頁(yè)面內(nèi)容多的話,會(huì)很慢,慎用。
ask with block content:就當(dāng)前的塊,提問(wèn)大模型,在子塊中顯示回復(fù)的內(nèi)容:
define:你可以命題作文,用下面的公式,需要帶上這句:
ollama-generate-model::
比如這樣:
請(qǐng)寫一首有關(guān)“夏至”的七言絕句.
ollama-generate-model:: qwen:4b
運(yùn)行效果(請(qǐng)忽視內(nèi)容):
summarize page:就是總結(jié)一下本頁(yè)的大意,如果頁(yè)面內(nèi)容很長(zhǎng)的話,會(huì)很費(fèi)時(shí)間
summarize block:總結(jié)一個(gè)塊的內(nèi)容
divide into subtasks、convert to flash card,這兩項(xiàng)功能我也沒(méi)用過(guò)。
聯(lián)系客服