国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開(kāi)通VIP
184. 插件:ollama-logseq 調(diào)用本地大模型

之前,本地安裝了大模型后,新鮮了幾天,然后就一直沒(méi)怎么用,直到偶遇這款插件 ollama-logseq。

如果你知道 obsidian 里的那款 copilot 插件的話,這款插件和它差不多。

先說(shuō)上手的感覺(jué)

我自己的感覺(jué)是,有了這款插件,logseq 和人工智能的距離,一下子拉近了不少。

這款插件,可以讓大模型運(yùn)行在塊之上,當(dāng)然也可以用在頁(yè)之上,可以任意提問(wèn),也可以命題作文。

具體運(yùn)行的效果,體現(xiàn)的是大模型的智力水平,如果不滿意就換一個(gè)模型試試,只要 ollama 里安裝的模型,都可以調(diào)用。

本地安裝大模型

首先,需要本地安裝了 ollama 框架 + 大模型,在瀏覽器訪問(wèn):localhost:11434,如果顯示 ollama 正在運(yùn)行,就可以走下一步:

11434 應(yīng)該是 ollama 默認(rèn)的一個(gè)端口,如果你要是改了的話,用你自己設(shè)置的訪問(wèn)端口,設(shè)置頁(yè)里有選項(xiàng),見(jiàn)下 ...

如果想要安裝本地大模型,可以參考我之前安裝 ollama 框架 + 大模型的過(guò)程,我一共折騰了兩次,你可以看看哪種方式更適合

第一次,用命令行安裝大模型:160. 搭建本地運(yùn)行的 chatGPT
第二次,用 docker 安裝大模型:168. 本地運(yùn)行大模型,有必要嗎?

我本地目前用第二次的方法,在 docker 中穩(wěn)定運(yùn)行。

安裝插件 ollama-logseq

在 logseq 插件市場(chǎng)搜索上面的名稱,直接安裝。

如果訪問(wèn)插件市場(chǎng)很慢的話,私信 plugin ,后臺(tái)會(huì)回復(fù)一個(gè)百度盤的鏈接,下載其中的 “ollama-logseq-v1.1.3.zip”(157KB)。

插件配置

安裝插件后,打開(kāi)插件的配置頁(yè),上面的第一項(xiàng)就是設(shè)置本地大模型的訪問(wèn)端口:

第二項(xiàng) LLM Model,填上你自己本地安裝的大模型名稱,運(yùn)行時(shí)就會(huì)統(tǒng)一用這個(gè)選定的模型。

換模型時(shí),在這里修改名稱即可。在 ollama 或 webUi 中,查看本地已安裝的模型大模型。

其他項(xiàng),保持默認(rèn)。

運(yùn)行效果

在任意位置,以下兩種調(diào)用方式都可以調(diào)用 ollama

  1. 鍵盤輸入:/ollama

  2. 快捷鍵:ctrl + shift + o


初次使用時(shí),有些慢,需要稍等1、2分鐘。

兩種方式都會(huì)彈出來(lái)下面的界面:

下面分別展開(kāi) ...

ask ai:可以向大模型提問(wèn)任何問(wèn)題:

ask with page context:就當(dāng)前頁(yè),提問(wèn)大模型。如果頁(yè)面內(nèi)容多的話,會(huì)很慢,慎用。

ask with block content:就當(dāng)前的塊,提問(wèn)大模型,在子塊中顯示回復(fù)的內(nèi)容:

define:你可以命題作文,用下面的公式,需要帶上這句:

ollama-generate-model::

比如這樣:

請(qǐng)寫一首有關(guān)“夏至”的七言絕句. ollama-generate-model:: qwen:4b

運(yùn)行效果(請(qǐng)忽視內(nèi)容):

summarize page:就是總結(jié)一下本頁(yè)的大意,如果頁(yè)面內(nèi)容很長(zhǎng)的話,會(huì)很費(fèi)時(shí)間

summarize block:總結(jié)一個(gè)塊的內(nèi)容

divide into subtasks、convert to flash card,這兩項(xiàng)功能我也沒(méi)用過(guò)。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
本地部署運(yùn)行 Google Gemma 開(kāi)源大模型
中文大模型,本地運(yùn)行!
本地運(yùn)行大模型,復(fù)刻ChatGPT聊天界面
飄了!本地跑72B大模型,無(wú)需GPU,速度快
基于AnythingLLM及Ollama搭建本地知識(shí)庫(kù)
Ollama WebUI AnythingLLM,構(gòu)建安全可靠的個(gè)人/企業(yè)知識(shí)庫(kù)
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服