国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
科學網(wǎng)—如何用 AI 給科研提速?超長對話記憶 Kimi Chat 體驗

我嘗試了網(wǎng)絡(luò)文章總結(jié)、學術(shù)文獻分析,以及長文翻譯。

最近經(jīng)常聽小伙伴提及 Kimi Chat 這款國產(chǎn)大語言模型,據(jù)說它在上下文記憶能力很有特色。于是我打開官網(wǎng)(https://kimi.moonshot.cn/)進行了嘗試,今天就來給你分享一下我的使用心得。

Kimi Chat 在首頁提供了一些示例。它能夠概括輸入的 PDF 文件,或者幫助你分析網(wǎng)頁鏈接。從樣例中不難看出,Kimi Chat 官方宣傳的一大特色便是它的超長對話上下文(long context)。官方聲稱可以處理高達 20 萬字的中文輸入。Kimi Chat 的長期目標是建立一個具有持久記憶的大型語言模型。也就是說,你天天跟他對話,去年與它互動的內(nèi)容其間隔了無數(shù)的其他對話亂入,可如果你今天突然問起來,它依然能夠精準想起來。

Kimi Chat 的宏大愿景是當大語言模型成為操作系統(tǒng)時,它可以作為高效可靠的存儲服務(wù),為大語言模型的計算提供基礎(chǔ)和保障。我覺得,在 OpenAI 一馬當先時,后發(fā)的大語言模型都需要找準自己的定位,才能在競爭和發(fā)展中有足夠?qū)拸V的「護城河」。

你注冊并登錄之后,就可以開始新對話了。

下面,咱們通過網(wǎng)絡(luò)文章總結(jié)、學術(shù)文獻分析,以及長文翻譯這幾個場景,分別試試 Kimi Chat 的能力。

網(wǎng)文總結(jié)

首先,我嘗試了 Kimi Chat 首頁提供的一個總結(jié)鏈接對應(yīng)內(nèi)容的示例。只不過,我把示例中的鏈接換成了自己的公眾號文章,讓它幫我概括并針對文章內(nèi)容提出問題。

提示詞如下:

結(jié)合文章標題,用一句話精確凝練地總結(jié)這篇文章,在回答中用 “一句話總結(jié):” 開頭;

整理這篇文章中的觀點,并展開闡釋;

如果你是一名效率應(yīng)用專家,針對這篇文章再提出三個問題;

https://blog.sciencenet.cn/home.php?mod=space&uid=377709&do=blog&quickforward=1&id=1416221

這篇文章是我最近發(fā)布的,標題為《過去這一年我有哪些離不開的效率應(yīng)用》,我們看看 Kimi Chat 如何回答。

Kimi Chat 首先進行了一些思考,然后開始輸出。

這是 Kimi Chat 最終輸出的結(jié)果:

Kimi Chat 首先做出了一句話的總結(jié),然后對文章中的觀點進行了闡釋。除了視頻剪輯、內(nèi)容管理,還提到了資料查詢,這與我在文中列出的三款應(yīng)用相符。

Kimi Chat 還提出作為一名效率應(yīng)用專家,可以進一步提出三個問題。包括:

  • 在處理視頻剪輯時,能否識別并自動消除視頻中的其他問題,比如背景噪音或畫面抖動;

  • Heptabase 是否可以與其他筆記應(yīng)用,如 Notion 等集成;

  • Perplexity 在生成圖表或流程圖的準確性和可靠性如何。

我認為 Kimi Chat 提出這些問題都很有趣,至少能給我們提供一些啟發(fā)。

公眾號文章總結(jié),我覺得 Kimi Chat 做得非常好。不過我們平時用到的鏈接,不止來自于公眾號。為了進一步測試它總結(jié)網(wǎng)文的通用性,我把自己的一篇少數(shù)派文章的鏈接發(fā)給了它。這篇文章《Perplexity Pro 好用嗎?如何免費連用兩個月?》介紹了 Perplexity Pro 的功能和當時官方提供的優(yōu)惠信息。

我發(fā)現(xiàn) Kimi Chat 對這篇少數(shù)派文章內(nèi)容的提取依然非常全面,包括基本介紹、功能、使用建議、優(yōu)惠信息以及最終結(jié)論,顯示了它對鏈接對應(yīng)全文準確而深刻理解。

學術(shù)資源處理

接下來我測試了 Kimi Chat 處理學術(shù)資源的能力。我詢問它能處理哪些類型的學術(shù)資源,比如是否能直接讀取 CNKI 的信息?

Kimi Chat 說回答它可以處理 txt、PDF、Word 等多種文檔格式。至于 CNKI(中國知網(wǎng)),它無法直接訪問,這確實是一個遺憾。

但是,Kimi Chat 提出,用戶可以下載 CNKI 資源并以支持的格式上傳,然后它可以進行閱讀和分析。Kimi Chat 還特別提醒,在上傳文件時要遵守相關(guān)的版權(quán)和使用規(guī)定。我覺得這個提醒很重要。

順便說一句,我這兩天就該問題咨詢了 Kimi Chat 的客服人員。得到的答復是雖然目前 CNKI 資源因為版權(quán)問題尚未支持,但是 Kimi Chat 后續(xù)會考慮采購和對接更多學術(shù)文獻數(shù)據(jù)源。不過 Kimi Chat 目前已經(jīng)列出的用戶需求比較多,得根據(jù)優(yōu)先級一個個實現(xiàn)。如果有更多學術(shù)用戶提出需求,他們會把學術(shù)數(shù)據(jù)源擴展的優(yōu)先級提升。所以建議平時需要查文獻的小伙伴們,抓緊給 Kimi Chat 提需求吧,哈哈。

Kimi Chat 明確提示用戶最多可以上傳 50 個文件,每個文件大小不超過 100MB。這是我目前所用到的大語言模型中,上傳文件限制最寬的。Kimi Chat 還規(guī)定了可以上傳的各種文件類型。由于我們關(guān)注的是處理學術(shù)資源的能力,所以這回我們主要使用 PDF 格式的文件。

首先,我嘗試了 Kimi Chat 對單篇文獻的總結(jié)能力。為了確保我對文獻內(nèi)容的熟悉,我選擇了自己的一篇論文,2023 年 10 月發(fā)表在《圖書情報知識》上的《AIGC 時代的科研工作流:協(xié)同與 AI 賦能視角下的數(shù)字學術(shù)工具應(yīng)用及其未來》。

我將這篇論文交給了 Kimi Chat,要求它幫助解讀文章的創(chuàng)新方法和局限性。

Kimi Chat 思考片刻,立即開始認真輸出結(jié)果。

Kimi Chat 一上來提煉出了創(chuàng)新點。創(chuàng)新點包括「提出的新穎視角,科研工作流的構(gòu)建建議,有助于科研人員更有效地管理和協(xié)作」。它特別提到了 AIGC 技術(shù)對科研工具發(fā)展的影響。此外,Kimi Chat 還提到通過兩次調(diào)研對比,展示了 AIGC 技術(shù)對科研工具生態(tài)系統(tǒng)的顯著影響。

Kimi Chat 總結(jié)出的研究方法包括「文獻回顧、用戶調(diào)研對比和系統(tǒng)圖的構(gòu)建」,對我所使用的基礎(chǔ)方法和工具的描述是準確的。

關(guān)于局限性,Kimi Chat 指出研究「可能未能覆蓋所有科研工具。對于快速發(fā)展的 AIGC 技術(shù),研究可能無法跟上最新的技術(shù)進展」。這確實是前沿領(lǐng)域研究的常見問題。Kimi Chat 還準確地指出了「用戶反饋的時效性問題,以及科研活動的多樣性和 AI 技術(shù)的邊界等問題」。其中「用戶反饋的時效性問題」確實是我之前自己的局限部分沒有列出的,因而我認為 Kimi Chat 的總結(jié)和梳理很有幫助。

在嘗試單篇文獻之后,我繼續(xù)測試了它綜合處理多篇文獻的能力。我找到了幾篇與當前 AI 技術(shù)相關(guān)的論文,要求是對這些論文進行綜述,并用 APA 格式撰寫完整的文獻回顧報告。

這是 Kimi Chat 的輸出過程。

Kimi Chat 對這三篇論文的分析、討論和結(jié)論都做得很理想。

但問題在于,我原本提交了五篇文獻,Kimi Chat 卻只分析了三篇。這可能是它目前在處理多文件綜述時的一個缺陷,被我們捕獲了。

好在,咱們可以通過繼續(xù)對話的方式,讓它補齊。

我新的提示詞為:

I asked you to summarize 5 articles, but you only summarized 3. You still need to summarize 2 more. Can you please think step by step and summarize them again without missing anything?

翻譯成中文,就是:

我讓你總結(jié) 5 篇,你總結(jié)了 3 篇,還差兩篇,能否一步步思考,重新總結(jié),不要遺漏?

于是 Kimi Chat 立即開始思考,并且輸出了以下答案:

經(jīng)過檢查,我發(fā)現(xiàn)這次的答案確實補充了前面遺漏的兩篇文獻。希望 Kimi Chat 后續(xù)的改進中,可以自動對輸出文獻數(shù)量進行檢查核對,避免用戶手動要求補充。

長文翻譯

接下來我們來討論 Kimi Chat 的文章翻譯能力。我最近嘗試了很多長文翻譯的方法,其中一個較好的方法是寶玉老師提出的「兩遍翻譯法」。

第一遍是直譯,保留原文的細節(jié);第二遍則是在直譯的基礎(chǔ)上進行意譯。這個方法很有創(chuàng)意,效果也很好。在 GPT-4 對話中,我要求它逐段進行翻譯。這樣盡可能避免了 GPT-4 對上下文的混淆、遺漏和誤解。

這次,我把自己多日以來摸索出來的一整套 GPT-4 翻譯長文提示詞直接提供給了 Kimi Chat。它接受后,請我提供文章。

作為樣例,我提交給了 Kimi Chat 一篇我自己寫的中文公眾號文章《過去這一年,我有哪些離不開的效率工具?》。提交的格式為 Markdown,里面包括了正文、鏈接和圖片等。

這里,我給你展示一下,在 GPT-4 環(huán)境下這種逐段的翻譯效果是怎樣的。

Kimi Chat 立即開始工作了。

起初,我對 Kimi Chat 輸出的結(jié)果感到非常失望 —— 我原本希望看到的是逐段進行的兩遍翻譯,即每一段輸出原文,然后先直譯后意譯的過程。但實際上,我只看到了 Kimi Chat 一次翻譯的結(jié)果,沒有原文,也沒有意譯。這讓我很不滿意。

然而,從第一性原理思考,我突然意識到之前需要逐段翻譯是因為 GPT-4 一段對話中可以處理的上下文不夠長。只有分段進行,才能保證 GPT-4 對原文記憶和理解的準確性;可是現(xiàn)在我使用了 Kimi Chat,它的特點就是對超長上下文具備強記憶能力,那逐段翻譯是否還有必要呢?于是我踏踏實實看著 Kimi Chat 先把翻譯結(jié)果輸出完。

值得注意的是,盡管目前 Kimi Chat 可以接受 20 萬字中文的輸入長度,但是輸出的時候,窗口雖大,卻不能一次性把翻譯結(jié)果完整輸出。中間停頓了一次。

當我讓 Kimi Chat 繼續(xù)時,它能從上一個段落的小節(jié)標題處開始繼續(xù)輸出,這非常有趣。因為這意味著 Kimi Chat 在回顧截斷處上下文的時候,確實對結(jié)構(gòu)能清晰把握。這可能就是點開「超長上下文」這棵技能樹之后,帶來的直觀好處吧。

在完成直譯后,我指示 Kimi Chat 對剛剛的直譯結(jié)果進行整體意譯。我害怕它聽不懂指令,把原文再抄寫一遍。好在經(jīng)過對比,一眼看上去,它就將第一遍直譯輸出的 “for example” 譯為了 “for instance”。這表明它確實理解了要求,真正進行了第二遍翻譯。

我注意到它在輸出全部意譯結(jié)果的時候,依然能從中斷處整節(jié)恢復輸出。這說明它對上下文結(jié)構(gòu)的理解非常精確。

最終 Kimi Chat 完成了所有的輸出,我對比了一下,發(fā)現(xiàn)翻譯質(zhì)量已經(jīng)足夠滿足我的需要。

這意味著以后進行長文中譯英翻譯時,我不再需要像以前那樣麻煩。我只需要先讓 Kimi Chat 進行整體的直譯,然后再進行整體的意譯,效果已經(jīng)非常理想。此外,Kimi Chat 的輸出中,所有的鏈接和圖片(包括動圖)都被完整地保留,這非常方便。

與之相對比,在進行翻譯時,GPT-4 有時會在最終輸出階段丟失一些內(nèi)容。我在 Typingmind 和 ChatGPT 官方對話中,都遇到過類似的問題。例如這是某次整合輸出全部譯文的結(jié)果:

比如,在討論 GPTs 效果的部分時,翻譯結(jié)果突然跳到了后面 Perplexity 的部分,中間丟失了很多段落的內(nèi)容。

我需要使用提示詞來糾正這些丟失,有時甚至需要告訴它具體哪些部分遺漏了,要求 GPT-4 補充。

然后,我會發(fā)現(xiàn) GPT-4 給出的補充結(jié)果仍然會有遺漏,不得不逐個進行提示。

最后,我還需要手動找到正確的上下文位置并填充。因此,在進行長文翻譯時,目前 GPT-4 實際上不如 Kimi Chat 方便。

小結(jié)

我們來總結(jié)一下剛才的三個用例:網(wǎng)絡(luò)文章總結(jié)、學術(shù)文獻分析,以及長文翻譯。我們從這些實際用例中得到了哪些結(jié)論呢?

第一個結(jié)論是,超長對話窗口確實可以有效減少對話的中斷,使整個工作流程更加流暢;第二個結(jié)論是,Kimi Chat 記憶力更強,使得輸出過程不至于忘記中間段落,避免了大量的人工檢查、提示與手動補充。

不過,通過嘗試,我也發(fā)現(xiàn)了 Kimi Chat 的一些問題。比如在指令理解方面,我認為 Kimi Chat 還有改進空間,例如我明明要求逐段處理,它卻一次性整體輸出了;另外在處理所有輸入的 PDF 時,它第一次也遺漏了 5 篇中的 2 篇文獻。好在我相信隨著模型的快速迭代,這些問題會得到有效解決。

這款應(yīng)用目前是免費的。注冊和使用都非常簡單,只需要手機驗證。為什么不立刻嘗試一下呢?

歡迎你把自己的嘗試結(jié)果,分享在留言區(qū)。我們一起交流討論。

如果你覺得本文有用,請點贊

如果本文可能對你的朋友有幫助,請轉(zhuǎn)發(fā)給他們。

歡迎關(guān)注我的專欄,以便及時收到后續(xù)的更新內(nèi)容。

延伸閱讀

https://blog.sciencenet.cn/blog-377709-1417462.html

上一篇:過去這一年,我有哪些離不開的效率工具?
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
首輪即融資20億,紅杉等看上了清華90后學神,要打造大模型ToC超級應(yīng)用
月之暗面楊植麟:大模型進入長文本時代,無損壓縮才是有效的規(guī)?;?| WISE2023商業(yè)之王大會
比chat gpt-4好用,AI自動寫程序的軟件...
與時偕行
人類大佬聯(lián)手封印Chat GPT!但AI已成氣候,是不是為時已晚?
Chat GPT繪制的AI國風漫畫
更多類似文章 >>
生活服務(wù)
分享 收藏 導長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服