2024年,如果你還不會(huì)使用AI,那么你可能已經(jīng)落后時(shí)代一個(gè)身位了。
隨手打開任何一個(gè)你經(jīng)常使用的大廠開發(fā)的軟件或者工具,你可能會(huì)驚訝地發(fā)現(xiàn),那些我們已經(jīng)習(xí)以為常的工具和軟件,都已經(jīng)紛紛接入了AI能力。
沒錯(cuò),AI已經(jīng)完整地覆蓋了我們工作和生活的各個(gè)層面。我最早關(guān)注的一批研究AI工具的先行者,已經(jīng)開始在各大AI論壇擔(dān)任專家和導(dǎo)師的角色了,而單單是我目所能及的,自媒體領(lǐng)域的很多人,已經(jīng)開始使用AI為自己打工,開始利用AI賺錢了。
但是當(dāng)我問及身邊的朋友,卻發(fā)現(xiàn)仍然有很多人還不知道怎么使用AI工具。
因此,我決定把目前自己常用的一些AI工具,跟大家分享一下。
這些工具基本都是由大廠開發(fā), 靠譜程度請(qǐng)盡管放心,我基本上只用最好用的。在付費(fèi)方面更不用擔(dān)心,我推薦的這些基本都是大廠出品的免費(fèi)或開源產(chǎn)品,即使付費(fèi),也是相當(dāng)便宜合理的價(jià)格。
Kimi.ai是我目前用的最順手的一款A(yù)I工具網(wǎng)站,這款工具開發(fā)團(tuán)隊(duì)正是當(dāng)前國(guó)內(nèi)AI領(lǐng)域的當(dāng)紅炸子雞:據(jù)說已經(jīng)完成10億美元融資的月之暗面。
月之暗面創(chuàng)始人楊植麟的背景相當(dāng)耀眼,90后已經(jīng)是清華大學(xué)交叉信息學(xué)院的助理教授,本科畢業(yè)于清華大學(xué),而后在卡耐基梅隆大學(xué)讀博時(shí)師從蘋果AI研究負(fù)責(zé)人Ruslan Salakhutdinov等,在AI領(lǐng)域具有廣泛的學(xué)術(shù)影響力。
我選擇Kimi chat的主要原因還是因?yàn)樗鼘?shí)在太好用了。界面簡(jiǎn)單,交互非常人性化,具備顯著的中文優(yōu)勢(shì),能夠?yàn)橛脩籼峁┗卮饐栴}、速讀文件、整理資料、激發(fā)靈感、輔助創(chuàng)作等服務(wù)。
目前在我這里,Kimi基本已經(jīng)替代了所有的國(guó)產(chǎn)搜索引擎。
客觀來說,有時(shí)候Kimi出來的結(jié)果沒有chatGPT效果好,但在中文AI助手工具當(dāng)中已經(jīng)是佼佼者。Kimi能夠支持約20萬漢字的上下文輸入,但是個(gè)人實(shí)際測(cè)試,Kimi的輸出一般會(huì)保持在1000字上下。除非你對(duì)它特別要求,才會(huì)輸出比較長(zhǎng)的文本。
豆包APP是字節(jié)跳動(dòng)推出的一款集成了多種AI功能的智能對(duì)話助手,它具備豐富的學(xué)科知識(shí),能夠準(zhǔn)確回答各類問題,同時(shí)提供文案創(chuàng)作、高質(zhì)量圖片生成等功能。用戶界面直觀易用,允許用戶選擇不同的AI角色進(jìn)行互動(dòng)。
豆包內(nèi)置了編程助手、起名神器、英語學(xué)習(xí)助手等多種智能體,滿足多樣化的使用場(chǎng)景。盡管可能存在局限性和準(zhǔn)確性問題,但它已經(jīng)能夠滿足用戶在辦公、學(xué)習(xí)、生活和娛樂方面的多項(xiàng)需求,是一款功能全面、操作簡(jiǎn)便的AI對(duì)話工具。
豆包最為亮點(diǎn)的功能是,它提供了獨(dú)特的AI語音克隆功能,允許用戶通過簡(jiǎn)單的步驟錄制自己的聲音樣本,從而使AI學(xué)習(xí)并模仿用戶的語音特征。在聲音設(shè)置中,用戶根據(jù)系統(tǒng)提示錄制一段約30秒的聲音,豆包將利用這段錄音訓(xùn)練出用戶聲音的AI模型。
用豆包APP給自己做個(gè)聲音克隆助理,你就可以擁有自己的專屬自媒體配音員,還可以自己給自己打電話,讓自己的AI克隆版陪你練習(xí)英語口語,不得不說,雖然有點(diǎn)變態(tài),但很好用。
假如你會(huì)使用字節(jié)跳動(dòng)的另外一個(gè)平臺(tái)Coze,你就可以自己開發(fā)一個(gè)屬于自己的智能體,發(fā)布到豆包和飛書。
Coze(扣子)是一個(gè)由字節(jié)跳動(dòng)推出的新一代AI大模型智能體開發(fā)平臺(tái)。這個(gè)平臺(tái)旨在為用戶提供一個(gè)低門檻、快速搭建個(gè)性化或具備商業(yè)價(jià)值的智能體的環(huán)境,并且可以將這些智能體發(fā)布到豆包、飛書等多個(gè)平臺(tái)。
另外要說一句,目前coze平臺(tái)的插件里包含了GPT-4V(大概相當(dāng)于GPT-4的閹割版),也就是說通過Coze平臺(tái),你目前可以制作屬于自己的智能體,同時(shí)還能白嫖GPT-4的部分功能。
雖然說目前手機(jī)上的大模型肯定沒有電腦端的全能,但是你不得不承認(rèn)的是,目前手機(jī)仍然是絕大多數(shù)大模型的入口之一。當(dāng)前就算是上千億參數(shù)的大模型,不管是文心一言,還是清華智譜,還是Kimi chat,全都得乖乖做自己的APP,去手機(jī)上搶占入口,畢竟手機(jī)才是大多數(shù)人使用時(shí)長(zhǎng)最多的場(chǎng)景。
具備了自研AI大模型能力的手機(jī),至少在給廣大人民群眾普及AI玩法上面,已經(jīng)是完全稱得上是功德無量了,畢竟這些AI功能一旦由手機(jī)廠商下放到手機(jī)上,基本就意味著完全免費(fèi)。
一加12是目前我在用的手機(jī),最新的系統(tǒng)更新,已經(jīng)加入了AI大模型,支持AIGC消除、智能通話摘要、AI繪畫、AI全能助理等多個(gè)功能。其中,會(huì)議記錄功能和語音轉(zhuǎn)文字功能,可以實(shí)現(xiàn)無限文字轉(zhuǎn)寫,簡(jiǎn)直秒殺市面上各種付費(fèi)的語音轉(zhuǎn)寫工具。
這兩天一加又發(fā)布了一款A(yù)I手機(jī):一加Ace3V,各項(xiàng)基本無太大短板的中端高性能配置,高通驍龍7Gen3,雖然比8Gen 3差點(diǎn),但畢竟也是全球首發(fā),性能小鋼炮,至少打游戲無一點(diǎn)壓力,跟旗艦一樣的 5500mAh的大續(xù)航,100W快充,甚至還有IP65級(jí)別的防水,再加上從旗艦機(jī)型上面下放的AI大模型功能,當(dāng)然最關(guān)鍵的還是1999元的價(jià)格,真的太香了。
這款手機(jī)的發(fā)布,引爆了AI手機(jī)和科技平權(quán)的概念,估計(jì)接下來一整年,會(huì)有更多的平價(jià)科技產(chǎn)品搭載AI,也就是說在中國(guó),上到王公貴族下到平民百姓,都將有資格體驗(yàn)到AI手機(jī)的便利。
正如一加總裁李杰所說的:'AI手機(jī)普及的標(biāo)志,是讓更多人能用上AI 。一加Ace 3V不僅要普及旗艦體驗(yàn),更要開啟一個(gè)AI手機(jī)普及的時(shí)代。'
剪映專業(yè)版現(xiàn)在已經(jīng)成為我使用頻率最高的一款剪輯軟件了。作為字節(jié)跳動(dòng)旗下的視頻編輯軟件,不僅提供傳統(tǒng)的視頻剪輯功能,還集成了一系列先進(jìn)的AI技術(shù),極大地豐富了用戶的視頻創(chuàng)作體驗(yàn)。
其實(shí)剪映此前已經(jīng)加入了一鍵生成字幕、智能剪口播、語音朗讀等相關(guān)AI功能,但自從5.4版本之后,剪映又進(jìn)行了重新的迭代升級(jí),新增了許多最新的AI技能,個(gè)人覺得比較實(shí)用AI功能有以下幾個(gè):
智能剪口播:這個(gè)功能其實(shí)以前就有,能夠分析視頻中的語音內(nèi)容,識(shí)別出無效片段(如語氣詞、重復(fù)內(nèi)容等),并允許用戶一鍵刪除這些不需要的部分。但是最新的迭代版本是,智能剪口播功能可以識(shí)別視頻中的語音內(nèi)容,并將其轉(zhuǎn)換為文字。這樣,用戶就可以直接在智能剪口播的界面中,對(duì)識(shí)別出的文字進(jìn)行編輯和調(diào)整。例如,可以修改錯(cuò)別字、調(diào)整語序,或者刪除不必要的內(nèi)容。
也就是說,即使你完全不會(huì)剪輯,只要會(huì)寫字,會(huì)刪減段落和文字,就可以通過剪映,自己制作一個(gè)精煉的口播視頻。
AI語音克?。?/span>用戶可以通過錄制自己的聲音樣本,利用AI技術(shù)生成具有相似音色的合成語音,用于視頻的文本朗讀,提供更加個(gè)性化的配音選項(xiàng)。
AI繪畫:這是一個(gè)基于文本描述生成圖像的工具,支持動(dòng)漫、寫實(shí)、攝影和插畫等多種風(fēng)格,用戶可以通過輸入描述或使用內(nèi)置模板快速轉(zhuǎn)換成圖像,甚至進(jìn)行局部重繪和分辨率提升。
圖文成片:AI根據(jù)用戶輸入的提示詞智能生成視頻文案,并自動(dòng)匹配視頻素材、字幕、配音和配樂,簡(jiǎn)化了視頻制作流程。
數(shù)字人口播:用戶可以創(chuàng)建虛擬的數(shù)字人形象,為視頻解說配音,提高制作效率并降低成本,適用于多種視頻內(nèi)容和場(chǎng)景需求。
這些AI功能的加入,不僅使得剪映在視頻編輯領(lǐng)域更加強(qiáng)大,也為內(nèi)容創(chuàng)作者提供了前所未有的便捷和創(chuàng)造力。隨著AI技術(shù)的不斷進(jìn)步,剪映的AI功能也在不斷完善和發(fā)展,預(yù)示著視頻創(chuàng)作領(lǐng)域的未來將更加智能化和高效化。
dreamina的部分功能已經(jīng)接入了剪映,目前在手機(jī)端和電腦端的剪映專業(yè)版都能看到AI擴(kuò)圖、AI繪圖相關(guān)的入口。前兩天去英偉達(dá)參觀,英偉達(dá)透露跟剪映有深度合作,估計(jì)應(yīng)該就是AI文生圖與文生視頻方面的GPU加速合作, 剛好dreamina的首頁又進(jìn)行了改版,新增加了生成視頻的入口,目測(cè)國(guó)產(chǎn)版的文生視頻工具已經(jīng)馬上要來了。
2022年,AI繪畫工具midjourney和stable diffusion席卷全球,我也用上了國(guó)內(nèi)開發(fā)者第一時(shí)間推出的國(guó)產(chǎn)AI繪畫工具,我用的比較順手的是一個(gè)國(guó)產(chǎn)工具6pen,因?yàn)樗衧table diffusion的接口,而且可以自定義分辨率和關(guān)鍵詞選項(xiàng),那段時(shí)間時(shí)間,往里面充值了不少錢,最多的時(shí)候一天畫了七八百?gòu)垐D。
事實(shí)上直到現(xiàn)在,如果你有更加專業(yè)的文生圖的需求,我仍然會(huì)比較推薦6pen。
因?yàn)閐reamina這種大廠出品的平臺(tái),為了更加大眾化,通常做的很傻瓜,這也就意味著你無法調(diào)整更加細(xì)致的參數(shù),而6pen這種更加注重專業(yè)化參數(shù)調(diào)整的平臺(tái)就彌補(bǔ)了這一缺陷,同時(shí)6pen上面還有模型市場(chǎng),可以搭載各種開發(fā)者自己訓(xùn)練的最新模型,包含各種風(fēng)格和實(shí)用的場(chǎng)景,為AI繪圖和設(shè)計(jì)提供了更多的可能性。
之前,研發(fā)了ChatGPT的那家人工智能公司OpenAI發(fā)布了最新“文生視頻”大模型Sora,并同時(shí)公布了一系列樣片,效果細(xì)膩逼真,運(yùn)鏡真實(shí),直接震驚了全世界。
但可惜的是,Sora雖好,卻只是一個(gè)demo展示,短時(shí)間內(nèi)Sora不會(huì)向公眾開放。因此,與其研究還沒發(fā)布的sora,不如直接上手玩已經(jīng)發(fā)布的Stable Video。
stablevideo.com是Stability AI推出的文生視頻工具網(wǎng)站,能夠?qū)㈧o態(tài)圖像轉(zhuǎn)化為14幀和25幀的視頻,幀率可在3到30幀每秒之間自定義,以適應(yīng)不同的視頻需求。在sora發(fā)布之前,這應(yīng)該是目前使用量飆升速度最快的文生視頻工具了,界面簡(jiǎn)單易用,每天提供免費(fèi)的150積分,用戶可以用這些積分生成視頻片段,對(duì)于輕度用戶來說,已經(jīng)足夠使用。而且更貼心的是,支持銀聯(lián)信用卡充值點(diǎn)數(shù)。
目前Stable Video支持文生視頻和圖生視頻兩種模式。
圖生視頻的模式是,用戶上傳一張圖片,進(jìn)行一些設(shè)置后,可以直接生成視頻。文生視頻的原理是先通過文生圖,然后再用圖生成視頻。用戶可以輸入文本描述,Stable Video會(huì)根據(jù)描述生成四張圖片供用戶選擇,然后基于選定的圖片生成視頻。
生成的視頻持續(xù)時(shí)間可達(dá)2至5秒,處理時(shí)間不超過2分鐘,用戶可以快速得到高質(zhì)量的視頻內(nèi)容。
昨天玩了下,感覺效果非常棒,效果如下:
個(gè)人使用感受是,與其他主流AI視頻工具如Runway、PixVerse、Pika等相比,Stable Video在生成速度和質(zhì)量方面要更好一些,但一旦涉及到細(xì)膩復(fù)雜的場(chǎng)景,仍然具有局限性,會(huì)出現(xiàn)融合閃爍的情況。
放眼全球,當(dāng)前在AI視頻方面,我們能期待的,除了stable video的更新迭代,應(yīng)該就是Open AI公司還沒發(fā)布的Sora,以及AI視頻的先行者runway接下來的更新迭代版本,還有就是馬上要發(fā)布AI文生視頻版本的AI繪畫王者midjourney了。
國(guó)內(nèi)方面,個(gè)人感覺比較有潛力的大概有兩家,一個(gè)是創(chuàng)始團(tuán)隊(duì)中有國(guó)內(nèi)AI視頻早期玩家加入的Murphvideo,還有一個(gè)就是剪映旗下的文生圖工具dreamina即將推出的文生視頻版版本。
這兩家公司的文生視頻大模型應(yīng)該都是基于當(dāng)前的開源模型進(jìn)行的更新迭代,奢求他們依靠開源模型逆向出可以媲美m(xù)idjouney和sora的生成效果顯然是不太現(xiàn)實(shí)的,但未來作為物美價(jià)廉的國(guó)產(chǎn)平替應(yīng)該還是夠用的。
關(guān)于AI的免費(fèi)課程,其實(shí)網(wǎng)上有很多系統(tǒng)又專業(yè)的飛書文檔,完全免費(fèi)。
其中有一個(gè)網(wǎng)友分享的AI信息站合集的知識(shí)庫(kù)非常好用,我也復(fù)制了一個(gè),大家可以直接復(fù)制使用:
關(guān)于Sora,這里推薦另外一個(gè)網(wǎng)友的飛書知識(shí)庫(kù)《sora學(xué)習(xí)手冊(cè)》,從科學(xué)論文到操作指南,專業(yè)程度應(yīng)該超過了市面上的所有付費(fèi)課程:
最后說一下,如何寫出滿意的文生圖和文生視頻關(guān)鍵詞:
Sora目前還是一個(gè)demo版本,個(gè)人認(rèn)為,文生視頻這玩意,一旦大廠出品成免費(fèi)的工具,基本上你上手就會(huì),你只需要輸入關(guān)鍵詞,就直接能得到相關(guān)的畫面。所以沒必要四處急著找教程。
最難的部分,無非也就是研究一下怎么寫提示詞,如果懂點(diǎn)視聽語言,會(huì)寫腳本的話,那寫文生圖和文生視頻的提示詞根本不在話下。
在我看來,文生圖和文生視頻,本質(zhì)上都是用來詳細(xì)描述和指導(dǎo)視覺內(nèi)容創(chuàng)作的文本,包含了故事敘述、描述性語言、重要細(xì)節(jié)、情感氛圍以及創(chuàng)意表達(dá)等元素,甚至你可以指定角度和機(jī)位,還有鏡頭焦距以及相機(jī)品牌,像極了一個(gè)文字版的拍攝腳本。
除此之外,AI工具一般會(huì)在畫面描述之外,再增加一些藝術(shù)家風(fēng)格、渲染工具、器材、渲染材質(zhì)等細(xì)節(jié)上的描述。如“賽博朋克風(fēng)格”、“印象派畫風(fēng)”或“電影膠片質(zhì)感”,在提示詞中明確指出。
懂了這一點(diǎn),你基本就掌握了所有類似工具的提示詞玩法了。
我曾經(jīng)在群里說過,保持好奇,可以延緩衰老,所以我一直保持對(duì)新鮮事物的好奇心。
現(xiàn)在可以再加上一條:每一個(gè)不想被時(shí)代丟下的人,請(qǐng)一定要學(xué)會(huì)使用最新的生產(chǎn)工具。而AI,正是我們這個(gè)時(shí)代的新質(zhì)生產(chǎn)力。
馬克思說,無產(chǎn)者只有掌握了生產(chǎn)資料,才能夠徹底擺脫生存恐懼。
所以不確定性的年代,請(qǐng)務(wù)必?cái)y帶更多的本領(lǐng)上路。
聯(lián)系客服