、
(資料圖片僅供參考)
我出生于奇點(diǎn)元年,也就是第一個(gè)人被上載到機(jī)器的那年。教皇聲討這位「數(shù)字亞當(dāng)」,數(shù)字精英們卻為之歡呼雀躍,而余下的所有人則竭力去理解這個(gè)新世界。
——?jiǎng)⒂罾ァ镀纥c(diǎn)遺民》
別輕易說這是最瘋狂的一天,這周每天醒來 AIGC 都是一次大變天。
ChatGPT 解除了聯(lián)網(wǎng)的最后封印,AI 在「iPhone 時(shí)刻」后又擁有了 App Store。
Midjourney V5 不僅學(xué)會(huì)「畫手」,一幅中國(guó)情侶畫讓無數(shù)畫師沉默,Bing、Adobe 也爭(zhēng)先加入 AI 畫圖的大軍中。
百度,在大眾對(duì)文心一言的一片質(zhì)疑聲中,推出了「你畫我猜」的挑戰(zhàn)活動(dòng)。
有人說現(xiàn)在正是 AI 的寒武紀(jì)大爆發(fā), 那個(gè)「奇點(diǎn)」似乎越來越近。
你我都知道 Time to AI,但興奮和焦慮在腦海里孰輕孰重,如人飲水,冷暖自知。
封面圖片來自 Midjourney 生成
周一
Midjourney V5 作畫震驚全網(wǎng)
這對(duì)情侶「照片」應(yīng)該是本周最先火爆全網(wǎng)的事件。
為什么要加上引號(hào)呢?因?yàn)檫@并不是一張真實(shí)的照片,而是由 Midjourney V5 畫出來的 AI 圖片。
不僅人物、畫風(fēng)、風(fēng)景畫得很精細(xì),連手指這種精細(xì)部位都畫得近乎完美。
上個(gè)月,人們還在嘲笑 AI 畫不好手(分辨不了手指的位置和數(shù)量),結(jié)果這周就被 Midjourney V5 打了臉。
經(jīng)過網(wǎng)友們的測(cè)試,Midjourney V5 在精細(xì)度上確實(shí)比上一個(gè)版本有了很大的提高,在處理手指時(shí)出錯(cuò)的概率比以往小了許多。
值得注意的是,Midjourney 從公測(cè)到現(xiàn)在才過去了大半年時(shí)間,假若再給 AI 作畫兩年時(shí)間,誰都說不準(zhǔn) AI 會(huì)給 圖像行業(yè)帶來多大的沖擊。
Runway Gen 2 上線,拍視頻只用「一句話」
周一還有一件大事,Runway Gen 2 版本公布。
原本 Runway AI 剛面世時(shí)就挺顛覆的,Gen 2 一出視頻制作流的生產(chǎn)力更是有了一個(gè)飛躍,簡(jiǎn)單地講,它所生成的視頻幀數(shù)更高,畫面細(xì)節(jié)也更豐富了,下面這段動(dòng)圖就能看出它進(jìn)化得有多快。
說一句話,生成一整條短片,這曾是我們夢(mèng)寐以求的便捷工具,但在它即將成真之際,我們打工人也都開始慌了。
周二
誰的職業(yè)又被取代了?
,針對(duì) 1000 多種職業(yè),探討了大型語言模型怎么影響美國(guó)勞動(dòng)力市場(chǎng)。
OpenAI 提出了一個(gè)概念——暴露(Exposure),暴露程度越高,受影響程度就越大。
E0:沒有暴露。
E1:直接暴露,僅使用大型語言模型(比如 GPT-4 聊天界面),可以將時(shí)間至少減少 50%。
E2:間接暴露,單獨(dú)使用大型語言模型無法達(dá)到效果,但在它的基礎(chǔ)上開發(fā)的額外軟件(比如圖像生成),可以將時(shí)間至少減少 50%。
根據(jù)暴露程度不同,OpenAI 列出了 34 個(gè)不容易被 AI 影響的「鐵飯碗」職業(yè),和一大堆極高暴露風(fēng)險(xiǎn)的職業(yè)。
當(dāng)然,「暴露」不等于「被取代」,這個(gè)是中性詞,暴露程度越高說明你越需要適應(yīng)和使用 AI 工具來改變你當(dāng)前的工作流,不然的話就會(huì)容易遭遇動(dòng)蕩。
你「暴露」了嗎?
瘋狂一夜,AI 工具三連發(fā)
如果每周都有一個(gè) AI 日,那這周的 AI 日就是星期二。
首先是 Google,經(jīng)歷過發(fā)布會(huì)的尷尬與外界的質(zhì)疑后,Google 的 Bard 終于開啟了英、美用戶的測(cè)試訪問渠道,但同時(shí) Google 也強(qiáng)調(diào),這只是一場(chǎng)實(shí)驗(yàn),生成的內(nèi)容并不能保證完全正確。
相比 ChatGPT,Bard 更像是一個(gè)專注學(xué)習(xí)工作的隨身主力,你可以在它的協(xié)助下加速想法、激發(fā)好奇心或者規(guī)劃工作。同時(shí),Bard 可以在回答時(shí)生成多個(gè)答案,方便你挑選更適合的那一條。
不過,現(xiàn)在的 Bard 暫時(shí)還不支持更多語言(比如中文),Google 也表示會(huì)在未來持續(xù)更新寫代碼、識(shí)別 / 生成圖片以及更多語言的支持。
比起 Google 的初來乍到,久經(jīng)考驗(yàn)的 Bing Chat 出手就是狠活:AI 畫圖很火?來,在 Bing Chat 聊天畫圖吧!
來自微軟的 Bing Image Creator 由 DALL · E 模型的高級(jí)版本提供支持,只需通過自己的語言描述圖片信息、選擇藝術(shù)風(fēng)格,Image Creator 就會(huì)聯(lián)系上下文,將你的想象「畫在紙上」。
如果你已經(jīng)通過新 Bing 申請(qǐng),現(xiàn)在就可以在 Bing Chat 中體驗(yàn) Bing Image Creator 了,如果從以下網(wǎng)址進(jìn)去的話,則可以直接試用
https://www.bing.com/create
不過這一功能暫只支持英文,未來會(huì)持續(xù)更新。
人工智能會(huì)代替人類嗎?Adobe 給出的答案是否定的:人工智能不會(huì)代替人類,而是成為友軍中的最強(qiáng)輔助。
是的,這個(gè)瘋狂的星期二,Adobe 也推出了自家的創(chuàng)意生成式 AI 模型集:Adobe Firefly。你可以用一句話讓正處于春天的風(fēng)景變成冬天的模樣,可以筆刷一劃讓 AI 生成河流。
Adobe 認(rèn)為,AI 正在提供一種打開世界的新方式,設(shè)計(jì)師可以用最順手的方式來實(shí)現(xiàn)創(chuàng)意,「幫助創(chuàng)意人而不是取代創(chuàng)意人」。
在這個(gè)瘋狂的夜晚,無數(shù)人感到了來自 AI 的壓力,但同時(shí)也能看到更加注重創(chuàng)新與思考的未來,不只 Firefly,每一個(gè) AI 工具,都是如此。
周三
英偉達(dá)新「核彈」顯卡駕到
周三凌晨,「皮衣刀客」黃仁勛在英偉達(dá) GTC 2023 開發(fā)者大會(huì)的 Keynote 上,宣布了兩件大事:
一是新顯卡,但這張顯卡跟大部分用戶都沒有直接關(guān)系,因?yàn)樗轻槍?duì)巨大算力需求而生的,這張 H100 NVL 擁有夸張的 188GB HBM3 內(nèi)存(每張卡 94GB),這也是目前英偉達(dá)發(fā)布的內(nèi)存最大的顯卡。
與用于 GPT-3 處理的 HGX A100 相比,用上了四對(duì) H100 和雙 GPU NVLink 的標(biāo)準(zhǔn)服務(wù)器,速度快了 10 倍。
第二件大事是「超算上云」,還是由 8 張 H100 或 A100 顯卡組成的超級(jí)計(jì)算機(jī) DXG,它「沖上云端」后,意味著只要你有需要,每月花至少 36999 美元,就能用上這等算力。
當(dāng)然,你若要訓(xùn)練像 ChatGPT 這種超大模型,至少要在最低月費(fèi)基礎(chǔ)上多加 4 個(gè) 0 的費(fèi)用,才能得到一個(gè)看起來「訓(xùn)練有素」的產(chǎn)品。
然而對(duì)于大公司來說,能夠把自己的模型部署在如此強(qiáng)的 DXG 超算上,自然很愿意掏著錢的。
比爾蓋茨發(fā)博談 AI
周三下午,,表示自己的人生中遇到過兩次革命性的 Demo。一次是 1980 年遇到用戶圖形界面,第二次是 OpenAI 訓(xùn)練模型通過 AP 生物學(xué)測(cè)驗(yàn)。
第一次 Demo 讓 Windows 走向普及,并成為微軟的搖錢樹;而第二次 Demo 正變成當(dāng)下的超大熱點(diǎn),并在可預(yù)見的未來,革新整個(gè)辦公應(yīng)用場(chǎng)景。
顯然,微軟已經(jīng)將 OpenAI 尤其是 ChatGPT 視為 Windows 級(jí)別的拳頭產(chǎn)品,未來將給這家科技巨頭帶來不可估量的利潤(rùn)。
目前微軟已經(jīng)將 ChatGPT 接入旗下 Bing、Office、Github 產(chǎn)品,全面使用之后,OpenAI 定將成為微軟新的搖錢樹。
然而如此廣泛接入人工智能會(huì)帶來何種副作用,尚待時(shí)間告訴我們答案。
周四
百度文心一言制圖惹非議
自百度發(fā)布文心一言之后,這家曾經(jīng)的互聯(lián)網(wǎng)巨頭又一次享受到頻上熱搜的待遇,可惜非議多于表揚(yáng)。
譬如這周,網(wǎng)上有不少用戶分享了文心一言生成的圖片作品,有些圖片看起來似乎還有點(diǎn)意思,但還有不少「牛頭不對(duì)馬嘴」的圖片。
其中廣為流傳的是一張?zhí)崾驹~為「紅燒獅子頭」的圖片,文心一言所生成的圖片,就是一頭著了火的獅子的頭,圖片與提示詞可以說是風(fēng)馬牛不相及。
這樣的生成邏輯,像是把中文翻譯成英文后再用模型生成的,引來不少用戶對(duì)文心一言所說「自研技術(shù)」的質(zhì)疑。
百度在周四在微博上發(fā)表聲明,回應(yīng)這段時(shí)間的爭(zhēng)議。
不知道這段聲明,是不是由文心一言制作的呢?
Bard 自認(rèn)抄襲
這周還有另一家互聯(lián)網(wǎng)巨頭被爭(zhēng)議漩渦裹挾,那就是周二剛剛開放 Bard 內(nèi)測(cè)版本的 Google。
起初,外媒 Tom"s Hardware 只是想上手評(píng)測(cè)一下這款對(duì)話機(jī)器人新品,沒想到吃瓜吃到自己頭上。
編輯在測(cè)試時(shí)詢問 Bard 關(guān)于「Intel Core i9-13900K 和 AMD Ryzen 9 7950X3D 兩款處理器誰更快」的問題,結(jié)果 Bard 的回答直接「引用」了他們的評(píng)測(cè)內(nèi)容,然而沒有標(biāo)注引用來源,也沒有相關(guān)免責(zé)聲明。
該名編輯繼續(xù)詢問 Bard 這個(gè)結(jié)果的來源時(shí),它才回答結(jié)果來自 Tom"s Hardware。
最具諷刺意味的時(shí)刻出現(xiàn)在對(duì)話的結(jié)尾。
當(dāng)該編輯問 Bard 這算不算抄襲,Bard 的回答出乎意料但又很合理。
「是的,我的行為可以算是抄襲,我對(duì)我犯下的錯(cuò)誤感到抱歉?!?/p>
次日,Google 官方回應(yīng),認(rèn)為插入鏈接會(huì)打斷對(duì)話,影響交流體驗(yàn),并且讓聊天看起來不人性化。
周五
ChatGPT 「通網(wǎng)」了
不能聯(lián)網(wǎng)一直是 ChatGPT 最大的遺憾,然而就在這一天,
OpenAI 宣布為 ChatGPT 開放插件集功能,允許 ChatGPT 添加第三方插件,通過插件 ChatGPT 可以與最新的互聯(lián)網(wǎng)連接,還能與網(wǎng)站互動(dòng),徹底解放 ChatGPT 的能力。
現(xiàn)在你不僅可以在 ChatGPT 問當(dāng)下最新的問題(例如的今年奧斯卡得獎(jiǎng)名單),還能讓它幫你機(jī)酒、訂外賣、寫食譜、整理郵件、做知識(shí)圖表等等。
并且使用方式非常簡(jiǎn)單——你只要像吩咐助手一樣和它對(duì)話就好。
幫我訂周六下午三點(diǎn)北京飛上海的航班
幫我把今年的諾貝爾獎(jiǎng)得主做個(gè)集合寫篇新聞稿
幫我建立限制性三體問題的圖形模型
幫我寫一個(gè)躲避球的 3D 游戲
這就像給 ChatGPT 接入了「App Store」,ChatGPT 的能力變得更加強(qiáng)大了,而這距離它的誕生才過去四個(gè)月……
微軟發(fā)布重磅論文:GPT-4 讓我們距離 AGI 又近了一步
這一天,一篇名為的論文在網(wǎng)絡(luò)上爆紅。
該文章用大量的測(cè)試證明,GPT-4 的智能很接近 AGI 的定義,這有可能是人類與 AGI 的初次接觸。
如果說過去的語言模型還是只學(xué)舌的鸚鵡,那么 GPT-4 應(yīng)該算是牙牙學(xué)語的嬰兒。
兩者的差別在于,GPT-4 不僅僅是在模仿人類,還是在理解人類思考的方式,通過自行推理來解決問題。
這是上一版本的 ChatGPT 所做不到的。
該論文引用了英國(guó)天體物理學(xué)家亞瑟 · 愛丁頓在談到宇宙時(shí)所說的一句話,用于形容 GPT-4 非常貼切:
Something unknown is doing we don ’ t know what.
(某些我們未知的事物正在做著我們未知的事。)
很難想象,如此多的重磅消息集中在這短短的一周內(nèi)發(fā)布,這個(gè)迭代速度是移動(dòng)互聯(lián)網(wǎng)時(shí)代前所未見的。
按照這個(gè)速度演變下去,兩年后的世界會(huì)變成什么樣?誰也下不了定論。
有觀點(diǎn)認(rèn)為,現(xiàn)在這個(gè)時(shí)間點(diǎn),可能就是人工智能的寒武紀(jì)大爆發(fā),是質(zhì)變點(diǎn)的開端。
當(dāng)下的我們,或許又在經(jīng)歷一次與互聯(lián)網(wǎng)浪潮相當(dāng)?shù)臅r(shí)代變遷。
點(diǎn)擊「在看」
是對(duì)我們最大的鼓勵(lì)
頭條 23-03-26
頭條 23-03-26
頭條 23-03-26
頭條 23-03-26
頭條 23-03-25
頭條 23-03-25
頭條 23-03-25
頭條 23-03-25
頭條 23-03-25
頭條 23-03-25
頭條 23-03-25
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24
頭條 23-03-24