文 | 周鑫雨
(資料圖片僅供參考)
編輯 | 蘇建勛
很長一段時(shí)間,美圖的危機(jī)感來源于 Adobe。
" 為什么做美圖秀秀?就是被 Adobe 虐的。" 美圖公司創(chuàng)始人、董事長兼 CEO 吳欣鴻在 6 月 19 日的 " 美圖影像節(jié) " 上直言。他表示,美圖秀秀一開始的定位是簡化版的 Adobe。
只是相較于更專業(yè)的 Adobe,美圖秀秀恰如其分地踩在了亞洲 " 顏值經(jīng)濟(jì) " 的風(fēng)口上。此后 15 年,這個一鍵就能幫用戶修圖、美顏的 App 一直是美圖業(yè)務(wù)的 " 門面 " ——一個明顯的標(biāo)志是,美圖后續(xù)推出的 "Wink"、" 美圖設(shè)計(jì)室 " 等產(chǎn)品,都在用戶量最高的 " 美圖秀秀 " 上擁有引流入口。
但 2022 年后,美圖危機(jī)感的來源,成了奔涌而來的 AIGC 浪潮。
2022 年下半年 Stable Diffusion 等 AI 繪畫工具的開源,是美圖感受到的第一波沖擊。太平洋東岸卷起的 AIGC 工具開源熱潮,讓小團(tuán)隊(duì)甚至普通用戶制圖、修圖的成本接近于 0。
2022 年,美圖首次實(shí)現(xiàn)全年盈利,撐起總收入 37.5% 的 VIP 訂閱代替廣告,成為美圖第一大收入。在當(dāng)年的戰(zhàn)略會上,美圖把主題定為 " 居安思危 ",準(zhǔn)備在盈利的基礎(chǔ)上進(jìn)行業(yè)務(wù)升級。
伴隨著 Midjourney 創(chuàng)造的《太空歌劇院》橫空出世,一舉奪下繪畫大獎。吳欣鴻發(fā)現(xiàn),AI 生成圖像的效果已經(jīng)達(dá)到了足以 " 冒犯藝術(shù)家 " 的水平,美圖一直引以為傲的 " 審美 " 正在被 AI 挑戰(zhàn)—— " 居安思危 " 的主題,被他改成了 " 居危思危 "。
在訪談中,吳欣鴻對 36 氪直言自己和團(tuán)隊(duì)的工作狀態(tài):沒日沒夜研究 AI 技術(shù)和測試。美圖公司集團(tuán)高級副總裁、影像產(chǎn)業(yè)事業(yè)群總裁陳劍毅則在與合作方的交流中將美圖的狀態(tài)稱為 " 生死存亡之秋 "。他特意在影像節(jié)上回應(yīng):近半年埋頭研究 AI,很多合作未能及時(shí)響應(yīng),跟合作方們說聲抱歉。
美圖公司創(chuàng)始人、董事長兼 CEO 吳欣鴻。圖源:美圖
美圖公司集團(tuán)高級副總裁、影像產(chǎn)業(yè)事業(yè)群總裁陳劍毅對 " 生死存亡之秋 " 的回應(yīng)。作者拍攝
影像節(jié)上,美圖交出了 " 近半年埋頭研究 AI" 的答卷,一口氣發(fā)布了 7 款 AI 新品——比較明顯的轉(zhuǎn)變是,主打讓用戶變美的美圖秀秀,準(zhǔn)備幫助用戶工作和賺錢。
比如新發(fā)布的 "WinkStudio",是讓專業(yè)剪輯師用 AI 像修圖一樣 " 修視頻 "。" 開拍 " 則面向了具有口播需求的商家和短視頻創(chuàng)作者,用 AI 幫助用戶生成腳本和能自動跟著語速翻頁的提詞器。
為什么會有這樣的轉(zhuǎn)變?吳欣鴻在專訪中回應(yīng):VIP 訂閱的滲透率還有增長的空間,這就迫使美圖從生活場景往生產(chǎn)力場景延伸," 要么切實(shí)幫用戶賺到錢,要么能給用戶心理上的愉悅或者優(yōu)越感,如果你能做到,大部分用戶都會買單的 "。
這次美圖發(fā)布的新品中,視覺大模型 MicroVision 的出現(xiàn)也令人驚訝。按照最為快捷的路徑,具有眾多美顏、修圖工具的美圖,只需要接入某家大模型的 API(接口),就能較低成本迅速完成對產(chǎn)品的 AI 化迭代,無需自研大模型。
但美圖選了一條荊棘路。吳欣鴻對 36 氪表示,花了近半年搭建模型的主要理由有二:一是市面上通用模型的效果有限,二是出于對數(shù)據(jù)安全的考量。
推出 7 款新 AI 產(chǎn)品后,吳欣鴻認(rèn)為美圖的危機(jī)仍沒有解除。除卻對修圖、圖片生成等 " 舒適圈 " 的 AI 改造,如今的美圖還踏足了數(shù)字人生成、口播視頻生成等市場競爭愈發(fā)激烈的新領(lǐng)域。新推出的視覺大模型 MiracleVision,也更意味著持續(xù)的研發(fā)投入和效果驗(yàn)證。
"AI 帶來很多機(jī)會和挑戰(zhàn),但這個機(jī)會不一定是我們的機(jī)會,而挑戰(zhàn)是實(shí)實(shí)在在存在的。我還是一個如履薄冰的狀態(tài)。" 他在專訪中直言。
影像節(jié)結(jié)束后,36 氪與吳欣鴻、陳劍毅就美圖在 AI 浪潮下的機(jī)會和挑戰(zhàn)進(jìn)行了交流。以下是對話:
對 " 生死存亡之秋 " 的回應(yīng):逼自己一把
36 氪:為什么美圖選擇在這個時(shí)間點(diǎn)與大家交流大模型的成果?不少友商在 3、4 月份的時(shí)候已經(jīng)發(fā)布了相關(guān)的動態(tài)。
陳劍毅:原計(jì)劃 3 月份發(fā)布,但當(dāng)時(shí)一些產(chǎn)品還沒落地,美圖要真的做出產(chǎn)品來才會對外說。
吳欣鴻:既然發(fā)布了產(chǎn)品,就得做好。如果按照原有的經(jīng)驗(yàn)、習(xí)慣去做事情,對 AI 創(chuàng)新來說是很大的阻礙,要用全新的視角和思維去看,才有可能做出創(chuàng)新的東西。
36 氪:危機(jī)感是什么時(shí)候產(chǎn)生的?
吳欣鴻:當(dāng)時(shí) Midjourney 生成的《太空歌劇院》拿了美國科羅拉多州博覽會藝術(shù)比賽的大獎,很多藝術(shù)家第一次感受到被冒犯,這是標(biāo)志性事件。
AI 在視覺和語言上齊頭并進(jìn),不可否認(rèn),語言大模型的爆發(fā)力比較強(qiáng),應(yīng)用也比較廣泛,但第一波爆發(fā)應(yīng)該是在視覺上,對美圖而言,AI 在視覺上的爆發(fā)和我們的業(yè)務(wù)相關(guān),所以對我們潛在的顛覆性更強(qiáng)。
所以當(dāng) Midjourney 出圈后,美圖也加快了步伐。
36 氪:為了應(yīng)對這波沖擊,美圖內(nèi)部做了哪些決策?
陳劍毅:第一,進(jìn)行人員調(diào)整。把受 AI 影響比較大的同學(xué),調(diào)整到需要加快 AI 布局的崗位。比如說把設(shè)計(jì)轉(zhuǎn)到產(chǎn)品崗,讓算法的同學(xué)去做模型相關(guān)的事,客戶端的同學(xué)轉(zhuǎn)去做前端。
第二,迅速將相關(guān)的生產(chǎn)力工具引入公司,進(jìn)入大家的工作流里面,比如說通過 AI 繪畫來進(jìn)行物料的創(chuàng)作等。
第三,內(nèi)部快速引入 AI 相關(guān)培訓(xùn),我們請了 AI 領(lǐng)域的講師,給大家普及 AI 發(fā)展局勢,讓大家對 AI 有更深入的理解和認(rèn)知,把團(tuán)隊(duì)的認(rèn)知搭建起來,才能更好地做事情。
36 氪:哪些業(yè)務(wù)需要調(diào)整原來的思維?
陳劍毅:從產(chǎn)品角度看,產(chǎn)品經(jīng)理又回到互聯(lián)網(wǎng)早期的狀態(tài),需要持續(xù)挖掘需求,重新去看行業(yè)的需求、用戶的需求,就像蘋果和安卓剛出來的時(shí)候,產(chǎn)品都需要做場景的深挖,這也是產(chǎn)品經(jīng)理最核心的能力之一,也就是 " 開荒 "。
從技術(shù)角度看,現(xiàn)在對市面上的開源模型配置一些中間參數(shù)或擴(kuò)寫,自然而然能快速地做出成千上萬的 AI 應(yīng)用,但是真正能被應(yīng)用的有多少,這是很關(guān)鍵的。到底能覆蓋多少用戶規(guī)模?能不能形成自然的口碑傳播?是否需要砸錢去推廣或者是買量?這是需要產(chǎn)品團(tuán)隊(duì)去做判斷的。
36 氪:對于算法工程師而言,思維的轉(zhuǎn)變大嗎?
吳欣鴻:工程師被迫去跨界,因?yàn)槟P偷挠?xùn)練其實(shí)涉及很多學(xué)科的融合,具體到某些功能上,比如美圖新發(fā)布的 AI 演員生成功能,和影視特效相關(guān),所以工程師必須具有對電影拍攝和后期的理解能力,才能去做效果的調(diào)適以及開發(fā)。AI 的創(chuàng)新要求很多人都必須是多面的,具備快速的學(xué)習(xí)能力,不管是工程師還是產(chǎn)品經(jīng)理。
陳劍毅:這波 AI 浪潮對工程師的挑戰(zhàn)和要求是更大的,一旦看到市面上有新的產(chǎn)品出現(xiàn),工程師需要去推導(dǎo)背后的技術(shù),當(dāng)確定要做相關(guān)產(chǎn)品之后,就要研究如何讓新的技術(shù)在場景中落地。現(xiàn)在,工程師不僅要對層出不窮的新技術(shù)進(jìn)行研究,還需要具備相關(guān)的專業(yè)知識,了解用戶需求和偏好以及使用場景。
" 希望行政、財(cái)務(wù)都是懂 AI 的人才 "
36 氪:美圖產(chǎn)品的應(yīng)用屬性很強(qiáng),為什么這次美圖選擇自研視覺大模型,而非調(diào)用第三方的模型服務(wù)?
吳欣鴻:我們決定要做大模型,是今年春節(jié)后。我們認(rèn)為用別人的大模型,沒有辦法對效果提出意見和要求,就好比說要有高清的畫質(zhì),人家不支持,那你就沒有辦法了,最大的問題就是受限。另外也有一些出于安全性的考量,所有我們現(xiàn)在用的技術(shù)絕大部分都是自研的。
視覺大模型 MiracleVision。圖源:美圖
36 氪:在影像節(jié)上關(guān)于視覺大模型 MiracleVision 的技術(shù)特征其實(shí)并未提及,作為一個 " 大模型 ",MiracleVision 的參數(shù)量達(dá)到了怎樣的級別?
吳欣鴻:參數(shù)量很大,我可以說個數(shù)字,但我們不想公布。因?yàn)榇竽P蛻?yīng)該是求質(zhì)不求量,目前有很多號稱十億、百億、千億級參數(shù)量的大模型,但你實(shí)際去看的效果并不好。我們認(rèn)為視覺大模型最核心的是生成效果,生成效果不是靠參數(shù)量,更重要的是要有優(yōu)質(zhì)的原始數(shù)據(jù)集。參數(shù)量會對模型訓(xùn)練產(chǎn)生影響,但不是全部,特別是對于視覺模型而言,如何實(shí)現(xiàn)更優(yōu)的視覺效果生成才是最重要的。
陳劍毅:參數(shù)對于大模型的關(guān)系,類似硬件參數(shù)對于電子產(chǎn)品的關(guān)系。你知道自己的手機(jī)用的是什么芯片嗎?是幾核的嗎?其實(shí)很少有消費(fèi)者關(guān)心這些事,他們更在意的是應(yīng)用生態(tài)。
36 氪:您覺得算力、算法、數(shù)據(jù)、人才幾個方面,哪個對視覺大模型訓(xùn)練而言是比較關(guān)鍵的?或者可以稱得上是 " 卡脖子 " 難題?
陳劍毅:我覺得得分場景,如果你想做一個通用的模型,你什么效果都能生成,極其容易,但可能生成的畫質(zhì)比較低,或者是效果本身不太好。
實(shí)際上這些生成效果是要具體去摳的。比如我們會將幾千個品類收斂到目前來看商業(yè)模式以及應(yīng)用場景比較廣泛的重要類目,例如生成國風(fēng)國潮風(fēng)格的圖像,我們需要對應(yīng)地去挑效果,不斷地對效果進(jìn)行調(diào)試,還是有蠻多細(xì)分的規(guī)則。
36 氪:這是不是意味著算法是最大的難點(diǎn)?
吳欣鴻:這個過程是用策略去驗(yàn)證調(diào)試,跟純粹的算法不太一樣。效果要實(shí)現(xiàn)持續(xù)優(yōu)化,需要不斷地去進(jìn)行調(diào)試,有點(diǎn)像匠人一樣不斷地去打磨細(xì)節(jié),這個過程是很枯燥的。除了人力以外,也涉及到美學(xué)評估系統(tǒng),不斷告訴 AI 哪個好,哪個不好,以及用戶喜歡什么樣的。
陳劍毅:就跟你帶孩子一樣,不斷告訴他什么能做,什么不能做。能做就繼續(xù)加強(qiáng),不能做,下次就不用了。
36 氪:訓(xùn)練這樣一個視覺大模型,美圖用了多少人力?
陳劍毅:美圖具體去做大模型訓(xùn)練的人,也就十幾個,但是效果調(diào)試團(tuán)隊(duì)是很多的。Midjourney 開發(fā)團(tuán)隊(duì)稱自己只有 11 個人,也是最核心的 11 個人去做模型訓(xùn)練,我個人推測其背后還是有其它團(tuán)隊(duì)持續(xù)在做數(shù)據(jù)的標(biāo)注、優(yōu)質(zhì)數(shù)據(jù)的挖掘等等,只是沒有公開。
吳欣鴻:除了核心技術(shù)人員,產(chǎn)品和運(yùn)營也或多或少參與到模型訓(xùn)練中。我們的要求是讓公司所有人對視覺大模型有概念,至少基礎(chǔ)認(rèn)知得拉起來,或多或少都參與其中,不斷擴(kuò)大參與的人數(shù)。只有這樣的話,大家才會有足夠的理解深度,才能把自己的工作做好。
36 氪:美圖會有人才焦慮嗎?
吳欣鴻:會有。所以我們也在看一些對 AI 有很大興趣、已經(jīng)做出成績的大牛。有熱情,會學(xué)習(xí),并且有成果,這種人是我們很缺的。
陳劍毅:沒有人才焦慮的公司不是好公司,不光是技術(shù)大牛,我們甚至希望行政、財(cái)務(wù)都是懂 AI 的人才,這樣大家能夠拉齊認(rèn)知,溝通效率會很高。
把工具做好,是一件確定性很強(qiáng)的事
36 氪:這次美圖發(fā)布的 7 款產(chǎn)品,其中不少是很多友商已經(jīng)涉獵的領(lǐng)域,比如數(shù)字人、口播,美圖的核心競爭力在哪里?
陳劍毅:效果和應(yīng)用場景。
吳欣鴻:美圖一直在美化人的真實(shí)形象,所以它對用戶的美學(xué)偏好是敏銳的。美圖做的數(shù)字人在美學(xué)上也會有比較高的追求。
在應(yīng)用場景上,跟我們現(xiàn)有的場景緊密結(jié)合,就像這次發(fā)布的 AI 數(shù)字人模特,它跟電商是緊密結(jié)合的。包括美顏相機(jī)做的 AI 寫真,某種意義上也是數(shù)字人的應(yīng)用,需要創(chuàng)建一個自己的寫實(shí)數(shù)字人,幫你去拍寫真。
我們不會因?yàn)閯e人做所以跟著做,而是說切切實(shí)實(shí)有這些場景的需求。我們是圍繞美圖獨(dú)特的場景,然后把美學(xué)的標(biāo)準(zhǔn)提到比較高的位置。
目前美圖的 AI 產(chǎn)品生態(tài)。圖源:美圖
36 氪:AI 技術(shù)產(chǎn)生新需求,與此同時(shí) AI 工具的競爭也愈發(fā)激烈,美圖如何應(yīng)對?
吳欣鴻:AI 技術(shù)大爆發(fā),也造成了需求大爆發(fā),大家體驗(yàn)到了 AI 帶來的生產(chǎn)力提升,嘗到這種好處就回不去了。所以需求在那兒,又有那么多的公司加入這個戰(zhàn)場,逼著我們把獲客的時(shí)間縮短。在新的領(lǐng)域,不再是我們一家,可以精耕細(xì)作多年,那么多公司都在里面找機(jī)會,意味著我們要縮短獲客流程。
36 氪:美圖縮短獲客流程的方式是?
吳欣鴻:首先確保自己在某個領(lǐng)域有非常獨(dú)特的、無可取代的價(jià)值,所以美圖也會在自己擅長的領(lǐng)域深挖,確保我們提供的產(chǎn)品力是這個領(lǐng)域中最強(qiáng)的,并且能幫助用戶去創(chuàng)造價(jià)值。說白了就是:要么切實(shí)幫用戶賺到錢,要么能給用戶心理上的愉悅或者優(yōu)越感,如果你能做到,大部分用戶都會買單的。
36 氪:兩位會覺得工具型應(yīng)用競爭加劇會讓獲客成本變高嗎?
吳欣鴻:應(yīng)該是降低的。大家嘗到 AI 的好處后就回不去了,這會促使大家去找不同的領(lǐng)域最好用的 AI 工具是哪個,所以會誕生很多需求和口碑傳播。之前的產(chǎn)品還要花錢打廣告和買量,效率很低,現(xiàn)在產(chǎn)品都是由用戶推動的,比如我們這次發(fā)布的 "WinkStudio" 和 " 開拍 ",就是根據(jù)用戶需求來推出的。
陳劍毅:是的,AI 相關(guān)的功能很容易出現(xiàn) " 人傳人 " 的現(xiàn)象。
36 氪:從美圖去年財(cái)報(bào)來看,5.86 億的研發(fā)投入已經(jīng)占到總收入的 28%,這部分投入到 AI 的比重有多少?今年美圖的 AI 研發(fā)會有側(cè)重點(diǎn)嗎?
吳欣鴻:美圖未來研發(fā)投入 AI 的占比會越來越高,現(xiàn)在再去投入一些(其他)技術(shù)或者什么,意義也不大了。
36 氪:這次發(fā)布會強(qiáng)調(diào)了美圖是聚焦工具型產(chǎn)品服務(wù)的企業(yè),AI 對業(yè)務(wù)的再造會讓美圖的業(yè)務(wù)從工具型應(yīng)用轉(zhuǎn)型到其他領(lǐng)域嗎?比如之前嘗試過的社交。
吳欣鴻:在可見的時(shí)間里,我們還是把生產(chǎn)力工具做好。生產(chǎn)力工具的領(lǐng)域,誕生了很多偉大的公司,我們?nèi)绻艹蔀槠渲兄?,那已?jīng)很了不起了。
我們沒有太多的野心,也不想太擴(kuò)展自己的邊界。我們?nèi)绻軌虬?AI 圖片、AI 設(shè)計(jì)、AI 視頻、AI 數(shù)字人這四個場景做好,或者說能做好其中兩個場景,那就已經(jīng)很了不起了。畢竟光 " 美圖秀秀 " 這個應(yīng)用,我們都做了 15 年。
我們?nèi)ツ甑氖杖胧?20 億多一點(diǎn),未來幾年靠工具,收入和利潤可能還會有增長。其實(shí)做工具也能賺到不少錢,但社交可能是一千家企業(yè)去做,最后能成一家就不錯了,失敗率太高了。把工具做好,是一件確定性很強(qiáng)的事。
歡迎交流!
頭條 23-06-30
頭條 23-06-30
頭條 23-06-30
頭條 23-06-30
頭條 23-06-30
頭條 23-06-30
頭條 23-06-30
頭條 23-06-30
頭條 23-06-30
頭條 23-06-30
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29
頭條 23-06-29