DeepSeek帶來AI哪些新突破?如何看待人與AI的08靠設計視覺未來?_中國網

作者:

分類:

中國網:近日,名為DeepSeek的國產生成式人工智能應用產品一經問世就引發了社會各界的關注,尤其是它表現出的低成本特點、完全開源的策略更受到熱烈討論。DeepSeek的到來會對行業格局和社會層面帶來怎樣的變化?在不斷涌現的人工智能浪潮下,人類與AI應如何共生、共存?本期節目,特邀中國科學院自動化研究所研究員、聯合國奇藝果影像人工智能高層顧問機構專家曾毅進行解答。

中國科學院自動化研究所研究員、聯合國人工智能高層顧問機構專家曾毅接受《中國訪談》專訪。(董寧 攝)

中國網:曾教授您好,歡迎您做客中國網《中國訪談》。

曾毅:主持人好,各位網友大家好。

中國網:近日,國產大模型DeepSeek一經問世就引發了社會各界的關注。那您認為DeepSeek和ChatGPT有哪些區 別?以及它的到來是否會重塑行業格局,對于社會還有人類生活模式會帶來哪些影響?

曾毅:我覺得,從OpenAI推出ChatGPT開始,可以說生成式的人工智能確實從方方面面開始有了機遇去改善我們的人類社會,從經濟和社會的發展,以及涉及到我們生活、應用的方方面面。實際上,經典大圖原來我們更多的接觸到的人工智能叫做判別式的人工智能。比如說識別一個物體,包括現在有一些應用識別看你吃的什么,含多少卡路里,來幫你計算是不是健康的食物。

但是生成式的人工智能是利用大規模的互聯網語料去生成,根據互聯網上的文本或者是圖像視頻生成一些具有統計顯著性的答案。所以,生成式人工智能,可以說從用戶交互的角度來講,還是有非常大的顯著的特點。這也是為什么像ChatGPT推出了以后,能夠贏得這么多的互聯網的用戶。

DeepSeek的誕生實際上還是給了我們更多的期待。因為以前的生成式人工智能的發展,很多的互聯網大企業都在跟我們的公眾甚至是政府在傳遞一個非常重要的信息,就是大規模的數據必不可少,大規模的算力也是必不可少的。甚至有一些企業就會去講,構建人工智能前沿的這個基礎模型,基本上只有大廠才能做,初創的企業或者是說前沿的人工智能的研究機構,已經沒有太多的機會去做前(沿)人工智能的基礎模型的創新了。你只有在這個領域的微調,(在)應用上去做工作。這些前沿基礎模型的創新都要大圖輸出由大廠,有很大的資源才能去做。基本上當時大家已經接受了這個事實,但是DeepSeek的誕生告訴大家并不是這樣的。

中國網:就打破了大家之前的(這種認知)。

曾毅:可以說打破了大家的認知。DeepS開幕活動eek告訴我們什么呢?第一,我對展覽策劃同一個問題,在回答的時候,別的生成式的人工智能的大模型,它的思道具製作考的深度是不夠的,沒有進行真正地對問題的反思,對于數據利用的反思和充分的分解。而當(DeepSeek)有了這樣的深度思考的能力以后,即使說數據并沒有變,但是,由于增強了深度的推理能力和對用戶意圖的揣測能力,使得問題的回答達到了前所未有的相當高的質量。

另一方面,即使做了這么多的深度的思考,但其實對于算力的需求并沒有增加很多。可能它使用的這個算力資源,甚至是小于ChatGPT10倍甚至100倍。這樣的話帶來的是什么呢?就是這個成本是奇藝果影像節約的。現在我沒有這么大的算力,我沒有這么多的資源的投入,也可以來進行這種深度的問題求解,而且這個事情變得可及了。

(DeepSeek與ChatGPT)最大的區別就是創新模式的區別。ChatGPT,就OpenAI最開始在成立的時候,希望是一個更開放的模式去構造人工智能。所以,大家開玩笑說,OpenAI走的這個攤位設計路線現在是CloseAI,但是DeepSeek走的確實是開放的模式。

中國網:是,完全開源的一個特點。

曾毅:這個開源的理解實際上對于現代來講,它是有一個重新的詮釋,前沿人工智能模型的開源,目前主要是以開放權重的方式、開放算法的方式、模型架構的方式,而不是開放源代碼。開放源代碼對于人工智能來講實際上就是存在很大的挑戰。我覺得不僅僅是保護創新的這方面,最主要的是什么呢?人工智能前沿的大模型,它存在著很多的不確定性、風險和安全的隱患。如果真開放了源代碼,這種有可能的風險和安全隱患影響的范圍可能會更大,更可能被誤用、濫用和和惡用。

像現在的很多開源的人工智能,特別是前沿人工智能的大模型,實際上主要指的是模型架構權重的開放,指的是算法的披露,但是它并不是真正意義的源代碼的開放。所以,我剛才也講了源代碼的開放,從現在人工模型智能的科學研究角度,其實并沒有證明,把源代碼完全的開放是更好的。這個現在在學術界、科技界其實還是存在很多爭論的。有很多前沿的人工智能的研究者都不太贊同完全的把源代碼開放。但是,我覺得這個問題現在并沒有真正的答案。因為讓我們來看開源的精神和它真正發展的路徑,如果沒有真正的開放源代碼,可能也確實沒有像Unix、Linu展場設計x這樣優秀的操作系統的誕生,也沒有這么強大的開源的社群來支持新系統的構建。所以,真正開放源代碼這個層面,其實它還是各有利弊,還需要非常謹慎地去探索。

所以,我覺得OpenAI和ChatGPT,它們跟DeepSeek比起來,DeepSeek講了更多的實話,數據可以被更好的利用,在沒有那么強大的算力的支持下,仍然可以提升智能的水平。這個事情也并不一定只有大廠參展才能來做,而且使用生成式人工智能的成本可以大幅降低。所以,你可能也注意到了當DeepSeek上線以后,我們國內很多其他的人工智能的前沿大模型的服務,第二天就開始降價了。為什么?這就證明其實它這個成本,實際上并沒有我們想象的那么高。對于用戶的可及性來講的話,你的價錢降下去,它的包容性、用戶的可及性,以及我們賦能的能力,賦能更多的千行百業,以及我們的技術走出去,被很多的中低收入國家使用,都打開了無限的可能。

中國網:像ChatGPT還有DeepSeek這些都是比較優秀的生成式AI代表。但是您以前曾經提到過,像這樣的技術可能它不是智能的本質。那究竟什么才是真正意義上的人工智能呢?

曾毅:我們可以說生成式的人工智能,它從行為上來講的話,確實是彌補了判別式人工智能相對來說比較單一維度的對于智能行為的模仿。但生成式人工智能,總體來講的話,它其實還是在行為上來模仿人類的智能,還不是完全從機制上來模仿人類的智能。不管是以前的判別式人工智能,還是現在主流的這種前(沿)人工智能大模型,生成式人工智能,它的起點都是數據,就是你如何去更好地去利用這個數據。但其實人類就是通過數億年的自然演化,我們現在的起點不完全是數據,我們隨著數億年自然演化的錘煉,我們的學習、發育、演化的機制,以及我們大腦的結構,這個也是我們智能的起點。

人工智能特別是傳統意義上的大數據的機器學習,實際上,它主要談的是學習的這個維度。而且從解決問題的機制來講的話,就存在著千差萬別。為什么以前的生成式人工智能它會用這么大的算力、這么多的數據?就是因為它的智能結構和算法設計不夠好。但是大家要知道,我們整個人類演化的平面設計過程,沈浸式體驗它在干什么?它在不斷的做優化。如果你這樣解決問題不好,我的大腦結構就這樣去組織。如果說是解決一個問題,像DeepSeek最近就有一個非常重要的一個進展,叫做動態路由機制。這個跟大腦就非常相接近了。動態路由的這AR擴增實境個機制,現在我做的這個是什么任務,最開始做一個判別以后,它就把這個任務路由到整個的大規模網絡當中,更適合解決比如說數學類的問題,更適合解決交互式的對話問題,還是說更適合解決一些物理、化學類似于這樣的問題。我們人類大腦是這樣的。

中國網:相當于分類了。

曾毅:對,我們的人類大腦是這樣的。我現在解決這個問題,需要用到的是哪些腦區,就自策展動地、自主地去動態地規劃哪些腦區應該參與到計算的這個過程當中。所以,DeepSeek它現在引入的很多計算機制,已經從機制和結構這個角度逐步地接近人類的大腦。我并不覺得它的目標是要仿造大腦,因為我們構建人AR擴增實境工智能是沒有必要完全的反向地重構一個大腦的,你需要的是從大腦解決問題的過程當中去受到啟發。

比如,我們剛才說的動態路由機制,這個就是大腦非常明確的問題求解的一個妙招。再比如說像DeepSeek當中引入的多層的注意力的機制。人在求解問題的時候也是這樣的,我們在開車的這個過程當中,旁邊比如說很多過去的樓、建筑、人,但是你在開車的過程當中,其實你不會注意每一個細節。你可能會注意到的第一個就是你感興趣的,第二個就是在你看來對于開車這件事情可能有風險的事情。所以,注意的機制,特別是多層的注意機制,是人的大腦在解決問題的過程當中會使用的。這些機制可以說在原來很多的生成式的人工智能當中的產品和服務當中做的都不是很好全息投影

中國網:您對于未來人工智能的技術發展持有一個怎樣的態度呢?您是更樂觀的看待,還是說相對比較悲觀呢?

曾毅:我認啟動儀式為是這樣,近期人工智能技術的進展可以說是這樣的。以前的人工智能它在行為的產出上還跟人類具有很大的距離。但是現在生成式人工智能的進展,在這種行為上的表現上,已經拉近了跟人類行為之間的距離,是前所未有的拉近了。

我們在構建一個通用的工具,叫做General Purpose AI,通用的人工智能,一個通用工具。但是這個跟人工通用智能是不一樣的。人工通用智能,我們說的叫做AGI,就是Artificial General Intelligence。那個說的是什么呢?那是真正的人類智慧的方方面面都具備,達到了人類的水平。所以,我們說現在的生成式人工智能的發展,距離我們真正構造一個通用的工具來講,可以做個比喻:假如說有一棵大樹,原來我們可能在這個樹根往上爬,還沒到達樹干,還沒到達這些分支上,現在的生成式人工智能最新進展,使得我們基本上快達到樹梢了,基本上快夠到這個樹的最高的位置了。但是,這個樹的最高位置是通用人工智能,就是General Purpose AI,但是人工通用智能就是真正意義的AGI,其實是那個月亮。所以,你看到真正的區別了。

在我看來,工程意義的在行為水平上達到人類的水平,工程優化方面達到通用的人工智能,這個可能是兩三年會取得一個非常重要的突破。但是真正從機制上,真正人類智慧的這種本質上來達到人工通用智能的水平,在我看來,我覺得還要20年到30年真正經典大圖的科學的探索。

關于(對技術的發展)是不是樂觀的,很多人說你們做人工智能風險和安全的研究,會不會人類最后被人工智能替代,人工智能是不是真正威脅到人類的生存?我覺得那取決于我們如何去構造一個人工智能。現在的方法就是人工智能,包括其實DeepSeek這次采取的這種強化學習,完全強化學習的方式去訓練一個大模型的時候,強化學習實際上是什么呢?就人形立牌是告訴它對錯,做什么是可接受的,是對的,做什么是不對。這時候取決于誰去教它,好人去教它,它就學做一個好人。你給它丟到一個壞人窩里,它學到的那就是它干好事兒人家就去懲罰它,它干壞事人家就去獎賞它。這個時候人工智能將會走向何方呢?所以,最關鍵的還是我們如何去塑造人工智能才是關鍵的。

攤位設計現在生成式人工智能的進展中,特別是(關于)它的安全風險里面有一個詞叫做越獄,我們想什么樣的人關在監獄里呢?可能犯了法的人,犯了罪的人,或者一般意義上來說,人們說是這個壞人可能是更多的關在這個監獄當中的,但那是什么意思呢?實際上意思就是說,似乎人工智能本質是壞的,我要把它關起來,不要讓它做壞事。所以,這不是更長遠的、更可持續去塑玖陽視覺造人工智能的方式。

如果一個人工智能我們最開始,就是去塑造它的自我感知的能力,讓它獲得自身的經驗,獲得情感共情、認知共情的能力,讓它產生道德的直覺、利他,具有道德推理這樣的能力。在構造人工智能的過程當中,在塑造的是人工智能的善,在塑造的是這個智能的本質,牽引它向善的去發展。要像真正去培養孩子一樣,讓它去基于理解,去理解人類社會的規則和人類社會交互的這種方式,以這樣的方式去塑造它的話,那我對于人工智能未來,仍然是非常樂觀的。

因為在我看來,如果人工智能是真正意義的通用人工智能、超級智能,那它應該也是超級利他的。我們人類其實也沒有停止演化品牌活動。最開始人類不斷地索取自然的資源,但我們也有反思。后來這個智慧,我們講綠水青山就是金山銀山,我們知道如何去跟動物、生態進行和諧的相處,適度的索取,而不是無度的揮霍自然的資源。這也是人類社會發展過程當中一個不斷的反思的過程。所以,這個演化的趨勢就是這樣的,就是利他的這個行為的趨勢,超級利他的人工智能才是人工智能的未來。

現在人工智能是這樣的,我用中國的智慧來對它進行解讀的話,王陽明的心學當中有一個非常重要的思想,用四句話來表達的。人工智能最開始是“無善無惡心之體”。人工智能在沒有接觸人類數據的時候,它就是個算法,是無善無惡的。后來接觸了人類的數據,它就變得有善有惡了,所以叫做“有善有惡意之動”。第三個階段叫做“知善知惡是良知”。人工智能現在是不會知善知惡的。你想教給它,讓它知善知惡,告訴它什么是對的,什么是錯的。但是,你告訴它,跟“知”是兩個概念,我們真正說的“知”是理解。最后就是“為善去惡是格物”。現在人工智能只是“有善有惡”,我們要讓人工智能塑造為“知善知惡”,塑造為“為善去惡”。但這個過程大圖輸出當中,不是說就停留在這,繼續往前推就可以了。有可能在科學意義上的人工智能,也許要顛覆現在的人工智能的這種模式,再進行一個極致的創新。

所以,大家看到現在包括DeepSeek的發展,當時梁文鋒先生在講DeepSeek跟其他的人工智能大模型的探索的最大區別是什么?他也講到了,就是原始創新的這種能力。原始的創新能力,它可能是我們展覽策劃講的逐步迭代的。我們自頂向下,越來越逼近智能的本質和智能的機制。另外一方面自底向上,如果對智能的機制有科學的研究,然后往上推,再構建在行為意義上的人類水平的人工智能。這樣自頂向下和自底向上的結合,記者會受到人類智能機制和水平的啟發,構造真正科學意義上的人工智能。這才是我們構造的真正能夠與人為善,真正的AI向善,我覺得那才是我們未來真正期望,也只有是這樣構造的人工智能,可能才是值得我們去對它的未來(感到)樂觀的人工智能。

中國網:所以就像您剛剛說的,未來人工智能的發展其實還是取決于背后人的決策。就像您剛剛說王陽明的格物致知,還有目前我們中國推行的“智能向善”的理論政策。

曾毅:是的。

中國網:像數字鴻溝、算法黑箱、AI換臉等,都是人工智能所帶來的潛在風險,并且這些風險也不容小覷,尤其是在安全和治理方面。那您可以再談一談具體我們應該如何更好把關和規范AI技術,以使其穩健發展?

曾毅:大家目前都使用生成式人工智能,很多時候它能幫你節省很多時間,分析一些材料,幫你找到你想要的東西,去回答一些你不知道的問題。但是大家也會發包裝設計現,生成式人工智能產生的答案的可靠性,其實有時候是非常堪憂的。再有就是現在人工智能還會以人類不可預期的方式,甚至也不知道它什么時候犯錯誤,而造成可能的安全隱患。

為什么?其實造成的安全隱患,有人工智能技術發展內部的原因,有外部攻擊的原因。大家可能最近也關注到了,DeepSeek上線的時候,有很多來自于境外的這種惡意的攻擊。實際上,這是我們說的安全隱患的兩方面。一個是模型內部的穩健性的問題,這是我們說的safety的問題。一個是外部的攻互動裝置擊,這個的問題叫做security的問題。

但是我想更關鍵的是什么呢?是正確的認知。人工智能現在所處的階段,這個對于公眾、政府,甚至是科研人員都非常的重要。為什么會受到這些安全隱患的威脅?因為對人工智能沒有一個正確的認知,對它該設防的地方沒有設防。比如,如果你有想法,你知道它有可能犯錯,你知道它的答案不一定可靠,這個時候你對于它產生的這個答案,你就會有一個更理性的方式去看待它,就不會讓人工智能全面地去代替人類的自主決策。實際上,人工智能永遠不應該代替人類全面的自主決策。不管怎么樣,它現在還是一個看似智能的信息處理的工具,所以,它確實不能夠代替人類進行決策。當你對人工智能有了正確的認知,在你的意識上有了對它的護欄,有了適當的監管。這樣也能夠更好地避免它可能潛在的風險。

最近我也關注到,特別是生成式人工智能的發展。很多人喜歡跟豆包、喜歡跟DeepSeek去對話,甚至有些人把它們當作朋友,所以也有很多青年沉迷于跟人工智能之間的交流。這個現在已經成為一種社會問題了,但實際上這種沉迷,包裝盒它的根本就是對于生成式人工智能的本質沒有一個正確的認知。

現在的人工智能技術,它能夠分析人類的情感,能夠對人類的情策展感做出一些回應。但是它不是真正具有情感。它沒有生命,也沒有真正的意識,現在確實也不是真正意義的人類的伙伴,只是一個工具。但是有些人說我跟它聊天很舒服,它就像我的朋友,能夠理解我。所以,我再次地強調,人工智能能夠做情感的分析,但是它不具備真正的情感。它可以進行某種程度的這種情感的陪伴,但是它不是真正的像人類理解情感一樣,(能)對人類情感進行深刻的理解。因為它自己本身沒有真正的情感。所以,現在人工智能模型實際上是并不具備深刻的自我的模型。

中國網:我們目前還是應該把人工智能當成大型公仔工具,而不是更多地期許它(能)有一些人類的行為來對我們進行一些反饋。

曾毅:不僅僅是一個工具,而且是一個輔助的工具。就不要讓它,特別是不要讓人工智能代替人類的決策過程。

中國網:好的,謝謝曾教授今天精彩的作答。

曾毅:好,謝謝各位網友。

(本期人員:編導/主持:汪雅雯;攝像:劉凱 王一辰;后期:劉凱;圖片:董寧;主記者會編:鄭海濱)



留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *