1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        2024年人工智能領域10大預測

        共 9926字,需瀏覽 20分鐘

         ·

        2024-04-12 02:26

        2023 年人工智能領域如果只能篩選一個關鍵詞的話,恐怕非“大模型”莫屬。大模型的發(fā)展在過去一年中,讓各行各業(yè)發(fā)生了天翻地覆的變化,有企業(yè)因大模型而新生,有企業(yè)因大模型而消亡。企業(yè)的變遷跟技術迭代息息相關,而大模型就是新一代人工智能技術下的產(chǎn)物,大模型已經(jīng)深入各行各業(yè)對具體業(yè)務進行了全方位的干預,可以說未來沒有一個行業(yè)能脫離 AI 大模型的影子。新年伊始之際,人工智能的的發(fā)展也將進入下一階段,對社會生產(chǎn)的改變也將更加明顯,下面是根據(jù)過去一年人工智能的發(fā)展現(xiàn)狀對未來一年人工智能發(fā)展的預測。

        cd934c51f6404ce7df28c0325e72ab8d.webp







        以MoE為主的方法將成為大模型研究的新方向


        MoE ,即 Mixture-Of-Experts ,是一種深度學習技術,它通過門控網(wǎng)絡實現(xiàn)任務 / 訓練數(shù)據(jù)在不同專家模型間的分配,讓每個模型專注處理其最擅長的任務,進而實現(xiàn)模型的稀疏性。這種方法可以在保證運算速度的情況下,將模型的容量提升 >1000 倍。

        MoE 模型由兩個關鍵組成部分構(gòu)成:門控網(wǎng)絡和專家網(wǎng)絡。門控網(wǎng)絡負責根據(jù)輸入數(shù)據(jù)的特征,動態(tài)地決定哪個專家模型應該被激活以生成最佳預測。專家網(wǎng)絡是一組獨立的模型,每個模型都負責處理某個特定的子任務。通過門控網(wǎng)絡,輸入數(shù)據(jù)將被分配給最適合的專家模型進行處理,并根據(jù)不同模型的輸出進行加權融合,得到最終的預測結(jié)果。

        MoE 模型已經(jīng)在一些實際應用中取得了顯著的效果。例如, Mo?t & Chandon ,這是一家法國的精品酒莊,也是奢侈品公司 LVMH Mo?t Hennessy Louis Vuitton SE 的一部分。他們使用 MoE 模型來提升其產(chǎn)品的質(zhì)量和準確性。

        2023 12 月份, Mistral AI 發(fā)布了 GPT-4 架構(gòu)的開源版本 Mistral 8x7B 模型, 8 70 億參數(shù)的小模型組合起來,直接在多個跑分上超過了多達 700 億參數(shù)的 Llama 2 。英偉達高級研究科學家 Jim Fan 推測, Mistral 可能已經(jīng)在開發(fā) 34Bx8E ,甚至 100B+x8E 的模型了。而它們的性能,或許已經(jīng)達到了 GPT-3.5/3.7 的水平。

        93d88e1107bf82364dcc0bfdbc4134d0.webp








        Transformer架構(gòu)的統(tǒng)治地位將受到挑戰(zhàn)


        在過去的幾年中自從 Transformer 出現(xiàn)之后,它的架構(gòu)幾乎就是為大模型而量身制作的,簡單的前饋神經(jīng)網(wǎng)絡模型能夠提供給模型足夠大的參數(shù),再加上帶有殘差和注意力模塊編解碼結(jié)構(gòu)的堆疊,不僅是參數(shù)量更進一步的增大,巍模型提供更強大表示能力,稠密的多頭自注意力機制還為模型提供了數(shù)據(jù)內(nèi)部不可或缺的關系表達能力。

        但是隨著底層基礎模型技術的研究和發(fā)展,逐漸有一些新的模型架構(gòu)對傳統(tǒng) Transformer 造成了一定的挑戰(zhàn),當然這種挑戰(zhàn)不僅僅局限于學術層面,更多的可能還會在后續(xù)的工業(yè)界得到證實。

        由于 Transformer 本身參數(shù)的增加隨著 token 的增加成 2 次方的增長,這導致計算成本也在迅速的增長,其次 Transformer 在參數(shù)達到一定量級后也出現(xiàn)了表達瓶頸的現(xiàn)象,由此出現(xiàn)了一些在未來可能會替代 Transformer 的研究方案。

        l RetNet RetNet Retentive Network )被設計為大型語言模型的基礎架構(gòu), RetNet 的主要優(yōu)勢在于它能夠同時實現(xiàn)訓練并行化、低成本推理和良好的性能。 RetNet 提出了一種名為 "retention" 的機制來替代傳統(tǒng)的 "attention" 機制。這種機制支持三種計算范式,即并行、循環(huán)和分塊循環(huán)。具體來說,其并行表示允許訓練并行化,循環(huán)表示使得推理成本低,而分塊循環(huán)表示有助于有效地進行長序列建模。

        l RWKV RWKV Receptance Weighted Key Value )將 Transformer 的高效可并行訓練與 RNN 的高效推理相結(jié)合。 RWKV 的設計精良,能夠緩解 Transformer 所帶來的內(nèi)存瓶頸和二次方擴展問題,實現(xiàn)更有效的線性擴展,同時保留了使 Transformer 在這個領域占主導的一些性質(zhì);

        l Mamba Mamba 基于選擇性狀態(tài)空間模型( SSM ), Mamba 將這些選擇性 SSM 集成到一個簡化的端到端神經(jīng)網(wǎng)絡架構(gòu)中,無需注意力機制,甚至不需要 MLP 塊。 Mamba 通過讓 SSM 參數(shù)作為輸入的函數(shù),解決了其離散模態(tài)的弱點,允許模型根據(jù)當前標記選擇性地沿序列長度維度傳播或忘記信息。 Mamba 具有快速的推理(吞吐量比 Transformer 5 倍)和序列長度線性縮放。在語言建模任務中, Mamba-3B 模型在預訓練和下游評估中均優(yōu)于相同規(guī)模的 Transformer ,并且與其兩倍大小的 Transformer 模型相媲美。

        2759ba5c4a390174711e60f1c49db3ce.webp

        l UniRepLKNet UniRepLKNet 是由騰訊和香港中文大學聯(lián)合發(fā)布的一種基于大核卷積神經(jīng)網(wǎng)絡( CNN )的大模型基礎架構(gòu)。 UniRepLKNet 采用大核 CNN ,可以處理多種模態(tài)的數(shù)據(jù),如圖像、音頻、時序預測等。 UniRepLKNet 提出了四條用于大核 CNN 架構(gòu)設計的指導原則,并設計了一種硬件感知的并行算法,實現(xiàn)了實際測速優(yōu)勢,在多種模態(tài)上均實現(xiàn)了最先進的性能。 UniRepLKNet 在時序預測的超大數(shù)據(jù)上用這一為圖像設計的 backbone 達到了最先進的性能。這些特性使得 UniRepLKNet 成為了一種強大的模型架構(gòu),它有效地利用了大核 CNN 的優(yōu)點;

        l StripedHyena StripedHyena 是由 Together AI 發(fā)布的一種新型人工智能模型,它將注意力和門控卷積結(jié)合成了所謂的 Hyena 運算符。 StripedHyena 采用了一種獨特的混合結(jié)構(gòu),將門控卷積和注意力結(jié)合成了 Hyena 運算符。這種結(jié)構(gòu)使得 StripedHyena 在訓練、微調(diào)和生成長序列過程中具有更高的處理效率,更快的速度和更高的內(nèi)存效率。在短序列任務中,包括 OpenLLM 排行榜任務, StripedHyena 在性能上超越了 Llama-27B 、 Yi7B 以及最強大的 Transformer 替代品,如 RWKV14B 。 StripedHyena 能夠處理長序列,這使得它在處理長提示的各種基準測試中表現(xiàn)出色。 StripedHyena 的設計優(yōu)化了計算效率,使得它在訓練期間能夠進行體系結(jié)構(gòu)修改。

        l PanGu- Π Pangu Π是一種新型的 Transformer 模型,它針對 Transformer 的特征坍塌問題和非線性關系進行了優(yōu)化。在 Transformer 更深層中,特征的秩顯著降低,導致所有 token 之間的相似性增加,這極大地降低了 LLM 的生成質(zhì)量和多樣性。非線性對 Transformer 模型的能力有重大影響。增強非線性可以有效地緩解特征坍塌的問題,并提高 Transformer 模型的表達能力。 PanGu Π在前饋網(wǎng)絡( FFN )中采用了級數(shù)激活函數(shù),并且在多頭自注意力( MSA )中集成了增強型快捷連接,這有效地為 Transformer 架構(gòu)引入了更多的非線性。并增廣 Shortcut Augmented Shortcut )來緩解特征坍塌的問題,提高大語言模型的表達能力。

        96615175f0acd21a71a7606fbddd4d59.webp

        以上這些基礎模型框架或者相關微調(diào)技術都將會對 Transformer 的統(tǒng)治地位造成一定的影響,能否完全替代 Transformer 在大模型一統(tǒng)天下的局面,不僅要看學術界的成果,更要看工業(yè)界的行動。








        大模型免微調(diào)方法得到一定的發(fā)展


        大模型表現(xiàn)能力如此顯眼,其中少不了對模型的微調(diào),而近期的一些研究表明通過對 alignment tuning 的深入研究揭示了其“表面性質(zhì)”,即通過監(jiān)督微調(diào)和強化學習調(diào)整 LLMs 的方式可能僅僅影響了模型的語言風格,而對模型解碼性能的影響相對較小。具體來說,通過分析基礎 LLMs alignment-tuned 版本在 token 分布上的差異,作者發(fā)現(xiàn)在大多數(shù)情況下,它們在解碼上表現(xiàn)幾乎相同,主要的變化發(fā)生在文體方面,如話語標記和安全聲明。

        研究者提出了一種名為URIALUntuned LLMs with Restyled In-context ALignment)的簡單、無需調(diào)優(yōu)的對齊方法。URIAL方法利用上下文學習(ICL),通過采用少量精心策劃的風格示例和精心設計的系統(tǒng)提示,實現(xiàn)了對基礎LLMs的有效對齊,而無需調(diào)整其權重。在這個方法中,通過巧妙構(gòu)建上下文示例,首先肯定用戶查詢并引入背景信息,然后詳細列舉項目或步驟,最終以引人入勝的摘要結(jié)束,其中包括安全相關的免責聲明。

        研究發(fā)現(xiàn)這樣一個直接的基準方法能夠顯著減小基礎LLMs和經(jīng)過對齊的LLMs之間的性能差距。這表明,通過精心設計的上下文示例,可以在不進行調(diào)優(yōu)的情況下實現(xiàn)對基礎LLMs的有效對齊,為對齊研究提供了新的思路。

        事實證明,只要基礎模型設計的夠好,加以優(yōu)質(zhì)的數(shù)據(jù)和足夠的訓練,完全可以省去微調(diào)的步驟,這不但提高了大模型訓練的效率,也大大減低的大模型微調(diào)的成本。

        7fc73899c145fd374a76736298c84b3d.webp









        多模態(tài)大模型將持續(xù)滲透各行各業(yè)


        隨著最近一年來以 ChatGPT 為主的大模型逐漸走向應用市場,從最初的語言模型應用,已經(jīng)發(fā)展到了視覺模型應用、語音模型應用等多個應用領域,由此也誕生了多模態(tài)大模型。多模態(tài)大模型,即能夠處理多種類型輸入(如文本、圖像、語音等)的人工智能模型。多模態(tài)大模型正在逐漸改變各行各業(yè)。

        多模態(tài)大模型已經(jīng)在自動駕駛領域得到應用,例如,可以利用多種不同的傳感器,例如攝像頭、激光雷達、超聲波等,來構(gòu)建一個更加全面和準確的自動駕駛系統(tǒng)。中國科學院自動化研究所的 “全媒體多模態(tài)大模型”結(jié)合新華社全媒體的海量數(shù)據(jù)積累和媒體融合業(yè)務場景,推動了人工智能在視頻配音、語音播報、標題摘要、海報創(chuàng)作等多元媒體業(yè)務場景的應用。

        微軟的研究員撰寫的綜述預測,多模態(tài)基礎模型將從專用走向通用,未來將有更多的研究關注如何利用大模型處理多模態(tài)任務。中國科學院預測, “多模態(tài)大模型 + 小模型”的模式可能成為主流,多模態(tài)人工智能產(chǎn)業(yè)正在走向場景應用的新階段。多模態(tài)大模型將在未來的人工智能發(fā)展中起到重要作用。

        這些證據(jù)和預測表明,多模態(tài)大模型將持續(xù)滲透并改變各行各業(yè),為我們的生活帶來更多可能性。在新的一年,多模型模型的發(fā)展應用將持續(xù)深入各行各業(yè),對具體的業(yè)務產(chǎn)生不可忽視的影響。

        c7d734f67d09c6cb03be0ea036c9a79d.webp









        具身人工智能開始迅速發(fā)展


        具身人工智能,也被稱為 Embodied AI ,是指具有物理實體并能與真實世界進行多模態(tài)交互的智能體。具身智能( Embodied Intelligence )是一種智能系統(tǒng)的設計理念,其目標是通過將感知、決策和行動融合在一起,使機器能夠像人類一樣具備身體和運動能力。具身智能的核心理念是利用機器的身體結(jié)構(gòu)和動作能力來增強其智能表現(xiàn)和解決復雜任務的能力。傳統(tǒng)的人工智能系統(tǒng)主要關注于數(shù)據(jù)處理和算法的優(yōu)化,而具身智能則更加注重機器與環(huán)境的互動和交流。

        1986 年,著名的人工智能專家布魯克斯 (Rodney Brooks) 提出了具身智能的理論,他認為智能是具身化和情境化的,傳統(tǒng)以表征為核心的經(jīng)典 AI 進路是錯誤的。

        李飛飛教授提出了一套新的計算框架 —— DERL deep evolution reinforcement learning )深度進化強化學習,這篇文章提到了生物進化論與智能體進化的關系,并借鑒了進化論的理論應用于假設的智能體( unimal 宇宙動物)的進化學習中。

        目前,具身智能已經(jīng)成為國際學術前沿研究方向,包括美國國家科學基金會在內(nèi)的機構(gòu)都在推動具身智能的發(fā)展。谷歌公司的 Everyday Robot 已經(jīng)能夠?qū)C器人和對話模型結(jié)合到一起,形成一個更大的閉環(huán)。 UC 伯克利的 LM Nav 用三個大模型(視覺導航模型 ViNG 、大型語言模型 GPT-3 、視覺語言模型 CLIP )教會了機器人在不看地圖的情況下按照語言指令到達目的地。

        基于形態(tài)的具身智能研究,例如機器人關節(jié)控制,使機器人完全依靠自身形態(tài)即可實現(xiàn)對整體行為的控制。具身人工智能正在快速發(fā)展,并在人工智能領域中占據(jù)越來越重要的地位。

        db22fb4b8d5e9fb7a80f4da3d27ba64c.webp








        通用人工智將進入爆發(fā)的前夜奇點


        通用人工智能( Artificial General Intelligence , AGI )是指一種具備與人類相似或超越人類智能水平的人工智能形式。與狹窄人工智能( Narrow AI )不同,狹窄人工智能是專注于執(zhí)行特定任務或解決特定問題的人工智能形式。通用人工智能則是更全面、靈活,能夠處理多個不同領域的任務,具有類似人類的學習能力和智能適應性。 隨著生成式人工智能的發(fā)展, 未來 的人工智能技術發(fā)展已經(jīng)到了 通用人工智能前夜的爆發(fā)奇點 。

        麥肯錫的最新年度全球調(diào)研結(jié)果證實,生成式人工智能(簡稱 GenAI )工具已出現(xiàn)爆炸式增長。許多此類工具至今推出尚不滿一年,但已有 1/3 的受訪者表示,其所在組織會在至少一項業(yè)務職能中經(jīng)常使用 GenAI 。

        OpenAI 發(fā)布了「 AGI 路線圖」,詳細解釋了這家前沿研究機構(gòu)對通用人工智能研究的態(tài)度。 OpenAI 不斷構(gòu)建出更為強大的 AI 系統(tǒng),希望快速部署 AGI ,以積累在相應的應用經(jīng)驗; OpenAI 正在努力創(chuàng)建更加一致和可控的模型; OpenAI 希望全球范圍內(nèi)解決三個關鍵問題:人工智能系統(tǒng)的治理問題, AI 系統(tǒng)產(chǎn)生的收益的分配問題,以及訪問權限的共享問題。 OpenAI 預計給世界帶來巨大變化的 AGI 在最后階段一定會出現(xiàn)。

        國內(nèi) 科大訊飛副總裁、研究院院長劉聰提出,未來通用人工智能發(fā)展將呈現(xiàn)三個趨勢:一是向多模態(tài)、多語言的方向發(fā)展;二是更加可信和可解釋,解決幻覺問題和安全問題;三是必須站在軟硬件全自主創(chuàng)新的基礎上發(fā)展大模型技術和產(chǎn)業(yè)。

        麥肯錫預測,通用人工智能的潛在經(jīng)濟價值在 17 萬億至 26 萬億美元之間,并且追求這種價值的公司比例也在持續(xù)增加。

        這些證據(jù)和預測表明,未來一年可能是通用人工智能前夜的爆發(fā)奇點,我們有理由期待通用人工智能的快速發(fā)展和廣泛應用。

        906ed297cdcdff8d8afe8fbf78636b3f.webp










        垂直領域大模型的發(fā)展將進入平穩(wěn)期


        垂直領域大模型是針對特定領域或任務進行深度學習訓練的超大規(guī)模模型。相較于通用大模型,垂直大模型具有更強的領域?qū)I(yè)性和任務針對性,能夠更好地解決特定領域的問題和提供更加精準的服務。

        隨著各行業(yè)中垂直類大模型應用的持續(xù)爆發(fā),大模型對各行業(yè)的影響已經(jīng)進入了頂峰時刻,如醫(yī)療、教育、交通、法律、媒體等很多能夠被大模型最容易改變的行業(yè)都已經(jīng)與大模型深度結(jié)合,相關的企業(yè)也都在緊鑼密鼓的部署大模型的產(chǎn)業(yè)鏈。從時間節(jié)點上來說,在未來一年中,垂直類大模型的應用 已經(jīng)過了爆發(fā)期 , 將會進入平穩(wěn)的發(fā)展期,持續(xù)釋放行業(yè)需求和紅利。

        垂直大模型正加快覆蓋各行各業(yè)。例如,攜程集團發(fā)布了國內(nèi)首個旅游行業(yè)垂直大模型 “攜程問道”;華為發(fā)布了金融、電力、藥物分子三個垂直領域大模型;京東表示發(fā)布的千億級大模型,進一步聚焦行業(yè)應用。

        未來垂直領域大模型的研發(fā)將會持續(xù)投入加大,國內(nèi)多家企業(yè)加大 “垂直大模型”研發(fā)投入,并在旅游、商業(yè)、金融、醫(yī)療、辦公協(xié)同等領域加快應用。

        業(yè)內(nèi)人士認為,目前,國內(nèi)出現(xiàn)了做通用大模型和做垂直大模型兩條路徑。算力、大規(guī)模數(shù)據(jù)、高成本人才成為大部分企業(yè)入局通用大模型的 “攔路虎”。深度定制、廣闊的場景應用,則催生了國內(nèi)垂直領域大模型的開發(fā)。

        騰訊發(fā)布的大模型時代 AI 趨勢報告顯示,未來的數(shù)字化商業(yè)將分為大模型基礎設施型企業(yè)、垂直行業(yè)領域的小模型應用企業(yè),以及更加貼合個人用戶的模型應用和服務。這一生態(tài)的建立和發(fā)展,將更廣泛地賦能各行業(yè)應用,加快社會各領域數(shù)字化轉(zhuǎn)型、智能化發(fā)展,帶來全社會的生產(chǎn)效率提升。垂直領域大模型的發(fā)展已經(jīng)進入平穩(wěn)期,其應用和影響將會越來越廣泛。

        8de924ce294bec0ae20fb1a09294a190.webp









        國內(nèi)人工智能技術突破瓶頸開始快速發(fā)展

        人工智能的發(fā)展源于上個世紀 50 年代在美國達特茅斯會議上的共識,距今已經(jīng)有 70 多年了,也就是說人工智能其實不是一門新的學科和技術,這幾十年來,全球研究人工智能的技術人員主要都集中在美國、加拿大、英國等國家,相關的技術成果也都出自于上述國家的技術團隊。而我國在過去幾十年間,真正研究人工智能技術的團體和個人則要少得多,這主要是因為人工智能在過去幾十年間都是以基礎研究為主,很少出現(xiàn)應用型的人工智能產(chǎn)品。

        國內(nèi)真正大規(guī)模開始研究人工智能技術的時間節(jié)點在 2016 年前后, 2016 3 月, DeepMind團隊 研發(fā)的 AlphaGO 與圍棋世界冠軍、職業(yè)九段棋手李世石進行圍棋人機大戰(zhàn),以 4 1 的總比分獲勝。此后人工智能技術的熱度不斷地被刷新。

        但是這些熱點事件都是在國外,國內(nèi)幾乎沒有報出過有關人工智能技術發(fā)展的轟動性事件,更多的是追隨國外技術的腳步發(fā)展,這也很正常,主要是國內(nèi)無論從技術人員儲備,還是從技術沉淀上來說都比不上國外。

        不過隨著近幾年的追趕,國內(nèi)技術團隊在一些領域也逐漸綻放光芒,技術成果也可圈可點,從技術上來說,有了一定的突圍,產(chǎn)業(yè)規(guī)模也連年攀升。 最新公布的統(tǒng)計數(shù)據(jù)顯示,中國人工智能核心產(chǎn)業(yè)規(guī)模達到 5000 億元,企業(yè)數(shù)量超過 4400 家,已建設近萬個數(shù)字化車間和智能工廠。

        另外,近幾年國內(nèi) 人工智能 論文數(shù)量激增,泥沙俱下,導致部分論文質(zhì)量不高,但這并不能說明人工智能發(fā)展停滯不前,而是表明目前有更多的研究人員投入到了這個火熱的研究方向。在 2023 年,人工智能技術領域出現(xiàn)了一些重要的突破,這些突破已經(jīng)開始或有潛力改變多個行業(yè)和領域。

        在未來一年內(nèi),國內(nèi)的人工智能技術將突破瓶頸開始快速發(fā)展。這將為中國的科技創(chuàng)新和經(jīng)濟發(fā)展提供強大的動力。

        1be260c31bd6705f330e2312e94bddaa.webp









        英偉達在人工智能芯片領域依然遙遙領先


        2023 年,我國智能芯片、開發(fā)框架、通用大模型等創(chuàng)新成果不斷涌現(xiàn):華為、寒武紀、景嘉微、壁仞科技、摩爾線程、燧原科技等芯片公司推出了不同設計架構(gòu)、不同應用場景的 AI 推理和訓練任務的芯片加速卡。

        美國在人工智能芯片、算法、機器學習等核心技術的原創(chuàng)方面,至今仍大幅領先。英偉達的 GPU 和谷歌的 TPU 在芯片領域具有行業(yè)領先地位。美國的 AI 產(chǎn)業(yè)整體 領先 與世界各國 ,技術布局更廣、更精。 國內(nèi) 除了百度的飛槳外,其他主流深度學習開源框架均來自于美國。

        英偉達是全球 GPU 龍頭企業(yè),其產(chǎn)品線涵蓋了 A100 、 H100 、 L40 、 L40S 、 GH200 等產(chǎn)品。英偉達的數(shù)據(jù)中心解決方案整體提供了 NVIDIA 加速計算統(tǒng)一平臺,從 AI 、數(shù)據(jù)分析,到高性能計算 (HPC) ,再到渲染,數(shù)據(jù)中心都是攻克某些重要挑戰(zhàn)的關鍵。

        根據(jù) Informa PLC 旗下的英國研究咨詢公司 Omdia 的調(diào)查顯示,現(xiàn)階段英偉達占大型數(shù)據(jù)中心 AI 專用計算市場總收入的 80% 左右。英偉達 2024 財年呈現(xiàn)快速增長態(tài)勢。 FY24Q2 營收 135 億美元,同比增長 101% ,環(huán)比增長 88% ; FY24Q3 收入 181 億美元,同比增長 206% 。

        英偉達與聯(lián)發(fā)科合作的首款芯片將用于智能座艙,預計 2025 年問世,并在 2026 年至 2027 年投入量產(chǎn)。英偉達推出了首款面向 AI 基礎設施和高性能計算的數(shù)據(jù)中心專屬 CPU —— NVIDIA Grace ,由兩個 CPU 芯片通過最新一代 NVLink-C2C 技術互聯(lián)組成。

        這些證據(jù)表明,英偉達在人工智能芯片方面的技術優(yōu)勢、市場份額、發(fā)展勢頭、合作伙伴和創(chuàng)新能力,將使其在未來幾年內(nèi)依然領先全球。

        不過 中國在計算機視覺、語音識別等領域已與美國對齊。例如,百度預訓練模型 ERNIE 超越微軟、谷歌拿下 Glue 冠軍,商湯一舉拿下 Image Net 2016 年三項冠軍;云從科技在 Librispeech 上刷新世界紀錄。 此外 中國在人工智能芯片的專利總量最多且增速最快,國內(nèi)機構(gòu)在 AI 芯片領域的專利布局力度提升明顯。

        b44cbe1a32c7f1d5ef51bb036c85a1df.webp









        決策式人工智能將成為下一個風口


        決策式人工智能,也稱為決策智能,是一種依托多種軟件技術的決策優(yōu)化實用技術,通過最大化發(fā)揮和利用數(shù)據(jù)分析、機器學習和人工智能的潛能,幫助 人類 以更少的成本完成更多、更高效的決策。自生成式人工智能爆發(fā)之后,決策式人工智能將會成為下一個值得關注的風口。

        未來,決策 AI 將朝著三大方向發(fā)展。第一,智能體的數(shù)量越來越多,從 1v1 的圍棋到 MOBA 、足球等更大規(guī)模的多智能體場景。第二,人機交互方式更多元,從競技對抗向博弈、協(xié)作演進。第三,決策環(huán)境日益復雜,從最早的 2D 場景到 2.5D 游戲,再到更接近真實場景的 3D 開放世界。

        Gartner 預測,到 2024 30% 的企業(yè)機構(gòu)將使用新的“社會之聲”指標,來解決其面臨的社會問題,以及評估數(shù)字道德對其業(yè)務績效的影響。此外,截至 2020 年,決策類人工智能市場規(guī)模達 268 億元,近 4 年年均復合增長率實現(xiàn) 83.5% ,預計 2020-2025 年將保持 47.1% 的年均復合增長率,并在 2025 年突破 1847 億元。

        決策智能不僅能提升運營質(zhì)量和決策水平,更可以創(chuàng)造更多業(yè)務價值,還能夠產(chǎn)生新的業(yè)務模式和利用數(shù)據(jù)直接變現(xiàn)。

        這些證據(jù)表明,決策式人工智能將成為下一個風口,其發(fā)展前景廣闊,應用價值巨大。 值得注意的是,決策式人工智能 是輔助人類做決策, 在更多的領域可以完全 替代人類做決策 可以想象,無論是實現(xiàn)具身人工智能,還是實現(xiàn)通用人工智能,都離不開決策式人工智能的幫助。

        3e415bc5d989eb04efb7e803ee0fb607.webp

        2023 年是 AIGC 元年,也是 AI 大模型元年,在這一年人工智能的落地應用出現(xiàn)了井噴式的增長,不但降低了生產(chǎn)成本,提高了生產(chǎn)效率,也為各行各位帶來了眾多的機會。 2024 年人工智能的發(fā)展將會上升一個新的臺階,為人類的文明發(fā)展提供更多的幫助!

        點個在看你最好看


        瀏覽 43
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            国产精品综合久久久久久 | 丁香六月婷婷 | 很黄很污的视频网站 | 特级淫片裸体免费看冫 | 男女曹逼 | 日本老熟妇 | 淫色AV | 亚洲一线精品操逼毛片 | 欧美二三四区 | 中文字幕AV第一页 |