1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        AI大模型開源與閉源

        共 8679字,需瀏覽 18分鐘

         ·

        2024-06-24 11:00

        向AI轉(zhuǎn)型的程序員都關(guān)注公眾號 機器學(xué)習(xí)AI算法工程


        文章目錄

        開源大模型

        GPT-3(OpenAI)

        BERT(Google)

        T5(Google)

        GPT-Neo和GPT-J(EleutherAI)

        BLOOM(BigScience)

        優(yōu)勢

        挑戰(zhàn)


        閉源大模型

        GPT-4(OpenAI)

        Bard(Google)

        LaMDA(Google)

        Claude(Anthropic)

        MUM(Google)

        優(yōu)勢

        挑戰(zhàn)


        開源大模型與閉源大模型,你更看好哪一方?

        數(shù)據(jù)隱私

        商業(yè)應(yīng)用

        社區(qū)參與

        結(jié)論


        首先我們還是對 大模型以及開源閉源進行一定的分析。

        大模型是指具有大規(guī)模參數(shù)和復(fù)雜計算結(jié)構(gòu)的機器學(xué)習(xí)模型。通?;谏疃葘W(xué)習(xí)技術(shù)。這些模型在AI的發(fā)展中起到了至關(guān)重要的作用,尤其是在自然語言處理(NLP)、計算機視覺和語音識別等領(lǐng)域。

        以下是開源大模型和閉源大模型的基本簡介。


        開源大模型

        開源大模型近年來在人工智能領(lǐng)域取得了顯著的進展,許多開源大模型在學(xué)術(shù)研究、工業(yè)應(yīng)用和社區(qū)創(chuàng)新中發(fā)揮了重要作用。以下是幾個著名的開源大模型的介紹:


        GPT-3(OpenAI)

        GPT-3(Generative Pre-trained Transformer 3)是OpenAI發(fā)布的一個大規(guī)模預(yù)訓(xùn)練語言模型。盡管GPT-3本身不是完全開源的,但OpenAI提供了API,使得開發(fā)者可以訪問和使用該模型。它是基于Transformer架構(gòu),擁有1750億參數(shù),是目前最大的語言模型之一。


        特點

        生成能力:GPT-3在生成自然語言文本方面表現(xiàn)出色,可以生成具有連貫性和上下文相關(guān)的段落。

        多用途:GPT-3可以用于多種任務(wù),如翻譯、問答、摘要生成、對話系統(tǒng)等。

        少量樣本學(xué)習(xí):GPT-3在少量樣本情況下也能表現(xiàn)出良好的效果,這使得它在實際應(yīng)用中非常靈活。

        應(yīng)用場景


        企業(yè)應(yīng)用:GPT-3通過OpenAI API幫助企業(yè)自動化內(nèi)容生成、客戶支持和市場營銷文案。例如,自動生成產(chǎn)品描述、撰寫營銷郵件和創(chuàng)建社交媒體內(nèi)容。

        開發(fā)工具:開發(fā)者可以利用GPT-3 API在應(yīng)用中集成智能助手、對話系統(tǒng)和自動化客服機器人,提高用戶體驗和效率。

        BERT(Google)

        簡介

        BERT(Bidirectional Encoder Representations from Transformers)是Google發(fā)布的一個開創(chuàng)性語言模型。它的出現(xiàn)引領(lǐng)了自然語言處理領(lǐng)域的重大突破。BERT的源代碼和預(yù)訓(xùn)練模型都在GitHub上開源。

        特點

        雙向編碼:BERT使用雙向Transformer進行編碼,這使得模型在理解句子上下文時更加準確。

        預(yù)訓(xùn)練和微調(diào):BERT通過在大規(guī)模語料上預(yù)訓(xùn)練,然后在特定任務(wù)上微調(diào),從而實現(xiàn)了卓越的性能。

        廣泛應(yīng)用:BERT在許多自然語言處理任務(wù)中表現(xiàn)出色,如問答、命名實體識別、情感分析等。

        應(yīng)用場景

        自然語言理解:BERT被廣泛應(yīng)用于自然語言處理任務(wù),如情感分析、命名實體識別和文本分類。例如,分析社交媒體上的情感趨勢、識別新聞中的關(guān)鍵實體和自動分類客戶反饋。

        搜索引擎優(yōu)化:BERT改進搜索引擎的查詢理解能力,提高搜索結(jié)果的相關(guān)性和準確性。它被用于Google搜索引擎中,幫助理解復(fù)雜的搜索查詢并提供更相關(guān)的結(jié)果。

        T5(Google)

        簡介

        T5(Text-To-Text Transfer Transformer)是Google提出的一種統(tǒng)一的文本到文本框架模型。T5的設(shè)計理念是將所有的自然語言處理任務(wù)轉(zhuǎn)化為文本到文本的形式。T5的代碼和預(yù)訓(xùn)練模型也是開源的。


        特點

        統(tǒng)一框架:T5將不同的任務(wù)(如翻譯、摘要、分類)統(tǒng)一為文本生成問題,這使得模型架構(gòu)更加簡潔。

        大規(guī)模預(yù)訓(xùn)練:T5在大規(guī)模文本數(shù)據(jù)上進行了預(yù)訓(xùn)練,具有強大的生成和理解能力。

        靈活性:由于其統(tǒng)一的框架,T5可以很容易地適應(yīng)各種自然語言處理任務(wù)。

        應(yīng)用場景

        翻譯和摘要:T5在翻譯和文本摘要生成方面表現(xiàn)出色,應(yīng)用于自動翻譯文檔、生成新聞?wù)吞崛£P(guān)鍵信息。例如,幫助企業(yè)自動翻譯技術(shù)文檔,生成簡潔的新聞?wù)?,便于快速閱讀。

        問答系統(tǒng):T5被用于構(gòu)建智能問答系統(tǒng),如企業(yè)內(nèi)部知識庫問答、在線客服機器人和教育領(lǐng)域的智能輔導(dǎo)工具,提供準確和高效的問答服務(wù)。

        GPT-Neo和GPT-J(EleutherAI)

        簡介

        GPT-Neo和GPT-J是由EleutherAI開發(fā)的開源大規(guī)模語言模型,旨在提供與GPT-3相當(dāng)?shù)拈_源替代品。GPT-Neo和GPT-J的源代碼和預(yù)訓(xùn)練模型都公開發(fā)布,供社區(qū)使用和改進。


        特點

        高可用性:作為開源項目,任何人都可以訪問和使用這些模型。

        大規(guī)模:GPT-J擁有60億參數(shù),是當(dāng)前最大的開源語言模型之一。

        社區(qū)驅(qū)動:EleutherAI的模型開發(fā)依賴于社區(qū)的貢獻和合作,促進了快速的迭代和創(chuàng)新。

        應(yīng)用場景

        教育和研究:GPT-Neo和GPT-J被廣泛應(yīng)用于教育和研究領(lǐng)域,幫助學(xué)生和研究人員生成報告、撰寫論文和進行數(shù)據(jù)分析。例如,生成科研報告的初稿,提供論文寫作輔助和自動化數(shù)據(jù)摘要。

        內(nèi)容創(chuàng)作:這些模型被用于自動化內(nèi)容創(chuàng)作,如博客文章、故事創(chuàng)作和劇本寫作,幫助創(chuàng)作者提高生產(chǎn)效率和創(chuàng)意表達。


        BLOOM(BigScience)

        簡介

        BLOOM(BigScience Large Open-science Open-access Multilingual Language Model)是由BigScience項目發(fā)布的一個大規(guī)模多語言模型。BLOOM的開發(fā)集中了來自全球研究者的合作力量。

        特點

        多語言支持:BLOOM支持數(shù)十種語言,具有強大的跨語言理解和生成能力。

        社區(qū)合作:BLOOM的開發(fā)過程透明,依賴于全球研究社區(qū)的合作。

        開源和開放訪問:BLOOM的源代碼和模型權(quán)重公開發(fā)布,供研究和應(yīng)用使用。

        應(yīng)用場景

        跨語言應(yīng)用:BLOOM的多語言支持能力使其在跨語言翻譯和多語言對話系統(tǒng)中具有廣泛應(yīng)用。例如,構(gòu)建支持多語言的全球客服系統(tǒng),自動翻譯和本地化內(nèi)容,促進國際交流和合作。

        學(xué)術(shù)研究:BLOOM為學(xué)術(shù)研究提供了強大的工具,支持多語言語料庫分析、跨文化研究和全球知識共享。例如,研究人員使用BLOOM分析多語言數(shù)據(jù)集,進行跨文化對比研究,推動全球化研究進展。

        這些開源大模型在推動人工智能技術(shù)進步的同時,也為研究人員和開發(fā)者提供了豐富的資源和工具,使得更多的人能夠參與到AI技術(shù)的創(chuàng)新和應(yīng)用中。


        優(yōu)勢

        社區(qū)驅(qū)動的創(chuàng)新

        開源項目可以吸引全球開發(fā)者和研究人員的參與,促進快速迭代和創(chuàng)新。

        通過集體智慧,問題可以更快地被發(fā)現(xiàn)和解決。

        透明性和可驗證性

        開源代碼可以被任何人審查,從而提高了透明性和可信度。

        用戶可以對代碼進行獨立驗證,確保沒有隱藏的漏洞或后門。

        教育和研究

        開源項目為學(xué)術(shù)研究和教育提供了寶貴的資源,使得更多的人能夠?qū)W習(xí)和使用先進的技術(shù)。

        研究人員可以基于開源項目進行進一步的創(chuàng)新和實驗。

        成本效益

        開源軟件通常免費,降低了開發(fā)者和企業(yè)的進入門檻。

        挑戰(zhàn)

        資源和資金

        開源項目可能面臨資金和資源不足的問題,特別是在需要大量計算資源的AI領(lǐng)域。

        依賴社區(qū)貢獻,項目的持續(xù)性和穩(wěn)定性可能受到影響。

        商業(yè)化困難

        盡管可以通過服務(wù)和支持等方式商業(yè)化,但與直接銷售軟件許可證相比,開源項目的商業(yè)化模式可能更復(fù)雜。

        閉源大模型

        閉源大模型主要由一些大型科技公司開發(fā)和維護,雖然這些模型的代碼和訓(xùn)練數(shù)據(jù)并未公開,但它們在各種應(yīng)用場景中表現(xiàn)出了卓越的性能,并且通常通過API或商業(yè)化產(chǎn)品提供給用戶。以下是幾個著名的閉源大模型的介紹:


        GPT-4(OpenAI)

        簡介

        GPT-4 是OpenAI發(fā)布的最新一代大規(guī)模語言模型,繼承了GPT-3的強大性能,但在很多方面進行了改進和增強。雖然模型本身是閉源的,但OpenAI通過API和合作伙伴關(guān)系提供了廣泛的訪問和應(yīng)用。


        特點

        性能提升:相比GPT-3,GPT-4在自然語言理解和生成方面表現(xiàn)得更為優(yōu)異。

        多模態(tài)支持:GPT-4不僅支持文本,還可以處理圖像等其他類型的數(shù)據(jù)(取決于具體版本)。

        應(yīng)用廣泛:GPT-4在對話系統(tǒng)、內(nèi)容生成、代碼編寫、翻譯等多個領(lǐng)域都有出色表現(xiàn)。

        應(yīng)用場景

        企業(yè)應(yīng)用:GPT-4被用于增強客戶服務(wù)、自動化文檔生成、數(shù)據(jù)分析等。

        開發(fā)工具:通過OpenAI API,開發(fā)者可以將GPT-4集成到各種應(yīng)用中,例如智能助手和內(nèi)容管理系統(tǒng)。

        Bard(Google)

        簡介

        Bard 是Google推出的高級對話AI模型,專注于提供自然流暢的對話體驗。Bard整合了Google在自然語言處理和機器學(xué)習(xí)方面的最新進展,盡管模型和訓(xùn)練數(shù)據(jù)閉源,但通過Google的服務(wù)可以訪問。


        特點

        上下文理解:Bard具備深度上下文理解能力,可以進行長時間連貫對話。

        多輪對話:能夠處理復(fù)雜的多輪對話,提供詳細和相關(guān)的回答。

        集成服務(wù):與Google搜索、地圖、日歷等服務(wù)無縫集成,提供更為實用的對話體驗。

        應(yīng)用場景

        個人助理:Bard用于智能手機助手、智能音箱等設(shè)備,為用戶提供日常幫助。

        客戶支持:幫助企業(yè)提升客戶服務(wù)效率,提供快速、準確的自動化回復(fù)。


        LaMDA(Google)

        簡介

        LaMDA(Language Model for Dialogue Applications)是Google專為對話設(shè)計的大型語言模型,旨在提供更為自然和有意義的對話體驗。盡管LaMDA是閉源的,但它在多個Google產(chǎn)品中得到了應(yīng)用。

        特點

        對話優(yōu)化:LaMDA專門為對話優(yōu)化,具備理解和生成自然對話的能力。

        上下文保持:能夠在長時間對話中保持上下文一致性,使得對話更加流暢。

        多領(lǐng)域知識:具備廣泛的知識覆蓋,可以處理各種話題的對話。

        應(yīng)用場景

        對話系統(tǒng):用于智能聊天機器人、虛擬助理等系統(tǒng),提升用戶互動體驗。

        客戶服務(wù):在企業(yè)客戶服務(wù)中,提供自動化和智能化的對話解決方案。


        Claude(Anthropic)

        簡介

        Claude是由Anthropic公司開發(fā)的一種先進的對話AI模型,致力于提供安全且高度可控的對話體驗。盡管Claude是閉源的,但它以其對安全性和倫理性的關(guān)注而著稱

        特點

        安全性:Claude在設(shè)計上特別注重對話的安全和倫理問題,避免有害輸出。

        高可控性:提供了細粒度的控制選項,允許用戶調(diào)整模型的行為和回答方式。

        對話深度:具備處理復(fù)雜和深入對話的能力,提供詳細和有幫助的回答。

        應(yīng)用場景

        敏感環(huán)境:在需要高度安全和倫理考量的環(huán)境中使用,例如醫(yī)療咨詢和法律咨詢。

        客戶支持:用于提供安全且可靠的客戶支持服務(wù),提升用戶信任度。


        MUM(Google)

        簡介

        MUM(Multitask Unified Model)是Google開發(fā)的一種多任務(wù)統(tǒng)一模型,旨在提供超越傳統(tǒng)搜索體驗的能力。MUM不僅處理文本,還可以理解和生成圖像、視頻等多種數(shù)據(jù)形式。

        特點

        多任務(wù)處理:MUM能夠同時處理多種任務(wù),如搜索、問答、翻譯等。

        多模態(tài)支持:支持文本、圖像、視頻等多種數(shù)據(jù)形式的理解和生成。

        高度智能:具備深度理解能力,可以提供更為精確和相關(guān)的搜索結(jié)果。

        應(yīng)用場景

        搜索引擎:提升搜索引擎的智能化水平,提供更為精確和多樣化的搜索結(jié)果。

        信息檢索:在各種信息檢索和數(shù)據(jù)分析任務(wù)中,提供強大的支持。

        這些閉源大模型在各自的應(yīng)用領(lǐng)域中展示了卓越的性能和廣泛的應(yīng)用前景,盡管它們的源代碼和訓(xùn)練數(shù)據(jù)未公開,但通過商業(yè)化產(chǎn)品和服務(wù),它們?nèi)匀粸橛脩籼峁┝藦姶蟮娜斯ぶ悄苣芰Α?/p>


        優(yōu)勢

        資源充足:

        閉源項目通常由公司資助,擁有充足的資金和資源進行長期開發(fā)和維護。

        可以雇傭?qū)I(yè)團隊進行專注開發(fā),保證產(chǎn)品質(zhì)量和穩(wěn)定性。

        商業(yè)化路徑明確:

        閉源軟件可以通過銷售許可證、訂閱服務(wù)等方式直接盈利,商業(yè)模式清晰。

        數(shù)據(jù)安全和控制:

        公司可以嚴格控制代碼和數(shù)據(jù)的訪問,確保安全性和隱私保護。

        一致性和整合性:

        由于開發(fā)由一個團隊或公司負責(zé),閉源軟件在設(shè)計和實現(xiàn)上更容易保持一致性和整合性。

        挑戰(zhàn)

        創(chuàng)新速度較慢:

        閉源項目依賴于內(nèi)部團隊的創(chuàng)新速度,可能比不上開源社區(qū)的集體智慧和多樣化的創(chuàng)新。

        透明性不足:

        由于代碼不公開,用戶無法審查和驗證代碼的安全性和可靠性。

        成本較高:

        閉源軟件通常需要購買許可證或訂閱,可能增加用戶的成本。

        開源大模型與閉源大模型,你更看好哪一方?

        回到我們的主題。評價一個AI模型“好不好”“有沒有發(fā)展”,首先就躲不開“開源”和“閉源”兩條發(fā)展路徑。對于這兩條路徑,實際上可以從數(shù)據(jù)隱私、商業(yè)應(yīng)用和社區(qū)參與三個方向探討。


        數(shù)據(jù)隱私

        開源大模型在數(shù)據(jù)隱私保護方面具有一定的優(yōu)勢。由于其代碼公開,任何人都可以審查和驗證模型的安全性和隱私保護措施。這種透明性有助于發(fā)現(xiàn)和修復(fù)潛在的安全漏洞,確保用戶數(shù)據(jù)的安全。例如,BERT和T5等開源模型不僅提供了卓越的自然語言處理能力,還能讓用戶和開發(fā)者通過自主檢查,確保沒有隱藏的安全風(fēng)險。

        然而,閉源大模型則在數(shù)據(jù)隱私控制上更為嚴格。閉源模型通常由公司內(nèi)部團隊開發(fā)和維護,數(shù)據(jù)訪問權(quán)限受到嚴格控制,能夠更有效地保護用戶隱私。例如,Google的LaMDA和OpenAI的GPT-4在商業(yè)應(yīng)用中嚴格控制數(shù)據(jù)訪問和使用,確保用戶數(shù)據(jù)的安全性和隱私保護。


        商業(yè)應(yīng)用

        在商業(yè)應(yīng)用領(lǐng)域,閉源大模型往往具有更明確的商業(yè)化路徑和資源優(yōu)勢。閉源項目通常由大型科技公司資助,擁有充足的資金和專業(yè)團隊,能夠提供高質(zhì)量和穩(wěn)定的服務(wù)。例如,OpenAI的GPT-4通過API提供廣泛的商業(yè)應(yīng)用,包括自動化文檔生成和客戶支持等,為企業(yè)帶來顯著的效率提升和成本降低。

        另一方面,開源大模型在商業(yè)化上面臨一些挑戰(zhàn)。盡管開源模型通常是免費的,降低了開發(fā)者的進入門檻,但其商業(yè)化模式可能更復(fù)雜,主要依賴于服務(wù)和支持等增值業(yè)務(wù)。然而,開源模型也有其獨特的優(yōu)勢,特別是在推動技術(shù)創(chuàng)新和降低初創(chuàng)企業(yè)的開發(fā)成本方面。例如,EleutherAI的GPT-Neo和GPT-J通過開源模式為中小企業(yè)和研究機構(gòu)提供了強大的自然語言處理工具。


        社區(qū)參與

        開源大模型在社區(qū)參與和合作方面具有明顯的優(yōu)勢。開源項目吸引了全球開發(fā)者和研究人員的廣泛參與,促進了快速的迭代和創(chuàng)新。例如,Google的BERT和T5在開源社區(qū)的推動下,不斷涌現(xiàn)出新的應(yīng)用和改進版本。社區(qū)驅(qū)動的創(chuàng)新不僅能迅速發(fā)現(xiàn)和修復(fù)問題,還能在模型的基礎(chǔ)上開發(fā)出更多元化的應(yīng)用場景。開源模型的透明性和可訪問性使得更多人能夠?qū)W習(xí)和使用先進的技術(shù),推動整個行業(yè)的進步。

        相比之下,閉源大模型在社區(qū)參與方面的局限性較大。由于代碼和數(shù)據(jù)不公開,外部開發(fā)者和研究人員難以直接參與模型的改進和創(chuàng)新。這種封閉性雖然有助于控制質(zhì)量和保護知識產(chǎn)權(quán),但也可能限制了模型的快速發(fā)展和應(yīng)用多樣性。然而,閉源模型的開發(fā)團隊通常具備更高的專業(yè)水平和資源,能夠在特定領(lǐng)域提供高質(zhì)量的商業(yè)解決方案。例如,Google的LaMDA和Bard在對話系統(tǒng)中的應(yīng)用體現(xiàn)了其在特定應(yīng)用場景下的卓越性能。

        結(jié)論

        從長期發(fā)展的角度來看,我更看好開源大模型。開源項目是為了分享這個世界,那么就可能必然會舍棄掉資源的保密性和私人性,但其在創(chuàng)新速度、透明性、教育和社區(qū)參與方面的優(yōu)勢非常明顯,我認為瑕不掩瑜。因為當(dāng)一個開源的項目足夠大足夠精彩,那么或許你在別人眼中就不只是技術(shù)分享者,更多是一個為計算機行業(yè)擁有顯著貢獻的創(chuàng)造者。

        此外,許多成功的商業(yè)公司也在探索開源與閉源結(jié)合的模式,通過開放核心技術(shù)并提供增值服務(wù)來實現(xiàn)商業(yè)成功。這實際上也會促進公司之間的合作,從而促進商業(yè)化和行業(yè)內(nèi)的發(fā)展。

        然而,這并不意味著閉源大模型沒有前景。對于某些需要高度安全性和控制的應(yīng)用場景,閉源模式仍然是必要的。因此,具體選擇哪種路徑,還需要根據(jù)具體的應(yīng)用場景和需求進行權(quán)衡。

        總的來說,開源大模型和閉源大模型各有其優(yōu)勢和挑戰(zhàn)。在數(shù)據(jù)隱私、商業(yè)應(yīng)用和社區(qū)參與方面,它們展現(xiàn)出不同的特點和潛力。選擇更看好哪一種路徑,取決于你所重視的因素和目標。無論是開源還是閉源,推動AI技術(shù)的發(fā)展和應(yīng)用,共同促進智能時代的到來,是我們作為掌舵者共同的目標。

        機器學(xué)習(xí)算法AI大數(shù)據(jù)技術(shù)

         搜索公眾號添加: datanlp

        長按圖片,識別二維碼




        閱讀過本文的人還看了以下文章:


        整理開源的中文大語言模型,以規(guī)模較小、可私有化部署、訓(xùn)練成本較低的模型為主


        《大語言模型》PDF下載


        動手學(xué)深度學(xué)習(xí)-(李沐)PyTorch版本


        YOLOv9電動車頭盔佩戴檢測,詳細講解模型訓(xùn)練


        TensorFlow 2.0深度學(xué)習(xí)案例實戰(zhàn)


        基于40萬表格數(shù)據(jù)集TableBank,用MaskRCNN做表格檢測


        《基于深度學(xué)習(xí)的自然語言處理》中/英PDF


        Deep Learning 中文版初版-周志華團隊


        【全套視頻課】最全的目標檢測算法系列講解,通俗易懂!


        《美團機器學(xué)習(xí)實踐》_美團算法團隊.pdf


        《深度學(xué)習(xí)入門:基于Python的理論與實現(xiàn)》高清中文PDF+源碼


        《深度學(xué)習(xí):基于Keras的Python實踐》PDF和代碼


        特征提取與圖像處理(第二版).pdf


        python就業(yè)班學(xué)習(xí)視頻,從入門到實戰(zhàn)項目


        2019最新《PyTorch自然語言處理》英、中文版PDF+源碼


        《21個項目玩轉(zhuǎn)深度學(xué)習(xí):基于TensorFlow的實踐詳解》完整版PDF+附書代碼


        《深度學(xué)習(xí)之pytorch》pdf+附書源碼


        PyTorch深度學(xué)習(xí)快速實戰(zhàn)入門《pytorch-handbook》


        【下載】豆瓣評分8.1,《機器學(xué)習(xí)實戰(zhàn):基于Scikit-Learn和TensorFlow》


        《Python數(shù)據(jù)分析與挖掘?qū)崙?zhàn)》PDF+完整源碼


        汽車行業(yè)完整知識圖譜項目實戰(zhàn)視頻(全23課)


        李沐大神開源《動手學(xué)深度學(xué)習(xí)》,加州伯克利深度學(xué)習(xí)(2019春)教材


        筆記、代碼清晰易懂!李航《統(tǒng)計學(xué)習(xí)方法》最新資源全套!


        《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》最新2018版中英PDF+源碼


        將機器學(xué)習(xí)模型部署為REST API


        FashionAI服裝屬性標簽圖像識別Top1-5方案分享


        重要開源!CNN-RNN-CTC 實現(xiàn)手寫漢字識別


        yolo3 檢測出圖像中的不規(guī)則漢字


        同樣是機器學(xué)習(xí)算法工程師,你的面試為什么過不了?


        前海征信大數(shù)據(jù)算法:風(fēng)險概率預(yù)測


        【Keras】完整實現(xiàn)‘交通標志’分類、‘票據(jù)’分類兩個項目,讓你掌握深度學(xué)習(xí)圖像分類


        VGG16遷移學(xué)習(xí),實現(xiàn)醫(yī)學(xué)圖像識別分類工程項目


        特征工程(一)


        特征工程(二) :文本數(shù)據(jù)的展開、過濾和分塊


        特征工程(三):特征縮放,從詞袋到 TF-IDF


        特征工程(四): 類別特征


        特征工程(五): PCA 降維


        特征工程(六): 非線性特征提取和模型堆疊


        特征工程(七):圖像特征提取和深度學(xué)習(xí)


        如何利用全新的決策樹集成級聯(lián)結(jié)構(gòu)gcForest做特征工程并打分?


        Machine Learning Yearning 中文翻譯稿


        螞蟻金服2018秋招-算法工程師(共四面)通過


        全球AI挑戰(zhàn)-場景分類的比賽源碼(多模型融合)


        斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)


        python+flask搭建CNN在線識別手寫中文網(wǎng)站


        中科院Kaggle全球文本匹配競賽華人第1名團隊-深度學(xué)習(xí)與特征工程



        不斷更新資源

        深度學(xué)習(xí)、機器學(xué)習(xí)、數(shù)據(jù)分析、python

         搜索公眾號添加: datayx  



        瀏覽 133
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            隔壁叫床声 | 成人无码www免费视频在线看 | 丁香五月天之婷婷影院 | www.色五月 | 亚洲福利社 | 午夜影院啪啪 | 暴操美女网站 | 国产精品欧美精品 | 少妇菊爆视频免费观看 | 中国女人18一20岁毛片 |