?本周優(yōu)秀開(kāi)源項(xiàng)目分享:無(wú)腦套用格式、開(kāi)源模板最高10萬(wàn)贊


fMRIPrep 是一種功能性磁共振成像 (fMRI) 數(shù)據(jù)預(yù)處理管道,旨在提供易于訪問(wèn)的、最先進(jìn)的接口,該接口可對(duì)掃描采集協(xié)議的變化非??煽?,并且需要最少的用戶輸入,同時(shí)提供易于解釋和全面的誤差和輸出報(bào)告。它執(zhí)行基本處理步驟(核心、規(guī)范化、解曲線、噪聲成分提取、分割、頭骨跳閘等),提供可輕松提交到各種組級(jí)分析的輸出,包括基于任務(wù)或靜止?fàn)顟B(tài)的 fMRI、圖形理論測(cè)量、表面或基于體積的統(tǒng)計(jì)等。
fMRIPrep 管道使用來(lái)自知名軟件包的工具的組合,包括FSL_、ANTs_、FreeSurfer_和AFNI_。此管道旨在為每個(gè)預(yù)處理狀態(tài)提供最佳的軟件實(shí)現(xiàn),并將隨著更新和更好的神經(jīng)成像軟件的可用而更新。
此工具允許您輕松執(zhí)行以下操作:?
將 fMRI 數(shù)據(jù)從原始數(shù)據(jù)從原始到完全預(yù)處理?
實(shí)現(xiàn)不同軟件包的工具?
通過(guò)使用可用的最佳工具實(shí)現(xiàn)最佳的數(shù)據(jù)處理?
生成預(yù)處理質(zhì)量報(bào)告,用戶可以通過(guò)這些報(bào)告輕松識(shí)別異常?
接收有關(guān)每個(gè)主題的預(yù)處理階段(包括有意義的錯(cuò)誤)
自動(dòng)和并行化處理步驟,從典型的線性手動(dòng)處理中顯著加快速度。
fMRIPrep 圍繞三個(gè)原則構(gòu)建:?
穩(wěn)健性 - 管道根據(jù)輸入數(shù)據(jù)集調(diào)整預(yù)處理步驟,并且應(yīng)提供盡可能好的結(jié)果,與掃描儀制作、掃描參數(shù)或是否存在其他校正掃描(如現(xiàn)場(chǎng)地圖)不同?
易用性 - 由于對(duì) BIDS 標(biāo)準(zhǔn)的依賴,手動(dòng)參數(shù)輸入減少到最小,允許管道以自動(dòng)方式運(yùn)行。
"玻璃盒"理念 - 自動(dòng)化不應(yīng)意味著不應(yīng)直觀地檢查結(jié)果或了解方法。因此,fMRIPrep 會(huì)為每個(gè)主題提供可視化報(bào)告,詳細(xì)說(shuō)明最重要的處理步驟的準(zhǔn)確性。這與文檔相結(jié)合,可以幫助研究人員了解流程,并決定應(yīng)保留哪些主題進(jìn)行小組級(jí)分析。
項(xiàng)目地址:
https://github.com/nipreps/fmriprep




本文的目的是創(chuàng)建一個(gè)能夠探測(cè)衛(wèi)星圖像中新構(gòu)造的CNN。更精確地,拍攝兩張不同時(shí)間拍攝的衛(wèi)星圖像,并輸出一個(gè)帶新建筑輪廓的分段蒙版。該模型將兩個(gè) 650 x 650 的 RGB 圖像作為輸入,并輸出相同大小的 semgment 掩碼。
項(xiàng)目使用的 CNN 體系結(jié)構(gòu)是 UNet++,其層被移除,過(guò)濾器大小減小。這樣,該模型適合具有 6G 內(nèi)存的 GPU。如上圖所示,模型設(shè)法查找更改并生成具有近似形狀的分段蒙版。
數(shù)據(jù)集:
https://drive.google.com/drive/folders/1rd1vseWiFSqQc5-93XSRQW9Bzzcgqc6H?usp=sharing
模型:
https://drive.google.com/drive/folders/1qbZm-b4gdhzzMCP09XwWx2wJKxsSXBJL?usp=sharing?https://drive.google.com/drive/folders/1-DdCZxCv7OInvpUnbbT-4p2Uhc_v6ztI?usp=sharing
依賴庫(kù):
PyTorch (1.3.1+)
numpy
scikit-learn
matplotlib
imageio
Pillow
imgaug
tqdm
項(xiàng)目地址:
https://github.com/hbaudhuin/LamboiseNet自動(dòng)和并行化處理步驟,從典型的線性手動(dòng)處理中顯著加快速度。
fMRIPrep 圍繞三個(gè)原則構(gòu)建:?
穩(wěn)健性 - 管道根據(jù)輸入數(shù)據(jù)集調(diào)整預(yù)處理步驟,并且應(yīng)提供盡可能好的結(jié)果,與掃描儀制作、掃描參數(shù)或是否存在其他校正掃描(如現(xiàn)場(chǎng)地圖)不同?
易用性 - 由于對(duì) BIDS 標(biāo)準(zhǔn)的依賴,手動(dòng)參數(shù)輸入減少到最小,允許管道以自動(dòng)方式運(yùn)行。
"玻璃盒"理念 - 自動(dòng)化不應(yīng)意味著不應(yīng)直觀地檢查結(jié)果或了解方法。因此,fMRIPrep 會(huì)為每個(gè)主題提供可視化報(bào)告,詳細(xì)說(shuō)明最重要的處理步驟的準(zhǔn)確性。這與文檔相結(jié)合,可以幫助研究人員了解流程,并決定應(yīng)保留哪些主題進(jìn)行小組級(jí)分析。
項(xiàng)目地址:
https://github.com/nipreps/fmriprep
項(xiàng)目描述:
本項(xiàng)目使用 GPT2-Chinese 的模型將wiki中文的數(shù)據(jù)導(dǎo)入模型訓(xùn)練了通用模型。
將GPT2-chitchat的對(duì)話任務(wù)稍作修改來(lái)適用于中文摘要任務(wù)。
將通用模型的權(quán)重應(yīng)用在摘要問(wèn)題上進(jìn)行進(jìn)一步訓(xùn)練的。
GPT2-Chinese 參考:https://github.com/Morizeyao/GPT2-Chinese
GPT2-chitchat參考:https://link.zhihu.com/?target=https%3A//github.com/yangjianxin1/GPT2-chitchat
項(xiàng)目工作流程詳見(jiàn):https://zhuanlan.zhihu.com/p/113869509
本項(xiàng)目為GPT2-chitchat稍作修改的內(nèi)容,在此也感謝大佬的分享。
由于NLPCC的摘要數(shù)據(jù)為新聞?wù)Z料,涉及話題和內(nèi)容較多,應(yīng)用在垂直領(lǐng)域下效果會(huì)好一些。
運(yùn)行環(huán)境:
python3.6、 transformers==2.1.1、pytorch==1.3.1
項(xiàng)目結(jié)構(gòu):
config:存放GPT2模型的參數(shù)的配置文件
data
train_with_summary.txt:默認(rèn)的原始訓(xùn)練集文件,存放摘要語(yǔ)料
train_tokenized.txt:對(duì)原始訓(xùn)練語(yǔ)料進(jìn)行順序tokenize之后的文件,用于model的訓(xùn)練
summary_model:存放摘要生成的模型
vocabulary:存放GPT2模型的字典
train.py:訓(xùn)練代碼
interact.py:測(cè)試代碼
Dialogue Model是基于GPT2模型的生成模型,對(duì)每條訓(xùn)練數(shù)據(jù)進(jìn)行"順序"拼接,然后將其輸入到網(wǎng)絡(luò)中,進(jìn)行訓(xùn)練(該項(xiàng)目沒(méi)有訓(xùn)練MMI Model的"逆序")。在訓(xùn)練Chinese Summary時(shí),將上述訓(xùn)練數(shù)據(jù)進(jìn)行如下拼接然后,將上述拼接結(jié)果作為Summary Model的輸入,對(duì)模型進(jìn)行訓(xùn)練。
模型分享:
模型 | 百度網(wǎng)盤(pán) | 模型描述 |
GPT2-nlpcc-summary | 鏈接:https://pan.baidu.com/s/1atsbABI7Lq5HQNctC11E5g 提取碼:grtn | 使用nlpcc的摘要數(shù)據(jù)基于GPT2-wiki訓(xùn)練的摘要模型 |
GPT2-wiki | 鏈接:https://pan.baidu.com/s/1oo1fpuGPYR9IMCcWQzzE9w 提取碼:o1aq | 使用GPT2-Chinese訓(xùn)練的通用模型 |
項(xiàng)目地址:
https://github.com/qingkongzhiqian/GPT2-Summary
04?EssayKiller_V2 ?基于開(kāi)源GPT2.0的初代創(chuàng)作型人工智能
EssayKiller是基于OCR、NLP領(lǐng)域的最新模型所構(gòu)建的生成式文本創(chuàng)作AI框架,目前第一版finetune模型針對(duì)高考作文(主要是議論文),可以有效生成符合人類認(rèn)知的文章,多數(shù)文章經(jīng)過(guò)測(cè)試可以達(dá)到正常高中生及格作文水平。
框架說(shuō)明:
基于EAST、CRNN、Bert和GPT-2語(yǔ)言模型的高考作文生成AI
支持bert tokenizer,當(dāng)前版本基于clue chinese vocab
17億參數(shù)多模塊異構(gòu)深度神經(jīng)網(wǎng)絡(luò),超2億條預(yù)訓(xùn)練數(shù)據(jù)
線上點(diǎn)擊即用的文本生成效果demo:17億參數(shù)作文殺手
端到端生成,從試卷識(shí)別到答題卡輸出一條龍服務(wù)
模型結(jié)構(gòu):
整個(gè)框架分為EAST、CRNN、Bert、GPT-2、DNN 5個(gè)模塊,每個(gè)模塊的網(wǎng)絡(luò)單獨(dú)訓(xùn)練,參數(shù)相互獨(dú)立。infer過(guò)程使用pipeline串聯(lián),通過(guò)外接裝置直接輸出到答題卡。

模型亮點(diǎn):
簡(jiǎn)單的管道實(shí)現(xiàn)在當(dāng)時(shí)較高精度的文本檢測(cè)。
圖像通過(guò)FCN處理產(chǎn)生像素級(jí)文本縮放地圖和幾何圖形的多個(gè)頻道。
可旋轉(zhuǎn)的文本框,可以檢測(cè)文本也可以檢測(cè)單詞。

項(xiàng)目地址:
https://github.com/EssayKillerBrain/EssayKiller_V2
Keras 和 TensorFlow 中的 Rnn 權(quán)重、漸變和激活可視化 (Lstm 、 Gru 、 Simplernn 、 Cudnn 和所有其他)


特性:
權(quán)重、漸變、激活可視化?
內(nèi)核視覺(jué)對(duì)象:內(nèi)核、循環(huán)內(nèi)核和偏置顯式顯示?
門(mén)視覺(jué)對(duì)象:門(mén)控架構(gòu)(LSTM、GRU)中的門(mén)明確顯示?
通道視覺(jué)對(duì)象:顯式顯示的單元格單元(功能提取器?
一般視覺(jué)對(duì)象:也適用于CNN和其他方法?
重量規(guī)范跟蹤:可用于分析重量衰減
內(nèi)省是調(diào)試、規(guī)范和理解神經(jīng)網(wǎng)絡(luò)的有力工具。此項(xiàng)目的方法啟用:?
監(jiān)視權(quán)重和激活進(jìn)度 - 每個(gè)更改epoch-to-epoch、iteration-to-iteration?
評(píng)估學(xué)習(xí)效率 - 梯度反傳播對(duì)層到層的、時(shí)間到時(shí)間步長(zhǎng)的影響?
評(píng)估層健康 - 神經(jīng)元的"死亡"或"爆炸"的百分比?
跟蹤體重衰減 - 各種方案(例如 l2 懲罰)如何影響重量規(guī)范
能夠回答以下問(wèn)題:?
我的 RNN 是否學(xué)習(xí)長(zhǎng)期依賴關(guān)系?>> 監(jiān)控梯度:如果非零梯度每次時(shí)間步道流動(dòng),則每個(gè)時(shí)間步有助于學(xué)習(xí) - 即,由此產(chǎn)生的梯度源于對(duì)每個(gè)輸入時(shí)間步長(zhǎng)的核算,因此整個(gè)序列會(huì)影響權(quán)重更新。因此,RNN 不再忽略長(zhǎng)序列的部分,而被迫從它們中吸取教訓(xùn)?
我的 Rnn 是否學(xué)習(xí)獨(dú)立表示?>>監(jiān)控激活:如果每個(gè)通道的輸出不同且相互關(guān)聯(lián),則 RNN 提取了?
為什么我有驗(yàn)證損失峰值?>>所有:瓦爾尖峰可能源于由于較大的梯度導(dǎo)致的層權(quán)重的急劇變化,這將明顯改變激活模式;查看詳細(xì)信息有助于通知更正?
我的權(quán)重衰減是過(guò)度還是不足?>>監(jiān)控權(quán)重規(guī)范:如果值斜減到許多倍,則衰減可能過(guò)大 - 或者,如果沒(méi)有看到任何效果,則增加衰減
項(xiàng)目地址:
https://github.com/OverLordGoldDragon/see-rnn
06?FundamentalAnalysis ?全面的基本面分析包
此包從 FinancialModelingPrep 收集來(lái)自大型公司集團(tuán)的基本面和詳細(xì)的公司股票數(shù)據(jù) (13.000+),并使用 Yahoo Financial 獲取任何金融工具的股票數(shù)據(jù)。它允許用戶做大部分的基本分析。它還提供了快速比較多個(gè)公司或進(jìn)行行業(yè)分析的可能性。

功能:
詳細(xì)信息?
可用公司 - 顯示可用于基礎(chǔ)數(shù)據(jù)收集的公司的完整列表,包括當(dāng)前價(jià)格和公司列出的交易所。這是一個(gè)廣泛的列表,有超過(guò)13000家公司?
配置文件 - 提供有關(guān)行業(yè)、行業(yè)交易所和公司描述等?
報(bào)價(jià) - 提供有關(guān)公司的實(shí)際信息,其中包括日高、市值、開(kāi)盤(pán)價(jià)和收盤(pán)價(jià)以及價(jià)格與權(quán)益?
企業(yè) - 顯示股票價(jià)格、股票數(shù)量、市值和企業(yè)價(jià)值。
評(píng)級(jí) - 基于特定比率,提供公司是(強(qiáng))買(mǎi)入、中性還是(強(qiáng))賣(mài)出的信息?
discounted_cash_flow - 計(jì)算公司一段時(shí)間的貼現(xiàn)現(xiàn)金流量,包括今天的 DCF.?
earnings_calendar - 顯示有關(guān)今年大量品種的盈利日期的信息,包括預(yù)期的市盈率。
financial_statement?
income_statement - 收集一個(gè)完整的損益表隨著時(shí)間的推移。
balance_sheet_statement - 收集一段時(shí)間的完整資產(chǎn)負(fù)債表。
cash_flow_statement - 收集一個(gè)完整現(xiàn)金流量表隨著時(shí)間的推移。
比率?
key_metrics - 列出公司一段時(shí)間(每年和每季度)的關(guān)鍵指標(biāo)(共 57 個(gè)指標(biāo))。這包括,除其他外,股本回報(bào)率(ROE)、流動(dòng)資本、流動(dòng)比率和債務(wù)?
financial_ratios - 包括公司的深度比率(共 57 個(gè)比率)在一段時(shí)間(年度和季度)。其中包括價(jià)格與賬面比率、支付比率和運(yùn)營(yíng)周期?
financial_statement_growth - 衡量多個(gè)財(cái)務(wù)報(bào)表項(xiàng)目和比率在一段時(shí)間(年度和季度)的增長(zhǎng)。其中包括收入增長(zhǎng)(3 年、5 年和 10 年)、庫(kù)存增長(zhǎng)和運(yùn)營(yíng)現(xiàn)金流增長(zhǎng)(3 年、5 年和 10 年)。
stock_data?
stock_data - 收集所提供的股票代碼的所有股票數(shù)據(jù)(包括收盤(pán)、調(diào)整后、高、低、開(kāi)盤(pán)和成交量)。這可能是任何金融工具?
stock_data_detailed - 收集大量股票數(shù)據(jù)(包括收盤(pán)、調(diào)整后收盤(pán)、高、低、開(kāi)盤(pán)、成交量、未調(diào)整交易量、絕對(duì)變化、百分比變化、交易量加權(quán)平均價(jià)格 (VWAP)、日期標(biāo)簽和時(shí)間變化)。數(shù)據(jù)收集僅限于在功能公司中上市的公司。使用 stock_data函數(shù)了解任何其他內(nèi)容。(ETF、共同基金、期權(quán)、指數(shù)等)
項(xiàng)目地址:
https://github.com/JerBouma/FundamentalAnalysis
本文部分素材來(lái)源于網(wǎng)絡(luò),如有侵權(quán),聯(lián)系刪除。

今日福利推薦
錦鯉免單
知識(shí)圖譜實(shí)戰(zhàn)?/?計(jì)算機(jī)視覺(jué)訓(xùn)練
行為識(shí)別分析實(shí)戰(zhàn)
千元AI課程大免單
100%中獎(jiǎng)機(jī)率,掃碼一鍵直達(dá)
?

