1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        【干貨】本周AI領(lǐng)域優(yōu)秀開源項(xiàng)目分享!

        共 3751字,需瀏覽 8分鐘

         ·

        2021-04-24 05:40


        本文目錄

        項(xiàng)目一:YOLOv5-PyTorch  YOLOv5的PyTorch實(shí)現(xiàn)

        項(xiàng)目二:weibo-public-opinion-datasets  持續(xù)維護(hù)的微博輿情數(shù)據(jù)集

        項(xiàng)目三:occlusion_person  具有詳細(xì)遮擋標(biāo)簽的多視圖3D人體姿勢估計(jì)數(shù)據(jù)集

        項(xiàng)目四:coco-minitrain  minicoco數(shù)據(jù)集

        項(xiàng)目五:sidechainnet  用于機(jī)器學(xué)習(xí)的全原子蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)集


        YOLOv5-PyTorch  YOLOv5的PyTorch實(shí)現(xiàn)

        項(xiàng)目地址:

        https://github.com/Okery/YOLOv5-PyTorc

        YOLOv5的PyTorch實(shí)現(xiàn)。該存儲(chǔ)庫具有兩個(gè)功能:

        • 純python代碼,無需構(gòu)建即可立即使用PyTorch 1.4運(yùn)行

        • 簡化構(gòu)造并易于理解模型的工作原理

        環(huán)境要求:

        • Windows或Linux,Python≥3.6

        • PyTorch≥1.4.0

        • matplotlib-可視化圖像和結(jié)果

        • pycocotools-用于COCO數(shù)據(jù)集和評估;Windows版本在這里

        • nvidia dali(僅Linux)-更快的數(shù)據(jù)加載器

        數(shù)據(jù)集:

        • 該存儲(chǔ)庫支持VOC和COCO數(shù)據(jù)集。

        • 如果要訓(xùn)練自己的數(shù)據(jù)集,則可以:

          • 編寫相應(yīng)的數(shù)據(jù)集代碼

          • 將您的數(shù)據(jù)集轉(zhuǎn)換為COCO樣式

        • PASCAL VOC 2012(下載):http://host.robots.ox.ac.uk/pascal/VOC/voc2012/

        • MS COCO 2017:http://cocodataset.org/

        模型訓(xùn)練:

        使用 1 GPU在COCO數(shù)據(jù)集上訓(xùn)練 (如果你使用2 GPUs, 設(shè)置 --nproc_per_node=2)

        性能:

        在單個(gè)RTX 2080Ti GPU上測試COCO 2017


        weibo-public-opinion-datasets  持續(xù)維護(hù)的微博輿情數(shù)據(jù)集

        ?

        ?項(xiàng)目地址:

        https://github.com/nghuyong/weibo-public-opinion-datasets

        新浪微博是中國最大的公共社交媒體平臺(tái)。最新和最受歡迎的社交活動(dòng)將盡快在微博上公開和討論。因此,建立一個(gè)實(shí)時(shí),全面的微博輿情數(shù)據(jù)集具有重要意義。

        目前,在給定指定關(guān)鍵詞和指定期限的情況下,微博推文數(shù)據(jù)集的構(gòu)建方法有兩種:(1)應(yīng)用微博提供的高級搜索API;(2)遍歷所有微博用戶,收集指定時(shí)間段的所有推文,然后使用指定的關(guān)鍵字過濾推文。

        但是,對于第一種方法,由于微博搜索API的限制,一次搜索的結(jié)果最多包含1000條推文,這使得構(gòu)建大型數(shù)據(jù)集變得困難。至于第二種方法,盡管我們可以構(gòu)建幾乎沒有遺漏的大規(guī)模數(shù)據(jù)集,但是遍歷數(shù)十億微博用戶需要非常長的時(shí)間和大量的帶寬資源。另外,大量的微博用戶是不活躍的,遍歷他們的主頁是沒有意義的,因?yàn)樗麄冊谥付ǖ臅r(shí)期內(nèi)可能不會(huì)發(fā)布任何推文。



        為了緩解這些局限性,我們提出了一種新的方法來構(gòu)建微博推文數(shù)據(jù)集,該方法可以構(gòu)建具有高構(gòu)建效率的大規(guī)模數(shù)據(jù)集。具體來說,我們首先建立并動(dòng)態(tài)維護(hù)一個(gè)高保密性的微博活躍用戶池(僅占所有用戶的一小部分),然后我們僅遍歷這些用戶并在指定時(shí)期內(nèi)使用指定的關(guān)鍵字收集其所有推文。

        基于初始種子用戶并通過社交關(guān)系不斷擴(kuò)展,我們首先建立了一個(gè)包括超過2.5億用戶的微博用戶池?;钴S的微博用戶池是基于微博用戶池構(gòu)建的,遵循4條規(guī)則:


        occlusion_person  具有詳細(xì)遮擋標(biāo)簽的多視圖3D人體姿勢估計(jì)數(shù)據(jù)集

        項(xiàng)目地址:

        https://github.com/zhezh/occlusion_person

        該數(shù)據(jù)集是相關(guān)的工作“AdaFuse: Adaptive Multiview Fusion for Accurate Human Pose Estimation in the Wild”,該出版物已發(fā)布在IJCV上。該論文位于(arXiv:2010.13302)。

        以前的基準(zhǔn)測試沒有為圖像中的關(guān)節(jié)提供遮擋標(biāo)簽,這阻止了我們對遮擋的關(guān)節(jié)進(jìn)行數(shù)值評估。另外,基準(zhǔn)中的遮擋量是有限的。為了解決這些限制,我們建議構(gòu)建此綜合數(shù)據(jù)集Occlusion-Person。我們采用UnrealCV來渲染3D模型中的多視圖圖像和深度圖。

        特別是,將十三種不同衣服的人體模型放置在九個(gè)不同的場景中,例如客廳,臥室和辦公室。人體模型由從CMU Motion Capture數(shù)據(jù)庫中選擇的姿勢驅(qū)動(dòng)。我們故意使用諸如沙發(fā)和書桌之類的物體遮擋某些身體關(guān)節(jié)。每個(gè)場景中放置了八臺(tái)攝像機(jī),以渲染多視圖圖像和深度圖。我們提供15個(gè)關(guān)節(jié)的3D位置作為地面真實(shí)情況。

        圖像中每個(gè)關(guān)節(jié)的遮擋標(biāo)簽是通過將其深度值(可在深度圖中獲得)與3D關(guān)節(jié)在相機(jī)坐標(biāo)系中的深度進(jìn)行比較而獲得的。如果兩個(gè)深度值之間的差小于30cm,則不會(huì)遮擋關(guān)節(jié)。否則,它將被遮擋。下表將此數(shù)據(jù)集與現(xiàn)有基準(zhǔn)進(jìn)行了比較。特別是在我們的數(shù)據(jù)集中,約有20%的身體關(guān)節(jié)被遮擋。

        完全下載所有部分后,您應(yīng)該具有以下文件:


        coco-minitrain  minicoco數(shù)據(jù)集

        項(xiàng)目地址:

        https://github.com/giddyyupp/coco-minitrain

        COCO minitrain是針對COCO的精選小型訓(xùn)練集(25K圖像≈train2017的20%)。這對于超參數(shù)調(diào)整和降低消融實(shí)驗(yàn)的成本很有用。minitrain的對象實(shí)例統(tǒng)計(jì)信息與train2017的那些匹配。在minitrain上訓(xùn)練的模型的val2017性能與在train2017上訓(xùn)練的同一模型的性能強(qiáng)烈正相關(guān)。

        COCO minitrain是COCO train2017數(shù)據(jù)集的子集,包含25K圖像(約占train2017集的20%)和跨80個(gè)對象類別的約184K注釋。我們從全套樣本中隨機(jī)采樣了這些圖像,同時(shí)盡可能保留了以下三個(gè)數(shù)量:

        • 每個(gè)類中對象實(shí)例的比例,

        • 小型,中型和大型物體的整體比例,

        • 小型,中型和大型物體的每類比率。

        對象檢測器性能。在minitrain上訓(xùn)練模型并在val2017上進(jìn)行評估:

        在Minitrain vs Train2017上訓(xùn)練的對象檢測器性能。模型在val2017上進(jìn)行評估:


        下圖比較了train2017和minitrain上的物體檢測結(jié)果。該圖還顯示了train2017和minitrain結(jié)果之間的正相關(guān)。對于COCO評估指標(biāo)AP和AP50,皮爾遜相關(guān)系數(shù)分別為0.74和0.92。此圖基于上表。 BaseModel與具有ResNet-101主干的HoughNet模型相對應(yīng)。


        sidechainnet  用于機(jī)器學(xué)習(xí)的全原子蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)集

        項(xiàng)目地址:

        https://github.com/jonathanking/sidechainne

        SidechainNet是一種蛋白質(zhì)結(jié)構(gòu)預(yù)測數(shù)據(jù)集,它直接擴(kuò)展了Mohammed AlQuraishi的ProteinNet1。

        具體來說,SidechainNet添加了用于測量蛋白質(zhì)角度和坐標(biāo)的測量值,這些測量值描述了完整的,全原子的蛋白質(zhì)結(jié)構(gòu)(主鏈和側(cè)鏈,不包括氫),而不是單獨(dú)的蛋白質(zhì)骨架。

        該項(xiàng)目提供以下內(nèi)容:

        • 存儲(chǔ)為腌制Python字典的SidechainNet數(shù)據(jù)集。

        • 在PyTorch中有效加載和批處理SidechainNet數(shù)據(jù)的方法。

        • 根據(jù)模型預(yù)測生成蛋白質(zhì)結(jié)構(gòu)可視化(.pdb,3Dmol,.gltf)的方法。

        SidechainNet數(shù)據(jù)概要:




        回顧精品內(nèi)容

        推薦系統(tǒng)

        1、干貨 | 基于用戶的協(xié)同過濾推薦算法原理和實(shí)現(xiàn)

        2、超詳細(xì)丨推薦系統(tǒng)架構(gòu)與算法流程詳解

        3、推薦 :一文從0到1掌握用戶畫像知識(shí)體系

        機(jī)器學(xué)習(xí)

        1、從小白到大師:一文Get決策樹的分類與回歸分析

        自然語言處理(NLP)

        1、AI自動(dòng)評審論文,CMU這個(gè)工具可行嗎?我們用它評審了下Transformer論文

        2、Transformer強(qiáng)勢闖入CV界秒殺CNN,靠的到底是什么"基因"

        計(jì)算機(jī)視覺(CV)

        1、9個(gè)小技巧讓您的PyTorch模型訓(xùn)練裝上“渦輪增壓”...

        GitHub開源項(xiàng)目:

        1、火爆GitHub!3.6k Star,中文版可視化神器現(xiàn)身

        2、兩次霸榜GitHub!這個(gè)神器不寫代碼也可以完成AI算法訓(xùn)練

        3、登頂GitHub大熱項(xiàng)目 | 非監(jiān)督GAN算法U-GAT-IT大幅改進(jìn)圖像轉(zhuǎn)換

        每周推薦:

        1、本周優(yōu)秀開源項(xiàng)目分享:無腦套用格式、開源模板最高10萬

        2、【干貨】本周AI領(lǐng)域優(yōu)秀開源項(xiàng)目和優(yōu)秀論文分享!

        七月在線學(xué)員面經(jīng)分享:

        1、先工程后算法:美國加州材料博后辭職到字節(jié)40萬offer

        2、 雙非應(yīng)屆生拿下大廠NLP崗40萬offer:面試經(jīng)驗(yàn)與路線圖分享

        3、轉(zhuǎn)行NLP拿下40萬offer:分享我面試中遇到的54道面試題(含參考答案)

        瀏覽 159
        點(diǎn)贊
        評論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評論
        圖片
        表情
        推薦
        點(diǎn)贊
        評論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            欧美激情视频一区| 国产黄色性爱视频| 国产成人AV免费无码| 日韩熟妇人妻中文字幕| 密臀福利导航| 亚洲在线免费观看| 久久逼逼| 男女视频网站| 欧美日韩综合| 精品欧美一区二区精品久久 |