1. 小米AIGC大模型實習面試題4道|含解析

        共 3007字,需瀏覽 7分鐘

         ·

        2024-04-11 07:37

        12本七月在線內部電子書在文末,自取~

        公眾號福利

        ??回復【100題】領取《名企AI面試100題》PDF

        ??回復【干貨資料】領取NLP、CV、ML等AI方向干貨資料

        f0a87c7ad21b76af66ecbcd1c12629b3.webp 327fc484a8ace7921e6bf245e6bdaeb3.webp f0a87c7ad21b76af66ecbcd1c12629b3.webp

        問題1、講一下transformer的原理

        transformer的主要組成部分包括自注意力機制和位置編碼。

        • 自注意力機制(Self-Attention):它允許模型在輸入序列中的不同位置之間建立關聯。通過計算每個位置與其他所有位置的相關性得分,模型可以學習到輸入序列中各個部分之間的依賴關系。

        • 位置編碼(Positional Encoding):Transformer通過將位置信息編碼到輸入向量中,使得模型能夠區(qū)分不同位置的詞語或標記。這樣,模型能夠利用位置信息更好地理解輸入序列。

        • 多頭注意力機制(Multi-Head Attention):為了增強模型對不同表示空間的關注,Transformer引入了多個注意力頭,允許模型并行地關注不同的表示子空間,從而提高了模型的表征能力。

        • 前饋神經網絡(Feed-Forward Neural Network):每個注意力模塊之后都連接著一個前饋神經網絡,它通過應用全連接層和激活函數來對特征進行變換和組合。

        通過這些組件的組合和堆疊,Transformer模型能夠捕捉長距離依賴關系,同時避免了傳統(tǒng)循環(huán)神經網絡中的序列依賴問題,使其在處理長序列時表現更好。

        問題2、講一下微調方法p-tuning v2的原理

        P-Tuning V2在P-Tuning V1的基礎上進行了下述改進:

        • 在每一層都加入了Prompts tokens作為輸入,而不是僅僅加在輸入層,這與Prefix Tuning的做法相同。這樣得到了更多可學習的參數,且更深層結構中的Prompt能給模型預測帶來更直接的影響。

        • 去掉了重參數化的編碼器。在 P-tuning v2 中,作者發(fā)現重參數化的改進很小,尤其是對于較小的模型,同時還會影響模型的表現。

        • 針對不同任務采用不同的提示長度。提示長度在提示優(yōu)化方法的超參數搜索中起著核心作用。在實驗中,我們發(fā)現不同的理解任務通常用不同的提示長度來實現其最佳性能,這與Prefix-Tuning中的發(fā)現一致,不同的文本生成任務可能有不同的最佳提示長度。

        • 可選的多任務學習。先在多任務的Prompt上進行預訓練,然后再適配下游任務。一方面,連續(xù)提示的隨機慣性給優(yōu)化帶來了困難,這可以通過更多的訓練數據或與任務相關的無監(jiān)督預訓練來緩解;另一方面,連續(xù)提示是跨任務和數據集的特定任務知識的完美載體。

        問題3、什么是bilstm-crf

        BiLSTM-CRF是一種用于序列標注任務的神經網絡模型,結合了雙向長短期記憶網絡(BiLSTM)和條件隨機場(CRF)。

        • 雙向長短期記憶網絡(BiLSTM):BiLSTM是一種循環(huán)神經網絡變種,能夠有效地捕捉輸入序列中的長期依賴關系。通過同時考慮輸入序列的正向和反向信息,BiLSTM可以更好地理解整個序列的語境。

        • 條件隨機場(CRF):CRF是一種概率圖模型,常用于序列標注任務。它能夠對序列中的標記進行全局建模,利用標記之間的依賴關系來提高標注的一致性和準確性。

        BiLSTM-CRF模型首先利用BiLSTM對輸入序列進行特征提取,然后將提取的特征作為CRF模型的輸入,利用CRF模型對序列進行標注。通過結合BiLSTM和CRF,BiLSTM-CRF模型能夠更好地處理序列標注任務,同時充分利用上下文信息和標記之間的依賴關系。

        問題4、代碼題:給整數數組和target,找數組當中和為目標值的兩個整數返回下標。

        使用一個字典來存儲遍歷過的數字及其下標,通過查找字典來判斷是否存在與當前數字配對的數字,從而實現尋找和為目標值的兩個數的功能。

                  
                    
                      def two_sum(nums, target):
                    
                  
                  
                        num_dict = {}  # 用字典存儲數字和對應的下標
                  
                  
                        for i, num in enumerate(nums):
                  
                  
                            complement = target - num  # 計算目標值與當前值的差值
                  
                  
                            if complement in num_dict:  # 如果差值在字典中,則找到了符合條件的兩個數
                  
                  
                                return [num_dict[complement], i]
                  
                  
                            num_dict[num] = i  # 否則將當前數字及其下標存入字典
                  
                  
                        return None  # 如果未找到符合條件的兩個數,則返回None
                  
                  
                    
                      
        # 示例 nums = [2, 7, 11, 15] target = 9 print(two_sum(nums, target))  # 輸出 [0, 1],因為 nums[0] + nums[1] = 2 + 7 = 9

        免費送


        ↓以下12本書電子版免費領,直接送↓ 71397082e89e318731581d78b3878ca0.webp

        a7d5e5f84b1b17ca201743d77a58a5e0.webp

        以上8本+2022年Q4面試題-69道》、2022年Q3面試題-83道》、2023年Q1面試題-65道》、2023年Q2面試題-103道共12本, 免費送


        掃碼回復【999】免費領12本電子書

              

        (或 找七月在線其他老師領取

        點擊 閱讀原文 ”搶新人 福利 ~

        瀏覽 37
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
          
          

            1. 蜜臀99 | 中国老骚逼| 国产精一区二区三区 | 北条麻妃性爱片 | 久草网在线视频网站 |