當前位置:首頁 » 操作系統 » cca演算法

cca演算法

發布時間: 2022-07-01 04:44:05

『壹』 CCA分析中的第一排序軸和第二排序軸軸分別代表什麼意思

DCCA是目前最先進的植被環境關系多元分析技術之一.
它在去趨勢對應分析(DCA)的基礎上改進而成. 即在每一輪樣方值—物種值的加權平均疊帶運算後,用樣方環境因子值與樣方排序值做一次多元線性回歸,用回歸系數與環境因子原始值計算出樣方分值在用於新一輪疊帶計算,這樣得出的排序軸代表環境因子的一種線性組合,稱此方法為環境約束的對應分析(CCA).然後加入去趨勢演算法去掉因第一,二排序軸間的相關性產生的"弓形效應"而成為DCCA.它因為結合物種構成和環境因子的信息計算樣方排序軸,結果更理想,並可以直觀地把環境因子,物種,樣方同時表達在排序軸的坐標平面上,已成為上世紀90年代以來植被梯度分析與環境解釋的趨勢性方法。

『貳』 基因測序時otu和 歸類操作一樣嗎

稀釋性曲線(Rarefaction Curve)採用對測序序列進行隨機抽樣的方法,以抽到的序列數與它們所能代表OTU的數目構建曲線,即稀釋性曲線。當曲線趨於平坦時,說明測序數據量合理,更多的數據量對發現新OTU的邊際貢獻很小;反之則表明繼續測序還可能產生較多新的OTU。橫軸:從某個樣品中隨機抽取的測序條數;"Label 0.03" 表示該分析是基於OTU 序列差異水平在0.03,即相似度為97% 的水平上進行運算的,客戶可以選取其他不同的相似度水平。縱軸:基於該測序條數能構建的OTU數量。曲線解讀:? 圖1中每條曲線代表一個樣品,用不同顏色標記;? 隨測序深度增加,被發現OTU 的數量增加。當曲線趨於平緩時表示此時的測序數據量較為合理。2. Shannon-Wiener 曲線反映樣品中微生物多樣性的指數,利用各樣品的測序量在不同測序深度時的微生物多樣性指數構建曲線,以此反映各樣本在不同測序數量時的微生物多樣性。當曲線趨向平坦時,說明測序數據量足夠大,可以反映樣品中絕大多數的微生物物種信息。橫軸:從某個樣品中隨機抽取的測序條數。縱軸:Shannon-Wiener 指數,用來估算群落多樣性的高低。Shannon 指數計算公式:其中,Sobs= 實際測量出的OTU數目;ni= 含有i 條序列的OTU數目;N = 所有的序列數。曲線解讀:? 圖2每條曲線代表一個樣品,用不同顏色標記,末端數字為實際測序條數;? 起初曲線直線上升,是由於測序條數遠不足覆蓋樣品導致;? 數值升高直至平滑說明測序條數足以覆蓋樣品中的大部分微生物。3.Rank-Abundance 曲線用於同時解釋樣品多樣性的兩個方面,即樣品所含物種的豐富程度和均勻程度。物種的豐富程度由曲線在橫軸上的長度來反映,曲線越寬,表示物種的組成越豐富;物種組成的均勻程度由曲線的形狀來反映,曲線越平坦,表示物種組成的均勻程度越高。橫軸:OTU 相對豐度含量等級降序排列。縱軸:相對豐度比例。曲線解讀:? 圖3與圖4中每條曲線對應一個樣本(參考右上角圖標);? 圖3與圖4中橫坐標表示的是OTU(物種)豐度排列順序,縱坐標對應的是OTU(物種)所佔相對豐度比例(圖3為相對百分比例,圖4為換算後Log值),曲線趨於水平則表示樣品中各物種所佔比例相似;曲線整體斜率越大則表示樣品中各物種所佔比例差異較大。4. 樣本群落組成分析:多樣本柱狀圖/ 單樣本餅狀圖 根據分類學分析結果,可以得知一個或多個樣品在各分類水平上的物種組成比例情況,反映樣品在不同分類學水平上的群落結構。柱狀圖(圖5)橫軸:各樣品的編號。縱軸:相對豐度比例。圖標解讀:? 顏色對應此分類學水平下各物種名稱,不同色塊寬度表示不同物種相對豐度比例;? 可以在不同分類學水平下作圖分析。餅狀圖(圖6)在某一分類學水平上,不同菌群所佔的相對豐度比例。不同顏色代表不同的物種。5. 樣品OTU 分布Venn 圖用於統計多個樣品中共有或獨有的OTU數目,可以比較直觀地表現各環境樣品之間的OTU 組成相似程度。不同樣品用不同顏色標記,各個數字代表了某個樣品獨有或幾種樣品共有的OTU 數量,對應的OTU編號會以EXCEL 表的形式在結題報告中呈現。分析要求單張分析圖,樣本分組至少兩個,最多5 個。? 默認設置為97% 相似度水平下以OTU 為單位進行分析作圖。6. Heatmap 圖用顏色變化來反映二維矩陣或表格中的數據信息,它可以直觀地將數據值的大小以定義的顏色深淺表示出來。將高豐度和低豐度的物種分塊聚集,通過顏色梯度及相似程度來反映多個樣品在各分類水平上群落組成的相似性和差異性。相對豐度比例:熱圖(圖8)中每小格代表其所在樣品中某個OTU 的相對豐度。以圖8為例,紅框高亮的小格所對應的信息為:樣本(R11-1Z)中OTU(OTU128)的相對豐度比例大概為0.2%。豐度比例計算公式(Bray Curtis 演算法):其中,SA,i = 表示A樣品中第i個OTU所含的序列數SB,i = 表示B樣品中第i個OTU所含的序列數樣品間聚類關系樹:進化樹表示在選用成圖數據中,樣本與樣本間序列的進化關系(差異關系)。處於同一分支內的樣品序列進化關系相近。物種/OTU 豐度相似性樹:豐度相似性樹表示選用成圖的數據中樣品與樣品中的OTU 或序列在豐度上的相似程度。豐度最相近的會分配到同一分支上。客戶自定義分組:根據研究需求對菌群物種/OTU 研究樣本進行二級分組? 二級物種/OTU 分組:將下級分類學水平物種或OTU 分配到對應的上級分類學水平,以不同顏色區分;? 二級樣品分組:根據研究需要,對樣品進行人為的分組,以不同顏色區分。7. 主成分分析PCA (Principal Component Analysis)在多元統計分析中,主成分分析是一種簡化數據集的技術。主成分分析經常用於減少數據集的維數,同時保持數據集中對方差貢獻最大的特徵,從而有效地找出數據中最「主要」的元素和結構,去除噪音和冗餘,將原有的復雜數據降維,揭示隱藏在復雜數據背後的簡單結構。通過分析不同樣品的OTU 組成可以反映樣品間的差異和距離,PCA 運用方差分解,將多組數據的差異反映在二維坐標圖上,坐標軸為能夠最大程度反映方差的兩個特徵值。如樣品組成越相似,反映在PCA圖中的距離越近。橫軸和縱軸:以百分數的形式體現主成分主要影響程度。以圖9為例,主成分1(PC1)和主成分2(PC2)是造成四組樣品(紅色,藍色,黃色和綠色)的兩個最大差異特徵,貢獻率分別為41.1% 和27.1%。十字交叉線:在圖9中作為0 點基線存在,起到輔助分析的作用,本身沒有意義。圖例解讀:? PCA 分析圖是基於每個樣品中所含有的全部OTU 完成的;? 圖9中每個點代表了一個樣本;顏色則代表不同的樣品分組;? 兩點之間在橫、縱坐標上的距離,代表了樣品受主成分(PC1 或 PC2)影響下的相似性距離;? 樣本數量越多,該分析意義越大;反之樣本數量過少,會產生個體差異,導致PCA分析成圖後形成較大距離的分開,建議多組樣品時,每組不少於5個,不分組時樣品不少於10個;? 圖10中的圓圈為聚類分析結果,圓圈內的樣品,其相似距離比較接近。8. RDA/ CCA 分析圖基於對應分析發展的一種排序方法,將對應分析與多元回歸分析相結合,每一步計算均與環境因子進行回歸,又稱多元直接梯度分析。主要用來反映菌群與環境因子之間的關系。RDA 是基於線性模型,CCA是基於單峰模型。分析可以檢測環境因子、樣品、菌群三者之間的關系或者兩兩之間的關系。橫軸和縱軸:RDA 和CCA 分析,模型不同,橫縱坐標上的刻度為每個樣品或者物種在與環境因子進行回歸分析計算時產生的值,可以繪制於二維圖形中。圖例解讀:? 冗餘分析可以基於所有樣品的OTU作圖,也可以基於樣品中優勢物種作圖;? 箭頭射線:圖11中的箭頭分別代表不同的環境因子(即圖中的碳酸氫根離子HCO3-,醋酸根離子AC-等,圖中的其它環境因子因研究不同代表的意義不同,因此不再贅述);? 夾角:環境因子之間的夾角為銳角時表示兩個環境因子之間呈正相關關系,鈍角時呈負相關關系。環境因子的射線越長,說明該影響因子的影響程度越大;? 圖11中不同顏色的點表示不同組別的樣品或者同一組別不同時期的樣品,圖中的拉丁文代表物種名稱,可以將關注的優勢物種也納入圖中;? 環境因子數量要少於樣本數量,同時在分析時,需要提供環境因子的數據,比如 pH值,測定的溫度值等。9. 單樣品/ 多樣品分類學系統組成樹根據NCBI 提供的已有微生物物種的分類學信息資料庫,將測序得到的物種豐度信息回歸至資料庫的分類學系統關系樹中,從整個分類系統上全面了解樣品中所有微生物的進化關系和豐度差異。單樣品圖(圖12):可以了解單樣品中的序列在各個分類學水平上的分布情況。圖例解讀:? 圖12中不同的層次反映不同的分類學水平;? 分支處的圓面積說明了分布在該分類學水平,且無法繼續往下級水平比對的序列數量,面積越大,說明此類序列越多;? 每個分支上的名詞後面的兩組數字分別表示比對到該分支上的序列數和駐留在該節點上的序列數;? 圖13中為某單一水平物種分布情況,並非是序列分布。多樣品圖(圖14):比對多個樣品在不同分類學分支上序列數量差異。圖例解讀:? 比對不同樣品在某分支上的序列數量差異,通過帶顏色的餅狀圖呈現,餅狀圖的面積越大,說明在分支處的序列數量越多,不同的顏色代表不同的樣品。? 某顏色的扇形面積越大,說明在該分支上,其對應樣品的序列數比其他樣品多。? 多樣品在做該分析時,建議樣品數量控制在10個以內,或者將重復樣本數據合並成一個樣本後,總樣品數在10個以內。10.系統發生進化樹在分子進化研究中,基於系統發生的推斷來揭示某一分類水平上序列間鹼基的差異,進而構建進化樹。

『叄』 A*演算法應用,大家給點介紹,做課程設計

維基網路有很多的,大陸訪問不了,可以設置個香港代理。

SHA 家族
[編輯首段]維基網路,自由的網路全書
跳轉到: 導航, 搜尋
安全散列演演演算法能計算出一個數位訊息所對應到的,長度固定的字串(又稱訊息摘要)。且若輸入的訊息不同,它們對應到不同字串的機率很高;而 SHA 是FIPS所認證的五種安全雜湊演演演算法。這些演演演算法之所以稱作「安全」是基於以下兩點(根據官方標準的描述):「1)由訊息摘要反推原輸入訊息,從計算理論上來說是很困難的。2)想要找到兩組不同的訊息對應到相同的訊息摘要,從計算理論上來說也是很困難的。任何對輸入訊息的變動,都有很高的機率導致其產生的訊息摘要迥異。」

SHA 家族的五個演演演算法,分別是SHA-1, SHA-224, SHA-256, SHA-384, 和 SHA-512,由美國國家安全局 (NSA) 所設計,並由美國國家標准與技術研究院(NIST) 發布;是美國的政府標准。後四者有時並稱為SHA-2。SHA-1 在許多安全協定中廣為使用,包括 TLS 和 SSL、 PGP、SSH、S/MIME 和 IPsec,曾被視為是 MD5(更早之前被廣為使用的雜湊函數)的後繼者。但 SHA-1 的安全性如今被密碼學家嚴重質疑;雖然至今尚未出現對 SHA-2 有效的攻擊,它的演演演算法跟 SHA-1 基本上仍然相似;因此有些人開始發展其他替代的雜湊演演演算法。緣於最近對 SHA-1 的種種攻擊發表,「美國國家標准與技術研究院(NIST)開始設法經由公開競爭管道(類似高級加密標准AES的發展經過),發展一個或多個新的雜湊演演演算法。」

目錄 [隱藏]
1 SHA-0 和 SHA-1
1.1 SHA-0 的破解
1.2 SHA-1 的破解
2 SHA-2
3 SHA 所定義的長度
4 SHAd
5 應用
6 SHA-1 演演演算法
7 SHA-2 演演演算法
8 參見
9 參考資料
10 外部鏈結

[編輯] SHA-0 和 SHA-1

SHA-1 壓縮演演演算法中的一個迴圈。A, B, C, D 和 E 是這個state中的 32 位元文字;F 是會變化的非線性函數;<<<n 代表bit向左循環移動n個位置。n因操作而異。田代表molo 232之下的加法,Kt 是一個常數。最初載明的演演演算法於 1993年發布,稱做安全雜湊標准 (Secure Hash Standard),FIPS PUB 180。這個版本現在常被稱為 SHA-0。它在發布之後很快就被 NSA 撤回,並且由 1995年發布的修訂版本 FIPS PUB 180-1 (通常稱為 SHA-1) 取代。SHA-1 和 SHA-0 的演演演算法只在壓縮函數的訊息轉換部份差了一個位元的循環位移。根據 NSA 的說法,它修正了一個在原始演演演算法中會降低密碼安全性的錯誤。然而 NSA 並沒有提供任何進一步的解釋或證明該錯誤已被修正。而後 SHA-0 和 SHA-1 的弱點相繼被攻破,SHA-1 似乎是顯得比 SHA-0 有抵抗性,這多少證實了 NSA 當初修正演演演算法以增進安全性的聲明。

SHA-0 和 SHA-1 可將一個最大 264 位元的訊息,轉換成一串 160 位元的訊息摘要;其設計原理相似於 MIT 教授 Ronald L. Rivest 所設計的密碼學雜湊演演演算法 MD4 和 MD5。

[編輯] SHA-0 的破解
在 CRYPTO 98 上,兩位法國研究者提出一種對 SHA-0 的攻擊方式 (Chabaud and Joux, 1998): 在 261的計算復雜度之內,就可以發現一次碰撞(即兩個不同的訊息對應到相同的訊息摘要);這個數字小於 280 ,也就是說,其安全性不到一個理想的雜湊函數抵抗攻擊所應具備的計算復雜度。

2004年時,Biham 和 Chen 也發現了 SHA-0 的近似碰撞 — 兩個訊息可以雜湊出幾乎相同的數值;其中 162 位元中有 142 位元相同。他們也發現了 SHA-0 的完整碰撞(相對於近似碰撞),將本來需要 80 次方的復雜度降低到 62 次方。

2004年8月12日,Joux, Carribault, Lemuet 和 Jalby 宣布找到 SHA-0 演演演算法的完整碰撞的方法,這是歸納 Chabaud 和 Joux 的攻擊所完成的結果。發現一個完整碰撞只需要 251的計算復雜度。他們使用的是一台有 256 顆 Itanium2 處理器的超級電腦,約耗 80,000 CPU 工時 [1]。

2004年8月17日,在 CRYPTO 2004 的 Rump 會議上,王小雲, 馮登國 (Feng), 來學嘉 (Lai), 和於紅波 (Yu) 宣布了攻擊 MD5、SHA-0 和其他雜湊函數的初步結果。他們攻擊 SHA-0 的計算復雜度是 240,這意謂的他們的攻擊成果比 Joux 還有其他人所做的更好。請參見 MD5 安全性。2005 年二月,王小雲和殷益群、於紅波再度發表了對 SHA-0 破密的演演演算法,可在 239 的計算復雜度內就找到碰撞。

[編輯] SHA-1 的破解
鑒於 SHA-0 的破密成果,專家們建議那些計畫利用 SHA-1 實作密碼系統的人們也應重新考慮。2004 年 CRYPTO 會議結果公布之後,NIST 即宣布他們將逐漸減少使用 SHA-1,改以 SHA-2 取而代之。

2005年,Rijmen 和 Oswald 發表了對 SHA-1 較弱版本(53次的加密迴圈而非80次)的攻擊:在 280 的計算復雜度之內找到碰撞。

2005年二月,王小雲、殷益群及於紅波發表了對完整版 SHA-1 的攻擊,只需少於 269 的計算復雜度,就能找到一組碰撞。(利用暴力搜尋法找到碰撞需要 280 的計算復雜度。)

這篇論文的作者們寫道;「我們的破密分析是以對付 SHA-0 的差分攻擊、近似碰撞、多區塊碰撞技術、以及從 MD5 演演演算法中尋找碰撞的訊息更改技術為基礎。沒有這些強力的分析工具,SHA-1 就無法破解。」此外,作者還展示了一次對 58 次加密迴圈 SHA-1 的破密,在 233 個單位操作內就找到一組碰撞。完整攻擊方法的論文發表在 2005 年八月的 CRYPTO 會議中。

殷益群在一次面談中如此陳述:「大致上來說,我們找到了兩個弱點:其一是前置處理不夠復雜;其二是前 20 個迴圈中的某些數學運算會造成不可預期的安全性問題。」

2005 年八月 17 的 CRYPTO 會議尾聲中王小雲、姚期智、姚儲楓再度發表更有效率的 SHA-1 攻擊法,能在 263 個計算復雜度內找到碰撞。

在密碼學的學術理論中,任何攻擊方式,其計算復雜度若少於暴力搜尋法所需要的計算復雜度,就能被視為針對該密碼系統的一種破密法;這並不表示該破密法已經可以進入實際應用的階段。

就應用層面的考量而言,一種新的破密法出現,暗示著將來可能會出現更有效率、足以實用的改良版本。雖然這些實用的破密法版本根本還沒誕生,但確有必要發展更強的雜湊演演演算法來取代舊的演演演算法。在「碰撞」攻擊法之外,另有一種反譯攻擊法,就是由雜湊出的字串反推原本的訊息;反譯攻擊的嚴重性更在碰撞攻擊之上。 在許多會應用到密碼雜湊的情境(如用戶密碼的存放、文件的數位簽章等)中,碰撞攻擊的影響並不是很大。舉例來說,一個攻擊者可能不會只想要偽造一份一模一樣的文件,而會想改造原來的文件,再附上合法的簽章,來愚弄持有私密金鑰的驗證者。另一方面,如果可以從密文中反推未加密前的使用者密碼,攻擊者就能利用得到的密碼登入其他使用者的帳戶,而這種事在密碼系統中是不能被允許的。但若存在反譯攻擊,只要能得到指定使用者密碼雜湊過後的字串(通常存在影檔中,而且可能不會透露原密碼資訊),就有可能得到該使用者的密碼。

2006 年的 CRYPTO 會議上,Christian Rechberger 和 Christophe De Cannière 宣布他們能在容許攻擊者決定部分原訊息的條件之下,找到 SHA-1 的一個碰撞。

[編輯] SHA-2

SHA-2 的第t個加密迴圈。圖中的深藍色方塊是事先定義好的非線性函數。ABCDEFGH一開始分別是八個初始值,Kt是第t個金鑰,Wt是本區塊產生第t個word。原訊息被切成固定長度的區塊,對每一個區塊,產生n個word(n視演演演算法而定),透過重復運作迴圈n次對ABCDEFGH這八個工作區段循環加密。最後一次迴圈所產生的八段字串合起來即是此區塊對應到的雜湊字串。若原訊息包含數個區塊,則最後還要將這些區塊產生的雜湊字串加以混合才能產生最後的雜湊字串。NIST 發布了三個額外的 SHA 變體,這三個函數都將訊息對應到更長的訊息摘要。以它們的摘要長度 (以位元計算) 加在原名後面來命名:SHA-256,SHA-384 和 SHA-512。它們發布於 2001年的 FIPS PUB 180-2 草稿中,隨即通過審查和評論。包含 SHA-1 的 FIPS PUB 180-2,於 2002年以官方標准發布。2004年2月,發布了一次 FIPS PUB 180-2 的變更通知,加入了一個額外的變種 "SHA-224",這是為了符合雙金鑰 3DES 所需的金鑰長度而定義。

SHA-256 和 SHA-512 是很新的雜湊函數,前者以定義一個word為32位元,後者則定義一個word為64位元。它們分別使用了不同的偏移量,或用不同的常數,然而,實際上二者結構是相同的,只在迴圈執行的次數上有所差異。 SHA-224 以及 SHA-384 則是前述二種雜湊函數的截短版,利用不同的初始值做計算。

這些新的雜湊函數並沒有接受像 SHA-1 一樣的公眾密碼社群做詳細的檢驗,所以它們的密碼安全性還不被大家廣泛的信任。Gilbert 和 Handschuh (2003) 曾對這些新變種作過一些研究,聲稱他們沒有弱點。

[編輯] SHA 所定義的長度
下表中的中繼雜湊值(internal state)表示對每個資料區塊壓縮雜湊過後的中繼值(internal hash sum)。詳情請參見Merkle-Damgård construction。

演演演算法 輸出雜湊值長度 (bits) 中繼雜湊值長度 (bits) 資料區塊長度 (bits) 最大輸入訊息長度 (bits) 一個Word長度 (bits) 迴圈次數 使用到的運運算元 碰撞攻擊
SHA-0 160 160 512 264 − 1 32 80 +,and,or,xor,rotl 是
SHA-1 160 160 512 264 − 1 32 80 +,and,or,xor,rotl 存在263 的攻擊
SHA-256/224 256/224 256 512 264 − 1 32 64 +,and,or,xor,shr,rotr 尚未出現
SHA-512/384 512/384 512 1024 2128 − 1 64 80 +,and,or,xor,shr,rotr 尚未出現

[編輯] SHAd
SHAd 函數是一個簡單的相同 SHA 函數的重述:

SHAd-256(m)=SHA-256(SHA-256(m))。它會克服有關延伸長度攻擊的問題。

[編輯] 應用
SHA-1, SHA-224, SHA-256, SHA-384 和 SHA-512 都被需要安全雜湊演演演算法的美國聯邦政府所應用,他們也使用其他的密碼演演演算法和協定來保護敏感的未保密資料。FIPS PUB 180-1 也鼓勵私人或商業組織使用 SHA-1 加密。Fritz-chip 將很可能使用 SHA-1 雜湊函數來實現個人電腦上的數位版權管理。

首先推動安全雜湊演演演算法出版的是已合並的數位簽章標准。

SHA 雜湊函數已被做為 SHACAL 分組密碼演演演算法的基礎。

[編輯] SHA-1 演演演算法
以下是 SHA-1 演演演算法的虛擬碼:

Note: All variables are unsigned 32 bits and wrap molo 232 when calculating

Initialize variables:
h0 := 0x67452301
h1 := 0xEFCDAB89
h2 := 0x98BADCFE
h3 := 0x10325476
h4 := 0xC3D2E1F0

Pre-processing:
append the bit '1' to the message
append k bits '0', where k is the minimum number >= 0 such that the resulting message
length (in bits) is congruent to 448 (mod 512)
append length of message (before pre-processing), in bits, as 64-bit big-endian integer

Process the message in successive 512-bit chunks:
break message into 512-bit chunks
for each chunk
break chunk into sixteen 32-bit big-endian words w[i], 0 ≤ i ≤ 15

Extend the sixteen 32-bit words into eighty 32-bit words:
for i from 16 to 79
w[i] := (w[i-3] xor w[i-8] xor w[i-14] xor w[i-16]) leftrotate 1

Initialize hash value for this chunk:
a := h0
b := h1
c := h2
d := h3
e := h4

Main loop:
for i from 0 to 79
if 0 ≤ i ≤ 19 then
f := (b and c) or ((not b) and d)
k := 0x5A827999
else if 20 ≤ i ≤ 39
f := b xor c xor d
k := 0x6ED9EBA1
else if 40 ≤ i ≤ 59
f := (b and c) or (b and d) or (c and d)
k := 0x8F1BBCDC
else if 60 ≤ i ≤ 79
f := b xor c xor d
k := 0xCA62C1D6

temp := (a leftrotate 5) + f + e + k + w[i]
e := d
d := c
c := b leftrotate 30
b := a
a := temp

Add this chunk's hash to result so far:
h0 := h0 + a
h1 := h1 + b
h2 := h2 + c
h3 := h3 + d
h4 := h4 + e

Proce the final hash value (big-endian):
digest = hash = h0 append h1 append h2 append h3 append h4
上述關於 f 運算式列於 FIPS PUB 180-1 中 , 以下替代運算式也許也能在主要迴圈裡計算 f :

(0 ≤ i ≤ 19): f := d xor (b and (c xor d)) (alternative)

(40 ≤ i ≤ 59): f := (b and c) or (d and (b or c)) (alternative 1)
(40 ≤ i ≤ 59): f := (b and c) or (d and (b xor c)) (alternative 2)
(40 ≤ i ≤ 59): f := (b and c) + (d and (b xor c)) (alternative 3)

[編輯] SHA-2 演演演算法
以下是SHA-256 演演演算法的虛擬碼。注意,64個word w[16..63]中的位元比起 SHA-1 演演演算法,混合的程度大幅提升。

Note: All variables are unsigned 32 bits and wrap molo 232 when calculating

Initialize variables
(first 32 bits of the fractional parts of the square roots of the first 8 primes 2..19):
h0 := 0x6a09e667
h1 := 0xbb67ae85
h2 := 0x3c6ef372
h3 := 0xa54ff53a
h4 := 0x510e527f
h5 := 0x9b05688c
h6 := 0x1f83d9ab
h7 := 0x5be0cd19

Initialize table of round constants
(first 32 bits of the fractional parts of the cube roots of the first 64 primes 2..311):
k[0..63] :=
0x428a2f98, 0x71374491, 0xb5c0fbcf, 0xe9b5dba5, 0x3956c25b, 0x59f111f1, 0x923f82a4, 0xab1c5ed5,
0xd807aa98, 0x12835b01, 0x243185be, 0x550c7dc3, 0x72be5d74, 0x80deb1fe, 0x9bdc06a7, 0xc19bf174,
0xe49b69c1, 0xefbe4786, 0x0fc19dc6, 0x240ca1cc, 0x2de92c6f, 0x4a7484aa, 0x5cb0a9dc, 0x76f988da,
0x983e5152, 0xa831c66d, 0xb00327c8, 0xbf597fc7, 0xc6e00bf3, 0xd5a79147, 0x06ca6351, 0x14292967,
0x27b70a85, 0x2e1b2138, 0x4d2c6dfc, 0x53380d13, 0x650a7354, 0x766a0abb, 0x81c2c92e, 0x92722c85,
0xa2bfe8a1, 0xa81a664b, 0xc24b8b70, 0xc76c51a3, 0xd192e819, 0xd6990624, 0xf40e3585, 0x106aa070,
0x19a4c116, 0x1e376c08, 0x2748774c, 0x34b0bcb5, 0x391c0cb3, 0x4ed8aa4a, 0x5b9cca4f, 0x682e6ff3,
0x748f82ee, 0x78a5636f, 0x84c87814, 0x8cc70208, 0x90befffa, 0xa4506ceb, 0xbef9a3f7, 0xc67178f2

Pre-processing:
append the bit '1' to the message
append k bits '0', where k is the minimum number >= 0 such that the resulting message
length (in bits) is congruent to 448 (mod 512)
append length of message (before pre-processing), in bits, as 64-bit big-endian integer

Process the message in successive 512-bit chunks:
break message into 512-bit chunks
for each chunk
break chunk into sixteen 32-bit big-endian words w[0..15]

Extend the sixteen 32-bit words into sixty-four 32-bit words:
for i from 16 to 63
s0 := (w[i-15] rightrotate 7) xor (w[i-15] rightrotate 18) xor (w[i-15] rightshift 3)
s1 := (w[i-2] rightrotate 17) xor (w[i-2] rightrotate 19) xor (w[i-2] rightshift 10)
w[i] := w[i-16] + s0 + w[i-7] + s1

Initialize hash value for this chunk:
a := h0
b := h1
c := h2
d := h3
e := h4
f := h5
g := h6
h := h7

Main loop:
for i from 0 to 63
s0 := (a rightrotate 2) xor (a rightrotate 13) xor (a rightrotate 22)
maj := (a and b) xor (a and c) xor (b and c)
t2 := s0 + maj
s1 := (e rightrotate 6) xor (e rightrotate 11) xor (e rightrotate 25)
ch := (e and f) xor ((not e) and g)
t1 := h + s1 + ch + k[i] + w[i]

h := g
g := f
f := e
e := d + t1
d := c
c := b
b := a
a := t1 + t2

Add this chunk's hash to result so far:
h0 := h0 + a
h1 := h1 + b
h2 := h2 + c
h3 := h3 + d
h4 := h4 + e
h5 := h5 + f
h6 := h6 + g
h7 := h7 + h

Proce the final hash value (big-endian):
digest = hash = h0 append h1 append h2 append h3 append h4 append h5 append h6 append h7
其中 ch 函數及 maj 函數可利用前述 SHA-1 的優化方式改寫。

SHA-224 和 SHA-256 基本上是相同的, 除了:

h0 到 h7 的初始值不同,以及
SHA-224 輸出時截掉 h7 的函數值。
SHA-512 和 SHA-256 的結構相同,但:

SHA-512 所有的數字都是64位元,
SHA-512 執行80次加密迴圈而非64次,
SHA-512 初始值和常數拉長成64位元,以及
二者位元的偏移量和循環位移量不同。
SHA-384 和 SHA-512 基本上是相同的,除了:

h0 到 h7 的初始值不同,以及
SHA-384 輸出時截掉 h6 和 h7 的函數值。

『肆』 O level 的分數怎麼算的

讀poly算得是L1R4,上JC算的是L1R5。在直通車學校的話,想必你就不是以poly為目標了吧?那我就只解釋L1R5了。

先回答第二個問題。只要你學了,你就可以考,如果考試沒去就像當與你沒有學過這門課了。必修的有英文、華文(或者malay或者tamil)、e math, combine humanity,還有至少一門science。比較好的學校,通常學生會學7-10門課。我當年學的10門:english, chinese, higher chinese, e math, a math, phy, chem, biology, geography (core), combine huamnity。現在好像很少有學校學兩門humanity了。

再回答第一問。所謂L1R5,就是language數一門,剩下的數5門最好的。通常75分為A1,70為A2,65為B3,60為B4,55為C5,50為C6,往下就是fail了。當然,o level的時候會有moderation,不會這么嚴格的卡分數線,不過差不多就是這個樣子。字母旁邊的數字就是用來算分的。language只能選english或者HIGHER chinese,而chinese不能算。剩下的5門,要選至少一個數學、至少一個science,加至少一個Humanity,總共加起來一共是6門課。算出來的L1R5越少越好,所以,最好成績就是6分咯,6門課都是A1。

問題3。語言方面,如上所說,只能選英文和高級華文。華文不能選。而且,如果你選了高級華文作為L1,英文還可以算進R5,但是華文不可以。說來說去,就是你L1R5的6門課里,華文和高級華文是不能同時出現的。不過英文和華文或者高級華文可以同時出現。

cca方面,與其說是加分,不如說是減分。不知道你們現在政策有沒有什麼變化。我考的2004年,cca如果拿到A,可以減2分,B減1分。如果有學Higher chinese,而且B3以上,也可以減2分。當年還有如果有200個小時CIP也可以減2分。其他項目,例如華初的LEP之類的也可以減分。但是你總共的減分最多不超過4分。也就是說,完美成績是2分,6分的L1R5,減掉4分的Bonus。

大體上,L1R4就是比L1R5少一門,但是具體的演算法還是有些不同的。

『伍』 新加坡olevel成績怎麼算

去初級學院的話要用L1R5(一門語言課 高級華文或英語、五門主課,其中要有一門是理科學課、一門是人文學課、其他就選最好的)。每個科目都是按等級算的,最好的是A1,然後是A2、B3、B4、C5、C6等。低過C6就算不及格。除了學科成績外還可以用CCA points、做義工時長等減少總分。總分越少越好。L1R5成績要20分以上才能去初級學院,低過二十分的話就要用L1R4去理工學院。演算法是差不多的,少算一個科目而已。

『陸』 我要一個外文文獻

最小二乘支持向量機的改進及其在化學化工中的應用
作者:陶少輝
專業:化學工程與技術
導師:陳德釗 胡望明
學位:博士
單位:浙江大學
分類:TQ02
主題:最小二乘 支持向量機 建模 化工過程
時間:2006年09月01日
頁數:1-116
瀏覽:在線閱讀 全文下載
內容摘要
最小二乘支持向量機 (least squares support veotor maohine,LSSVM)是一種遵循結構風險最小化 (structural risk minimization,SRM) 原則的核函數學習機器,近年來化學、化工領域的應用日益廣泛.本文以LSSVM在實際應用中的若干問題為主線,針對其應用中存在的高維數據降維、超參數選擇和稀疏性等問題,提出了若干新演算法,並應用於化學物質結構與性質問關系、化工生產過程等實際問題建模,效果顯著.全文的主要內容可以歸結為以下六個部分,其中包括了研究工作所取得的主要成果. 1、系統回顧了統計學習理論和支持向量機的發展歷史、研究現狀與應用領域;介紹了支持向量機原理,及其應用中存在的一些問題. 2、針對支持向量機解決非線性分類問題時,必須先將樣本向量由原空間映射至高維重建核 Hilbert 空間的特點,利用核函數技術將線性的分類相關分析演算法拓展至高維的重建核 Hilbert 空間,此即非線性分類相關分析 (nonlinearolassification oorrelative analysis,NLCCA) 演算法.最後,將 NLCCA 與線性支持向量分類器 (linear support vector olassifier,LSVC) 集成得到NLCCA-LSVC,並應用於兩個典型的復雜化學模式識別問題. 3、對於小樣本的LSSVM函數回歸問題,在快速留一法的基礎上,以全樣本的留一預測誤差平方和sse為目標,導出了sse對超參數的梯度,並據此以最速下降法優選超參數,構建G-LSSVM模型.最後將之用於一個小樣本、非線性檸檬酸發酵過程建模問題. 4、由於神經網路、LSSVM等經驗模型的精度完全依靠測量數據,導致經驗模型不能將實際過程的先驗知識融合在內,所以模型的預報有時會與過程機理相矛盾.針對二元恆溫(恆壓)汽液平衡體系的汽相組成計算問題,為解決這一問題,在胡英等人工作基礎上,將Gibbs-Duhem方程與多層前傳神經網路和LSSVM結合,建立了融入先驗知識的汽相組成計算混合模型,使得計算結果受Gibbs-Duhem 方程約束.最後混合模型被應用於2個實際二元汽液平衡體系的計算. 5、由於計算經驗風險的損失函數為二次函數形式,LSSVM喪失了標准支持向量機的稀疏性,導致其訓練完畢之後,用於分類時效率降低;為使LSSVM具有稀疏性,本文從統計分析的角度出發,選取訓練樣本中分類作用最大的若干樣本個體作為支持向量,並將非支持向量上的分類信息轉移至支持向量上,提出了新的LSSVM稀疏化演算法,最後將兩種新的LSSVM稀疏化應用於若干實際分類問題.另外,本文提出的稀疏化演算法可直接應用於多類問題. 6、本文利用核函數矩陣的奇異值分解,得到了可以節省超參數選取時間的分類器:SVD-LSSVM.SVD-LSSVM用奇異值貢獻率來平衡經驗風險與LSSVM的模型復雜度,從新的途徑實現了SRM原則. 論文還分析了研究工作的不足,並展望了今後的發展.
全文目錄
文摘
英文文摘
第一章緒論
1.1引言
1.2常用經驗建模方法
1.3經驗建模的若干問題
1.4本文研究內容及組織
第二章最小二乘支持向量機
2.1研究背景
2.1.1統計學習理論簡介
2.1.2支持向量機原理
2.1.3 SVM在實際應用中的若干問題
2.2 LSSVM原理
2.2.1兩類LSSVM分類器
2.2.2多類LSSVM分類器
2.2.3用於函數回歸的LSSVM
2.3 LSSVM在實際應用中的若干問題
2.3.1海量樣本的LSSVM訓練演算法
2.3.2 LSSVM超參數選擇
2.3.3稀疏LSSVM
2.3.4加權LSSVM
2.3.5對LSSVM的其它改進
2.4 LSSVM的應用
2.5本章小結
第三章基於核函數的非線性分類相關分析
3.1維數災難和降維策略發展概況
3.2分類相關分析演算法
3.3基於核函數的非線性CCA演算法
3.3.1 CCA演算法步驟的改寫
3.3.2基於核函數的非線性CCA
3.3.3 NLCCA與線性支持向量分類器的集成
3.4對於2個復雜化學模式分類問題的應用
3.4.1樣本數據說明
3.4.2分類器的建立
3.4.3分類器的性能分析
3.5本章小結
第四章LSSVM超參數選取的梯度法
4.1化工過程建模的意義
4.2梯度下降法選取LSSVM超參數
4.2.1演算法原理和步驟
4.2.2演算法測試
4.3 G-LSSVM模型在檸檬酸發酵過程建模中的應用
4.3.1檸檬酸發酵過程簡介
4.3.2檸檬酸發酵過程的G-LSSVM建模
4.4本章小結
第五章二元汽液平衡計算的混合模型
5.1先驗知識
5.1.1先驗知識的定義
5.1.2先驗知識與機理模型和經驗模型之間的關系
5.2學習機器與先驗知識混合的模型
5.2.1 ANN與先驗知識的混合
5.2.2 SVM與先驗知識的混合
5.3汽液平衡計算
5.3.1汽液平衡計算的常用方法
5.3.2汽液平衡計算的無模型法
5.4 Gibbs-Duhem方程與學習機器混合建模
5.5對於兩個二元汽液平衡體系的應用
5.6本章小結
第六章基於統計分析的LSSVM稀疏化
6.1基於統計分析的LSSVM稀疏化演算法基本思想
6.1.1樣本個體的分類重要性
6.1.2非支持向量的信息轉移
6.2兩種稀疏化演算法
6.3演算法的測試與分析
6.4稀疏化演算法的實際應用
6.5本章小結
第七章基於核函數矩陣SVD分解實現SRM原則
7.1非線性模式分類與RKHS線性回歸
7.2簡化LSSVM
7.3 SVD求解線性回歸問題
7.4 SVD-LSSVM演算法及其分析
7.4.1演算法步驟
7.4.2對SVD-LSSVM交叉驗證的分析
7.4.3 SVCR值對SVD-LSSVM分類性能的影響
7.5演算法應用
7.6本章小結
第八章總結與展望
8.1全文工作總結
8.2存在的不足
8.3工作展望
參考文獻
致謝
作者攻讀博士學位期間撰寫的論文和參與的項目

『柒』 校驗參數的加密方式及演算法

您好:
1、常用密鑰演算法 :
密鑰演算法用來對敏感數據、摘要、簽名等信息進行加密,常用的密鑰演算法包括:
DES(Data Encryption Standard):數據加密標准,速度較快,適用於加密大量數據的場合; 3DES(Triple DES):是基於DES,對一塊數據用三個不同的密鑰進行三次加密,強度更高;
RC2和 RC4:用變長密鑰對大量數據進行加密,比 DES 快;
IDEA(International Data Encryption Algorithm)國際數據加密演算法,使用 128 位密鑰提供非常強的安全性;
RSA:由 RSA 公司發明,是一個支持變長密鑰的公共密鑰演算法,需要加密的文件快的長度也是可變的;
DSA(Digital Signature Algorithm):數字簽名演算法,是一種標準的 DSS(數字簽名標准);
AES(Advanced Encryption Standard):高級加密標准,是下一代的加密演算法標准,速度快,安全級別高,目前 AES 標準的一個實現是 Rijndael 演算法;
BLOWFISH,它使用變長的密鑰,長度可達448位,運行速度很快;
其它演算法,如ElGamal、Deffie-Hellman、新型橢圓曲線演算法ECC等。
2、單向散列演算法 :
單向散列函數一般用於產生消息摘要,密鑰加密等,常見的有:
MD5(Message Digest Algorithm 5):是RSA數據安全公司開發的一種單向散列演算法,MD5被廣泛使用,可以用來把不同長度的數據塊進行暗碼運算成一個128位的數值;
SHA(Secure Hash Algorithm)這是一種較新的散列演算法,可以對任意長度的數據運算生成一個160位的數值;
MAC(Message Authentication Code):消息認證代碼,是一種使用密鑰的單向函數,可以用它們在系統上或用戶之間認證文件或消息。HMAC(用於消息認證的密鑰散列法)就是這種函數的一個例子。
CRC(Cyclic Rendancy Check):循環冗餘校驗碼,CRC校驗由於實現簡單,檢錯能力強,被廣泛使用在各種數據校驗應用中。佔用系統資源少,用軟硬體均能實現,是進行數據傳輸差錯檢測地一種很好的手段(CRC 並不是嚴格意義上的散列演算法,但它的作用與散列演算法大致相同,所以歸於此類)。
3、其它數據演算法 :
其它數據演算法包括一些常用編碼演算法及其與明文(ASCII、Unicode 等)轉換等,如 Base 64、Quoted Printable、EBCDIC 等。

『捌』 蓄電池CCA怎麼計算

汽車(啟動用)鉛酸蓄電池的cca指「冷啟動電流」,cca容量就是說當氣溫是華氏零度的時候(攝氏換算=5/9(華氏-32)),電池的容量,是電池對於低溫啟動性能地表現。

『玖』 密碼學中ANON-IND-ID-CCA安全是什麼意思

首先這是指基於ID演算法的數字簽名的,基於身份匿名不可區分選擇密文攻擊。

『拾』 學術不端行為檢測系統的檢測原理及方法

TMLC需要一個盡可能完備的全文數據比對資源庫,而CNKI的《中國學術文獻網路出版總庫》則正好滿足這一要求。到目前為止,CNKI擁有學術期刊7000餘種,期刊全文文獻2480萬篇,期刊期數和文獻收錄完整率都大於99.9%,文獻量居國際國內同類產品之首;出版503家碩士學位點的72萬篇優秀碩士學位論文,368家博士學位點的9.6萬篇博士學位論文;1286家重要會議論文106萬篇;515家重要報紙500多萬篇;1376種重要年鑒787萬篇;600多種工具書220多萬條;學術引文索引數據600多萬條;這些出版物做到平均日更新20000條記錄;國家標准、專利、SPRINGER資料庫也集成到CNKI網路出版平台中;另外,出版平台還集成整合出版了各類第三方資料庫資源1020種。
在收錄資源種類上,CNKI在國內具有明顯優勢,收錄了期刊、學位論文、會議論文、報紙、年鑒、工具書、專利、外文文獻、學術文獻引文等與科學研究、學習相關的主要資源。在資源收錄數量上,CNKI明顯優於同類產品,各個資源庫收錄年限長,期刊等主要資源庫回溯到創刊。在資源更新速度上,CNKI產品除了第三方合作的外文文獻以外,其他資源都做到了日更新,單日更新數量大,這是推行產業化、標准化運作的結果。 學術不端行為檢測系統採用的指標體系分為兩個部分:
3.1 總檢測指標
學位論文一般文獻篇幅較大,字數多,碩士論文一般為3~5萬字,博士論文則多達十多萬字。因此,為了讓用戶對整個學位論文有一個快速的概況了解,特製定了以下指標體系:
l 總重合字數(CCA)
l 總文字復制比(TTR)
l 總文字數(TCA)
l 疑似章節數(QCA)
l 總章節數(TCA)
l 首部重合文字數(HCCA)
l 尾部重合文字數(ECCA)
上述指標從整體情況描述了論文的檢測情況,便於用戶快速了解該論文總的檢測概況。下面對上述指標分別進行說明。
3.1.1總重合字數(CCA)
學位論文一般篇幅大,少則3~5萬字,多則十多萬字,若以文字復制比來衡量一篇論文的文字重合情況,則不太合適。因為對於一篇十幾萬字的博士論文來說,10%就已達到1萬字,文字復制情況已經非常嚴重。因此,對於博碩士論文檢測,檢測系統使用絕對字數即總重合字數作為檢測結果的核心指標。如圖6所示:
3.1.2總文字復制比(TTR)
總文字復制比則是指學位論文中總的重合字數在總的論文字數中所佔的比例。通過該指標,我們可以直觀了解到重合字數在該檢測學位論文中所佔的比例情況。
3.1.3總文字數(TCA)
總文字數是指該檢測論文所有包含的字數,文字復制比與總文字數的乘積即為重合字數。
3.1.4疑似章節數(QCA)、總章節數(TCA)
疑似章節數是則檢測論文疑似存在學術不端行為的章節的數量。總章節數則是指學位論文總的章節數(對於不按章節顯示,而是按照固定長度切分的論文,每一段落為一章節)。
3.1.5首部重合文字數(HCCA)、尾部重合文字數(ECCA)
首部重合文字數指學位論文前1萬字中重合的文字數量。尾部重合文字數是指除去前1萬字,剩下的部分中重合的文字數量。對於學位論文,一般開頭部分均是綜述性的報告介紹,其重要性遠低於論文尾部。
3.2 子檢測指標
對於學位論文的每一章節,又制定了如下檢測指標來反映該章節的檢測情況,對於一篇學位論文來說,每一章的內容各異,重點也不一樣,其核心工作內容一般主要存在某幾章中,子檢測指標可以讓用戶迅速了解每一章節的檢測情況。子檢測指標包括:
l 文字復制比(TR)
l 重合字數(CNW)
l 最大段長(LPL)
l 平均段長(APL)
l 段落數(PN)
l 段文字比(PR)
l 首部復制比(HR)
l 尾部復制比(ER)
l 引用復制比(RR)*
上述指標從多個角度反映了檢測文獻的檢測情況,便於用戶進行針對性審核。下面對各項指標分別進行說明。
3.2.1 文字復制比(TR)
因為學位論文一般文字量較多,為了便於用戶快速瀏覽檢測結果。系統會自動對學位論文進行切分處理。有如下兩種處理方式:
1.若用戶提交的論文是MS Word格式,且按照MS Word格式生成了文檔目錄,檢測系統會自動識別論文章節,按論文實際章節信息顯示論文內容。
2.若學位論文不存在明顯的章節信息,或者不是MS Word格式論文,則系統會自動按照每段1萬余字元切分學位論文,按照切分後的結果顯示。
文字復制比即指論文切分後每一章節段落的文字復制情況。文字復制比即指學位論文的某一章節與比對文獻比較後,重合文字部分在該章節中所佔的比例。比例越高,反映該章節越多的文字來自於其他已發表文獻。文字復制比反映了文章「抄襲」的文字數量比例,一般來說,文字復制比越高,存在學術不端行為的可能性越大。文字復制比情況如圖7所示。
3.2.2 重合字數(CNW)
重合字數指學位論文該章節與比對文獻比較後,重合部分的字數。一般來說,不管文字復制比如何,重合字數越多,存在學術不端行為的可能性越大。如圖8所示,在圖中,雖然文字復制比只有16%,比例不高,但圖中左文標紅部分實際上是抄襲了右文的標紅部分。
3.2.3 最大段長(LPL)、平均段長(APL)、段落數(PN)
在學位論文檢測中,當連續文字超過一定比例時,稱之為段。在本系統中,一般認為,連續200以上文字稱為段。
與比對文獻重合的最大段長度即為最大段長。最大段長反映成段抄襲特徵。連續的文字越長,抄襲的可能性越大。
在學位論文中,所有段的長度的平均值即為平均段長。
在學位論文中,所有段的數量為段落數。
平均段長和段落數反映了重合文字在學位論文中的分布情況,一般來說,指標參數越高,存在學術不端行為的可能性越大。如圖9所示,標紅部分的連續文字構成了段,而且它是演算法設計的抄襲,審查人員比較容易判斷;而在圖10中,標紅文字不構成段,連續文字較少,對它的性質判斷則可能需要更多的信息。
3.2.4 段文字比(PR)
在學位論文的某一章節中,所有該章節文字重合段的字數之和占該章節文字數的比例為段文字比。段文字比反映了抄襲連續特徵。一般來說,連續文字出現的越多,比文字分散出現的情況更可能存在學術不端行為。
3.2.5 首部復制比(HR)
學位論文某一章節的前20%稱之為章節首部,首部的文字復制比為首部復制比。就中文文獻來說,一般每一章節正文開頭部分出現的是綜述性語言,重要性相對偏低。如圖11所示,左文和右文開頭大段相同,但文字內容基本都是綜述性的介紹。
3.2.6 尾部復制比(ER)
每一章節的後80%稱之為章節尾部,尾部的文字復制比為尾部復制比。
通常情況下,尾部文字內容就重要性來說,比前部文字內容要高。如圖12所示,我們仔細查閱比較圖11和圖12的內容發現,圖11中首部文獻是綜述他人工作,而圖12中尾部文獻則是闡述自己的研究工作的目的和意義,應該是作者個人工作的體現,在這部分直接抄襲他文,性質要嚴重得多。
3.2.7 引用復制比(RR)
引用復制比指與存在引證關系的文獻的文字重合部分的比例。對於學位論文來說,存在引證關系與不存在引證關系的復制部分應區別對待。復制了他文內容,而不註明引用,性質要更加嚴重。同時我們也認為,不是所有的註明了引用的,就不存在抄襲,引用也應有一個度和范圍的限制。

熱點內容
抗生素資料庫 發布:2024-04-19 22:13:03 瀏覽:495
晚晚教編程 發布:2024-04-19 21:56:23 瀏覽:712
安卓換蘋果語音留言怎麼看 發布:2024-04-19 21:56:21 瀏覽:627
解壓神經 發布:2024-04-19 21:47:03 瀏覽:894
c語言字元轉義字元 發布:2024-04-19 21:43:51 瀏覽:727
mysql存儲過程語法 發布:2024-04-19 21:00:04 瀏覽:245
修復損壞的壓縮文件 發布:2024-04-19 20:53:32 瀏覽:423
編程發型 發布:2024-04-19 20:53:28 瀏覽:500
去除空格sql 發布:2024-04-19 20:43:30 瀏覽:785
linuxcp覆蓋 發布:2024-04-19 20:43:30 瀏覽:189