當前位置:首頁 » 操作系統 » tval3演算法

tval3演算法

發布時間: 2023-04-18 17:15:55

㈠ al演算法是什麼意思

是指人工智慧演算法。

Al是Artificial Intelligence,中文是人工智慧。

人工智慧是一門極富挑戰性的科學,從事這項工作的人必須懂得計算機知識,心理學和哲學。人工智慧是包括十分廣泛的科學,它由不同的領域組成,如機器學習,計算機視覺等等,總的說來,人工智慧研究的一個主要目標是使機器能夠勝任一些通常需要人類智能才能完成的復雜工作。但不同的時代、不同的人對這種「復雜工作」的理解是不同的。

人工智慧的發展:

當計算機出現後,人類開始真正有了一個可以模擬人類思維的工具,在以後的歲月中,無數科學家為這個目標努力著。

如今人工智慧已經不再是幾個科學家的專利了,全世界幾乎所有大學的計算機系都有人在研究這門學科,學習計算機的大學生也必須學習這樣一門課程,在大家不懈的努力下,如今計算機似乎已經變得十分聰明了。

人們或許不會注意到,在一些地方計算機幫助人進行其它原來只屬於人類的工作,計算機以它的高速和准確為人類發揮著它的作用。人工智慧始終是計算機科學的前沿學科,計算機編程語言和其它計算機軟體都因為有了人工智慧的進展而得以存在。

㈡ 變壓器參數中tv中性點還是第三繞組

變壓器參數中的TV代表的是腔敬櫻變壓器的中性點,即變壓器稿拿的零序輸出端伍叢,它位於變壓器的第三繞組,也即聯接著地線的部分。

㈢ 演算法的描述、特性以及概念

描述演算法的方法有多種,常用的有自然語言、結構化流程圖、偽代碼和PAD圖等,其中最普遍的是流程圖。

分類:演算法可大致分為基本演算法、數據結構的演算法、數論與代數演算法、計算幾何的演算法、圖論的演算法、動態規劃以及數值分析、加密演算法、排序演算法、檢索演算法、隨機化演算法、並行演算法,厄米變形模型,隨機森林演算法。

特徵:有窮性,演算法的有窮性是指演算法必須能在執行有限個步驟之後終止;確切性,演算法的每一步驟必須有確切的定義;輸入項:一個演算法有0個或多個輸入,;輸出項;可行性,演算法中執行的任何計算步驟都是可以被分解為基本的可執行的操作步,即每個計算步都可以在有限時間內完成。

(3)tval3演算法擴展閱讀

演算法歷史:

「演算法」即演演算法的大陸中文名稱出自《周髀算經》;而英文名稱Algorithm 來自於9世紀波斯數學家al-Khwarizmi,al-Khwarizmi在數學上提出了演算法這個概念。「演算法」,意思是阿拉伯數字的運演算法則,在18世紀演變為"algorithm"。

因為巴貝奇未能完成他的巴貝奇分析機,這個演算法未能在巴貝奇分析機上執行。 20世紀的英國數學家圖靈提出了著名的圖靈論題,並提出一種假想的計算機的抽象模型,這個模型被稱為圖靈機。圖靈機的出現解決了演算法定義的難題,圖靈的思想對演算法的發展起到了重要作用。

㈣ p/tV公式怎麼計算

演算法如下:
相信各位都碰到過這樣的問題,GRR計算出的%P/T與%P/Tv不一樣,嚴重的甚至會出現結論不一致的情況。
比如%P/T說測量系統合格,但%P/Tv說不合格,有時也會有相反的情況,原來%P/T與%P/Tv不一樣是過程本身就註定的。
只有在Pp=1時兩者才相同,但對於過程來說這是個能力指數是不足夠的。
當要求過程能力必須大於1、33時,GRR的這兩個指數就肯定不一樣了。首先%P/T>30%是肯定不能接受的。這是個絕對運春指標,如果不好只能旁腔耐說明測量系統波動過大,需要圓寬立即改進。
在%P/T滿足要求的條件下,要看%P/Tv的情況。
%P/Tv是一個相對指標,如果過程波動大(過程能力差),那麼測量系統波動大一些也是可以保持較好的分辨力的(ndc較大)。
但當過程能力提高時,這個測量系統就不能用了,需要改進或者升級。

㈤ appletv3如何降級

appletv3降級方法:
1、先將AppleTV與謹棗電視連接,打開蘋果TV菜單,然後選擇設置,接著點擊系統。
2、在裡面找到「軟體更新」,此時會有一個下拉菜單,裡面會顯示應當升級或降級的軟體版本。選擇想要的版本。
3、最後點擊安裝穗晌猛,稍等片刻,降級就完成了。猜橋

㈥ 數據結構kmp演算法中的next函數

我只曉得next
我想你還是不太了解KMP(其實我也不算很懂,盡量說吧O(∩_∩)O~交流下)
那個next其實是T串(字串)自己和自己匹配所得到的。
方法和S T匹配塵兄時一樣,主不過以前是遇到不匹配時回到NEXT【j】,這個函數中則是遇到不匹搜兄嫌配記錄下不匹配的位置(說明前面得j個是後面串的後綴)。
至於您說的那個
tvalnext
我不清楚,你能發過來么?一起學習世手下。O(∩_∩)O~

㈦ 高一化學常用計算方法,比如說十字交叉法,差量法等等,都幫我詳細講解一下

一、差量法
在一定量溶劑的飽和溶液中,由於溫度改變(升高或降低),使溶質的溶解度發生變化,從而造成溶質(或飽和溶液)質量的差量;每個物質均有固定的化學組成,任意兩個物質的物理量之間均存在差量;同樣,在一個封閉體系中進行的化學反應,盡管反應前後質量守恆,但物質的量、固液氣各態物質質量、氣體體積等會發生變化,形成差量。差量法就是根據這些差量值,列出比例式來求解的一種化學計算方法。該方法運用的數學知識為等比定律及其衍生式:或。差量法是簡化化學計算的一種主要手段,在中學階段運用相當普遍。常見的類型有:溶解度差、組成差、質量差、體積差、物質的量差等。在運用時要注意物質的狀態相相同,差量物質的物理量單位要一致。
1.將碳酸鈉和碳酸氫鈉的混合物21.0g,加熱至質量不再變化時,稱得固體質量為14.8g。求混合物中碳酸鈉的質量分數。

2.實驗室用冷卻結晶法提純KNO3,先在100℃時將KNO3配成飽和溶液,再冷卻到30℃,析出KNO3。現欲制備500g較純的KNO3,問在100℃時應將多少克KNO3溶解於多少克水中。(KNO3的溶解度100℃時為246g,30℃時為46g)

3.某金屬元素R的氧化物相對分子質量為m,相同價態氯化物的相對分子質量為n,則金屬元素R的化合價為多少?

4.將鎂、鋁、鐵分別投入質量相等、足量的稀硫酸中,反應結束後所得各溶液的質量相等,則投入的鎂、鋁、鐵三種金屬的質量大小關系為( )
(A)Al>Mg>Fe (B)Fe>Mg>Al (C)Mg>Al>Fe (D)Mg=Fe=Al

二、十字交叉法
凡能列出一個二元一次方程組來求解的命題,即二組分的平均值,均可用十字交叉法,此法把乘除運算轉化為加減運算,給計算帶來很大的方便。
十字交叉法的表達式推導如下:設A、B表示十字交叉的兩個分量,表示兩個分量合成的平均量,xA、xB分別表示A和B佔平均量的百分數,且xA+xB=1,則有:
A•xA+B•xB= (xA+xB) 化簡得:
若把 放在十字交叉的中心,用A、B與其交叉相減,用二者差的絕對值相比即可得到上式。

十字交叉法應用非常廣,但不是萬能的,其適用范圍如表4—2:

含 化學
義 量
類型 A、B
xA、xB

1 溶液中溶質
質量分數 混合溶液中溶質質量質量分數 質量分數

2 物質中某元素
質量分數 混合物中某
元素質量分數 質量分數
3 同位素相對
原子質量 元素相對
原子質量 同位素原子
百分組成
4 某物質相對
分子質量 混合物平均相對分子質量 物質的量分數
或體積分數
5 某物質分子
組成 混合物的平均
分子組成 物質的量分數
6 用於某些綜合計算:如十字交叉法確定某些鹽的組成、有機物的組成等
正確使用十字交叉法解題的關鍵在於:(1)正確選擇兩個分量和平均量;(2)明確所得比為誰與誰之比;(3)兩種物質以什麼為單位在比。尤其要注意在知道質量平均值求體積或物質的量的比時,用此法並不簡單。
1. 現有50g 5%的CuSO4溶液,把其濃度增大一倍,可採用的方法有:(1)可將原溶液蒸發掉 g水;(2)可向原溶液中加入12.5% CuSO4溶液 g;(3)可向原溶液中加入膽礬 g;(4)可向原溶液中加入CuSO4白色粉末 g。

2 . 今有NH4NO3和CO(NH2)2混合化肥,現測得含氮質量分數為40%,則混合物中NH4NO3和CO(NH2)2的物質的量之比為( )
(A)4∶3 (B)1∶1 (C)3∶4 (D)2∶3
三、平均法
對於含有平均含義的定量或半定量習題,利用平均原理這一技巧性方法,可省去復雜的計算,迅速地作出判斷,巧妙地得出答案,對提高解題能力大有益處。平均法實際上是對十字交叉所含原理的進一步運用。解題時,常與十字交叉結合使用,達到速解之目的。原理如下:
若A>B,且符合 ,則必有A> >B,其中是A、B的相應平均值或式。xA•xB分別是A、B的份數。
常見的類型有:元素質量分數、相對原子質量、摩爾電子質量、雙鍵數、化學組成等平均法。有時運用平均法也可討論范圍問題。
1. 某硝酸銨樣品中氮的質量分數25%,則該樣品中混有的一組雜質一定不是( )
(A)CO(NH2)2和NH4HCO3 (B)NH4Cl和NH4HCO3
(C)NH4Cl和(NH4)2SO4 (D)(NH4)2SO4和NH4HCO3
2. 把含有某一種氯化物雜質的氯化鎂粉末95mg溶於水後,與足量的硝酸銀溶液反應,生成氯化銀沉澱300mg,則該氯化鎂中的雜質可能是( )
(A)氯化鈉 (B)氯化鋁 (C)氯化鉀 (D)氯化鈣
3. 某含雜質的CaCO3樣品只可能含有下列括弧中四種雜質中的兩種。取10g該樣品和足量鹽酸反應,產生了2.24L標准狀況下的CO2氣體。則該樣品中一定含有 雜質,可能含有 雜質。(雜質:KHCO3、MgCO3、K2CO3、SiO2)

4 .(1)碳酸氫銨在170℃時完全分解,生成的混和氣體平均相對分子質量是 。
(2)某爆鳴氣中H2和O2的質量分數分別為75%和25%,則該爆鳴氣對氫氣的相對密度是 。
(3)體積為1 L的乾燥容器充入HCl氣體後,測得容器中氣體對氧氣相對密度為1.082,用此氣體進行噴泉實驗,當噴泉停止後,進入容器中液體的體積是 。

附:平均摩爾質量( )的求法:
① m總—混和物叫質量 n總—混和物總物質的量
② =M1•n1%+M2•n2%+… M1、M2……各組分的摩爾質量,n1%、n2%……各組分的物質的量分數。(註: 如是元素的摩爾質量,則M1、M2……是各同位素的摩爾質量,n1%、n2%……是各同位素的原子分數(豐度)。)
③ 如是氣體混合物的摩爾質量,則有 =M1•V1%+M2•V2%+…(註:V1%、V2%……氣體體積分數。)
④ 如是氣體混合物的摩爾質量,則有 =d•MA (註:MA為參照氣體的摩爾質量,d為相對密度)
四、 守恆法
在化學反應中存在一系列守恆現象,如:質量守恆(含原子守恆、元素守恆)、電荷守恆、電子得失守恆、能量守恆等,利用這些守恆關系解題的方法叫做守恆法。電荷守恆即對任一電中性的體系,如化合物、混和物、溶液、膠體等,電荷的代數和為零,即正電荷總數和負電荷總數相等。電子得失守恆是指在發生氧化-還原反應時,氧化劑得到的電子數一定等於還原劑失去的電子數,無論是自發進行的氧化-還原反應還是以後將要學習的原電池或電解池均如此。
a. 質量守恆
1 . 有0.4g鐵的氧化物, 用足量的CO 在高溫下將其還原,把生成的全部CO2通入到足量的澄清的石灰水中得到0.75g固體沉澱物,這種鐵的氧化物的化學式為( )
A. FeO B. Fe2O3 C. Fe3O4 D. Fe4O5
2. 將幾種鐵的氧化物的混合物加入100mL、7mol•L―1的鹽酸中。氧化物恰好完全溶解,在所得的溶液中通入0.56L(標況)氯氣時,恰好使溶液中的Fe2+完全轉化為Fe3+,則該混合物中鐵元素的質量分數為 ( )
A. 72.4% B. 71.4% C. 79.0% D. 63.6%
b. 電荷守恆法
3. 將8g Fe2O3投入150mL某濃度的稀硫酸中,再投入7g鐵粉收集到1.68L H2(標准狀況),同時,Fe和Fe2O3均無剩餘,為了中和過量的硫酸,且使溶液中鐵元素完全沉澱,共消耗4mol/L的NaOH溶液150mL。則原硫酸的物質的量濃度為( )
A. 1.5mol/L B. 0.5mol/L C. 2mol/L D. 1.2mol/L

4. 鎂帶在空氣中燃燒生成氧化鎂和氮化鎂,將燃燒後的產物全部溶解在50mL 1.8 mol•L-1鹽酸溶液中,以20mL 0.9 mol•L-1的氫氧化鈉溶液中和多餘的酸,然後在此溶液中加入過量鹼把氨全部釋放出來,用足量鹽酸吸收,經測定氨為0.006 mol,求鎂帶的質量。

c. 得失電子守恆法
5 . 某稀硝酸溶液中,加入5.6g鐵粉充分反應後,鐵粉全部溶解,生成NO,溶液質量增加3.2g,所得溶液中Fe2+和Fe3+物質的量之比為( )
A. 4∶1 B. 2∶1 C. 1∶1 D. 3∶2

6. (1)0.5mol銅片與足量的濃HNO3反應,收集到的氣體經乾燥後(不考慮損耗),測知其密度在標准狀況下為2.5 g•L-1,其體積為 L。
(2)0.5mol銅片與一定量的濃HNO3反應,收集到的氣體經乾燥後(不考慮損耗)在標准狀況下的體積為17.92L,則參加反應的硝酸物質的量為 ;若將這些氣體完全被水吸收,則應補充標准狀況下的氧氣體積為 L。(不考慮2NO2 N2O4反應)

7. 已知:2 Fe2++Br2 = 2 Fe3++2Br-,若向100mLFeBr2溶液中緩緩通入2.24L標准狀況下的氯氣,結果有三分之一的Br-離子被氧化成Br¬2單質,試求原FeBr2溶液的物質的量濃度。

五、極值法
「極值法」即 「極端假設法」,是用數學方法解決化學問題的常用方法,一般解答有關混合物計算時採用。可分別假設原混合物是某一純凈物,進行計算,確定最大值、最小值,再進行分析、討論、得出結論。
1. 常溫下,向20L真空容器中通a mol H2S和b mol SO2(a、b都是正整數,且a≤5,b≤5),反應完全後,容器內可能達到的最大密度約是( )
(A)25.5 g•L-1 (B)14.4 g•L-1 (C)8 g•L-1 (D)5.1 g•L-1

2. 在標准狀況下,將盛滿NO、NO2、O2混合氣的集氣瓶,倒置於水槽中,完全溶解,無氣體剩餘,其產物不擴散,則所得溶液的物質的量濃度(C)數值大小范圍為( )
(A) (B)
(C) (D)
3. 當用m mol Cu與一定量的濃HNO3反應,在標准狀況下可生成nL的氣體,則m與n的數值最可能的關系是( )
(A) (B) (C) (D)無法判斷
4. 將一定質量的Mg、Zn、Al混合物與足量稀H2SO4反應,生成H2 2.8 L(標准狀況),原混合物的質量可能是( )
A. 2g B. 4g C. 8g D. 10g

計算方法》詳細答案:
一、1. 解析 混合物質量減輕是由於碳酸氫鈉分解所致,固體質量差21.0g-14.8g=6.2g,也就是生成的CO2和H2O的質量,混合物中m(NaHCO3)=168×6.2g÷62=16.8g,m(Na2CO3)=21.0g-16.8g=4.2g,所以混合物中碳酸鈉的質量分數為20%。
2.分析 本例是涉及溶解度的一道計算題。解答本題應具備理解透徹的概念、找准實際的差量、完成簡單的計算等三方面的能力。題中告知,在100℃和30℃時,100g水中分別最多溶解KNO3246g和46g,由於冷卻時溶劑的質量未變,所以溫度從100℃下降到30℃時,應析出晶體246g-46g=200g(溶解度之差)。由題意又知,在溫度下降過程中溶質的析出量,據此可得到比例式,求解出溶劑水的質量。再根據水的質量從而求出配製成100℃飽和溶液時溶質KNO3的質量。
解 設所用水的質量為x,根據題意,可列下式:
解得:x=250g
又設100℃時飽和溶液用KNO3的質量為y,根據溶質與溶劑的對應關系,列式如下:
解得:y=615g
答 將615KNO3溶解於250g水中。
3. 解 若金屬元素R的化合價為偶數x,則其相同價態的氧化物、氯化物的化學式分別為、RClx。根據關系式 ~RClx,相對分子質量差值為 ,所以n-m=27.5x,。若金屬元素R的化合價為奇數x,則其相同價態的氧化物、氯化物的化學式分別為R2Ox、RClx。由關系式R2Ox~2RClx可知,相對分子質量的差值為2×35.5x-16x=55x,所以2n-m=55x,x= 。
答 金屬元素R的化合價為 或 。
二、1.分析 本例是將稀溶液濃縮的一道填空題。若按通常方法,根據溶質守恆,列方程進行求解,則解題繁。若運用十字交叉法,運算簡潔,思路流暢。但應處理好蒸發掉水,或加入CuSO4粉末時CuSO4的質量分數,前者可視為0,後者視為100%。
解 (1) (負號代表蒸發) 說明水蒸發掉的質量為原溶液質量的,即25g。
(2) 說明加入12.5% CuSO4溶液的質量為原溶液質量的2倍,即100g。
(3)膽礬中CuSO4的質量分數為
說明加入膽礬的質量為原溶液質量的 ,即 。
(4) 說明加入CuSO4的質量為原溶液質量的,即 。
答 25 100 4.63 2.78
2. 解 方法1:NH4NO3中N%= =35%,CO(NH2)2中N%= =46.7%
說明NH4NO3與CO(NH2)2的物質的量之比為。
方法2:設混合物中NH4NO3的物質的量為1 mol,CO(NH2)2的物質的量為x。
根據題意,列式如下:

解得:x=1 mol
方法3:由於NH4NO3和CO(NH2)2分子中均含有2個N原子,根據混合物中N%=40%,可知該混合物的平均相對分子質量為。
說明NH4NO3與CO(NH2)2的物質的量之比為1∶1。
答 本題正確選項為(B)。
三、1. 解 NH4NO3中氮的質量分數是,而CO(NH2)2、NH4Cl、NH4HCO3和(NH4)2SO4中氮的質量分數分別是46.7%、26.2%、17.7%和21.1%,其中只有(NH4)2SO4和NH4HCO3一組氮的質量分數都小於25%。
因此,該樣品中混有的一組雜質一定不是(NH4)2SO4和NH4HCO3。
答 本題正確選項為(D)。
2. 解 若95mg全是MgCl2,則其反應後產生AgCl的質量為 g•mol-1
=287mg<300mg。
根據平均含義可推知:95mg雜質與足量AgNO3溶液反應生成AgCl的質量應大於300mg。這就要求雜質中Cl元素的質量分數比MgCl2中高才有可能。因此本題轉換成比較Cl元素含量的高低。現將每種的化學式作如下變形:MgCl2、Na2Cl2、Al Cl2、K2Cl2、CaCl2。顯然,金屬式量低的,Cl元素含量高,因此,只有AlCl3才有可能成為雜質。
答 本題正確選項為(B)。
3.略
4. 解 (1)NH4HCO3 NH3↑+H2O↑+CO2↑
根據質量守恆可知:n(NH4HCO3)•M(NH4HCO3)=n(混)• (混),故 (混)= 79
g•mol-1,即混和氣體的平均相對分子質量為26.3。
(2)設爆鳴氣100g,則H2的物質的量為100g×75%÷2g•mol-1=37.5mol,O2物質的量為100g×25%÷32g•mol-1=0.78mol。
故爆鳴氣的平均摩爾質量為100g÷(37.5+0.78)mol=2.619g•mol-1,即對氫氣的相對密度為2.619 g•mol-1÷2 g•mol-1=1.31。
(3)乾燥容器中氣體的平均相對分子質量為1.082×32=34.62,由34.62<36.5,故該氣體應為HCl和空氣的混和氣體。
說明HCl與空氣的體積比為5.62∶1.88=3∶1,即混和氣體中HCl的體積為1L =0.75L。由於HCl氣體極易溶於水,所以當噴泉結束後,進入容器中液體的體積即為HCl氣體的體積0.75L。
答 (1)26.3 (2)1.31 (3)0.75L
四、1. 解析 由題意得知,鐵的氧化物中的氧原子最後轉移到沉澱物CaCO3中。且n(O)=n(CaCO3)=0.0075mol, m(O)=0.0075mol×16g/mol=0.12g。m(Fe)=0.4g-0.12g=0.28g,n(Fe)=0.005mol。n(Fe)∶n(O)=2:3,選B
2. 解析 鐵的氧化物中含Fe和O兩種元素,由題意,反應後,HCl中的H全在水中,O元素全部轉化為水中的O,由關系式:2HCl~H2O~O,得:n(O)= ,m(O)=0.35mol×16g•mol―1=5.6 g;
而鐵最終全部轉化為FeCl3,n(Cl)=0.56L ÷22.4L/mol×2+0.7mol=0.75mol,n(Fe)= ,m(Fe)=0.25mol×56g•mol―1=14 g,則 ,選B。
3. 解析 粗看題目,這是一利用關系式進行多步計算的題目,操作起來相當繁瑣,但如能仔細閱讀題目,挖掘出隱蔽條件,不難發現,反應後只有Na2SO4存在於溶液中,且反應過程中SO42―並無損耗,根據電中性原則:n(SO42―)= n(Na+),則原硫酸的濃度為:2mol/L,故選C。
4. 分析 本例是鎂及其化合物有關性質應用的一道計算題。本題涉及的反應較多,有2Mg+O2 2MgO,3Mg+N2 Mg3N2,MgO+2HCl = MgCl2+H2O,Mg3N2+8HCl = 3MgCl2+2NH4Cl,NaOH+HCl = NH4Cl等反應。若用常規方法審題和解題,則分析要求高,計算難度大,思維易混亂,很難正確解答本題。現運用圖示法審題如下:

發現:MgCl2、NH4Cl、NaCl溶液中,陰陽離子電荷濃度(或物質的量)相等即電荷守恆,再根據相關微粒的物質的量守恆,列出等式,從而一舉突破,從容解答本題。
解 根據圖示,對MgCl2、NH4Cl、NaCl溶液分析,由電荷守恆得知:

式中:

解得: ,即
5. 解析 設Fe2+為xmol,Fe3+為ymol,則:
x+y= =0.1(Fe元素守恆)
2x+3y= (得失電子守恆)
得:x=0.06mol,y=0.04mol。則x∶y=3∶2。故選D。
6. 解 (1)Cu與濃HNO3反應的化學方程式為:Cu+4HNO3(濃) = Cu(NO3)2+2NO2↑+2H2O,因是足量的濃硝酸,故還原產物只是NO2。理論上講,0.5mol Cu可得1mol NO2氣體。由於氣體的密度在標准狀況下為2.5g•L-1,即摩爾質量M= g•L-1 22.4 L•mol-1=56g•mol-1。顯然,56g•mol-1大於M(NO2)(46 g•mol-1),因此,不能認為收集到的氣體全是NO2,應考慮平衡2NO2 N2O4的存在。所以收集到的氣體是NO2和N2O4的混合氣體。根據質量守恆,混合氣體的質量應等於1 mol NO2氣體的質量即為46g,所以混和氣體的體積為46g 2.5g•L-1=18.4L。
(2)Cu與濃HNO3反應的化學方程式為:Cu+4HNO3(濃) = Cu(NO3)2+2NO2↑+2H2O,因是一定量的濃HNO3,隨著反應的進行,濃HNO3逐漸變成了稀HNO3,此時反應的化學方程式為:3Cu+8HNO3(稀)=3Cu(NO3)2+2NO↑+4H2O,故收集到的氣體應是NO和NO2的混合氣體。無法得知NO和NO2各自的物質的量,但它們物質的量之和為17.92L 22.4 L•mol-1=0 .8mol。根據N元素守恆,參加反應的硝酸的物質的量為2n[Cu(NO3)2]+n(NO)+
n(NO2)=2 0.5mol+0.8mol=1.8mol。
補充O2,NO和NO2被水吸收的化學方程式為:4NO+3O2+2H2O=4HNO3,4NO2+O2+2H2O = 4HNO3,從整個氧化還原過程來看,HNO3並沒有參加反應,參加的只是Cu與O2。因此,根據電子守恆,可列下式:
解得:V=5.6L
答 (1)18.4L;(2)1.8mol,5.6L
7. 分析 本例是有關氧化還原反應的一道計算題,涉及氧化還原的選擇性(即反應的先後順序)、進程性(即氧化劑或還原劑的量控制著反應的進程)和整體性(即無論有幾個氧化還原反應發生,始終存在氧化劑所得電子數等於還原劑所失電子數,或稱電子守恆)。根據題意分析,可知Fe2+與Br-還原能力大小為Fe2+ >Br-。因此,在FeBr2溶液中通入Cl2時,首先發生:Cl2+2Fe2+ = 2Fe3++2Cl -,然後再發生:Cl2+2 Br- = Br2+2Cl -。根據Cl2用量控制反應進程,所以Fe2+和Br-失去電子數目應等於Cl2得到電子數目。據此守恆關系,列出等式,很易求解。
解 設FeBr2物質的量濃度為C,由電子守恆可知:

解得:C=1.2 mol•L-1
答 原FeBr2溶液的物質的量濃度為1.2mol•L-1。
五、1. 本題提供的思路是運用極限法來分析求解。因為M(SO2)>M(H2S),要達到最大密度,必然剩餘SO2氣體,且物質的量為最多,因此極端考慮,起始時,SO2物質的量取最大(5mol),H2S物質的量取最小(1 mol),故反應後剩餘SO2為 ,密度為 。所以(B)選項為本題正確答案。
答 本題正確選項為(B)。
2. (B) 3.略
4. 解析本題給出的數據不足,故不能求出每一種金屬的質量,只能確定取值范圍。三種金屬中產生等量的氫氣質量最大的為鋅,質量最小的為鋁。故假設金屬全部為鋅可求的金屬質量為8.125g,假設金屬全部為鋁可求的金屬質量為2.25g,金屬實際質量應在2.25g ~8.125g之間。故答案為B、C。
六、1. 解析 根據化學方程式,可以找出下列關系:FeS2~2SO2~2SO3~2H2SO4,本題從FeS2制H2SO4,是同種元素轉化的多步反應,即理論上FeS2中的S全部轉變成H2SO4中的S。得關系式FeS2~2H2SO4。過程中的損耗認作第一步反應中的損耗,得可製得98%硫酸的質量是 =3.36 。
七、1. 解析 CO和H2都有兩步反應方程式,量也沒有確定,因此逐步計算比較繁。Na2O2足量,兩種氣體完全反應,所以將每一種氣體的兩步反應合並可得H2+Na2O2=2NaOH,CO+ Na2O2=Na2CO3,可以看出最初的氣體完全轉移到最後的固體中,固體質量當然增加2.1g。選A。此題由於CO和H2的量沒有確定,兩個合並反應不能再合並!
八、1. 解析 變化主要過程為:

由題意得:Fe2O3與合金的質量相等,而鐵全部轉化為Fe2O3,故合金中Al的質量即為Fe2O3中氧元素的質量,則可得合金中鋁的質量分數即為Fe2O3中氧的質量分數,O%= ×100%=30%,選B。
九、1. 解析 。由題意,生成0.5mol H2,金屬失去的電子即為1mol,即合金的平均摩爾電子質量為10g/mol,鎂、鋁、鐵、鋅的摩爾電子質量分別為:12、9、28、32.5(單位:g/mol),由平均值可知,混合物中一種金屬的摩爾電子質量小於10g/mol,另一種大於10g/mol。故選A、C
十、1. 分析 本例是一道結合討論分析的天平平衡題,考查了在化學解題過程中的有序思維和問題解決的完整性。反應後天平仍然平衡,說明天平左右兩端加入金屬的質量與放出氫氣的質量數差值應相等。但不知鎂粉、鋁粉與鹽酸的量相對大小,所以必須通過討論判斷誰過量,從而以另一方計算產生H2的質量。因此如何判斷誰過量是解決本題的關鍵,另外,還需時刻注意調整a的取值范圍(由b的取值范圍及a和b的關系確定),才能得到本題完整解答,這一點在解題過程中是被常疏忽的。
解 根據題意,題中發生的兩個反應為:
Mg+2HCl = MgCl2+H2↑ 2Al+6HCl = 2AlCl3+3H2↑
若鹽酸完全反應,所需Mg粉質量為 ,所需鋁粉質量為 。
(1)當a≥12g,b≥9g,即鹽酸適量或不足,產生H2的質量應以HCl的量計算,因HCl的量是一定的,故產生H2的質量相等,要使天平平衡,即要求金屬的質量相等,所以a=b,此時b的范圍必須調整為b≥12g。
(2)當a<12g,b<9g,即Mg、Al不足,應以其計算產生H2的量。要使天平平衡,即要有:,解得: ,此時a的范圍必須調整為a<8.7g。
(3)當a<12g,b≥9g,即Mg不足,應以Mg算;Al過量或適量,以HCl算。要使天平平衡,必須滿足:
,解得: ,據(1)、(2)調整a的范圍為8.7g≤a<12g。
答 (1)當a≥12g時,a=b;(2)當8.7g<a<12g時,;(3)當0<a<8.7g時, 。

《常見化學計算方法》答案
一、1. 20% 2. 將615KNO3溶解於250g水中 3. R的化合價為 或。
4. 解:設Mg、Al、Fe的質量分別為x、y、z,故三者反應結束後,溶液質量增加為 x、 y、 z且相等,故有:,所以y>x>z。
5. 解 (1)水參加反應的質量為0.9g,則Na2CO3的質量為,NaHCO3的質量為9.5-5.3g=4.2g。(2)鹼石灰中CaO的質量為,NaOH的質量為9.6g-5.6g=4.0g。 6. 原混和物中CuSO4和Fe的質量分別為8.0g,4.8g。
二、1. 答 25 100 4.63 2.78 2. B
3.(1)等體積混和後,所得溶液質量分數應大於10x%。
(2) %的氨水物質的量濃度應大於 mol•L-1。
4. 該產物中Na2O的物質的量分數為20%。
5. n(Na2CO3)= 0.8 mol=0.2 mol,n(NaHCO3)= 0.8 mol=0.6 mol。
三、1. D 2.B 3.略
4. (1)26.3 (2)1.31 (3)0.75L
四、1. B 2. B 3. C
4. ,即 5. D
6. (1)18.4L;(2)1.8mol,5.6L
7. 原FeBr2溶液的物質的量濃度為1.2mol•L-1。
五、1. B 2. B 3.略 4. B C

㈧ 神經網路如何外推:從前饋網路到圖網路

How Neural Networks Extrapolate: From Feedforward to Graph Neural Networks

ICLR2021最高分論文            https://arxiv.org/abs/2009.11848

52頁論文,正文佔9頁,主要都是附錄,不過附錄里很多圖片(一頁就一兩張圖),排除這些一頁一圖的,只有40頁

我們研究用梯度下降法訓練的神經網路如何外推,也就是說,它們在訓練分布的支持之外學習什麼。以前的工作報告了使用神經網路進行外推時混合的實證結果:雖然前饋神經網路,即多層感知器(MLP)在某些簡單任務中外推效果不好,但圖形神經網路(GNN)——帶有MLP模塊的結構化網路——在更復雜的任務中取得了一些成功。為了得到理論解釋,我們確定了MLPs和GNNs外推良好的條件。首先,我們量化了ReLU-MLPs從原點沿任意方向快速收斂到線性函數的觀測結果,這意味著ReLU-MLPs不能外推大多數非線性函數。但是,當訓練分布足夠「多樣化」時,他們可以證明學習線性目標函數。其次,在分析GNNs的成功和局限性時,這些結果提出了一個假設,我們提供了理論和經驗證據:GNNs在將演算法任務外推到新數據(例如。,較大的圖或邊權重)依賴於編碼體系結構或特徵中特定於任務的非線性。我們的理論分析建立在過度參數化網路與神經切線核的聯繫上。根據經驗,我們的理論適用於不同的培訓環境

1簡介

人類在許多任務中推斷得很好。例如,我們可以對任意大的數應用算術。人們可能想知道,神經網路是否也能做到這一點,並將其推廣到任意遠離訓練數據的示例中(Lake et al.,2017)。奇怪的是,以前的工作報告混合外推結果與神經網路。早宏裂期的工作表明,前饋神經網路,又稱多層感知器(MLPs),在學習簡單多項式函數時不能很好地進行外推(Barnard&Wessels,1992;Haley&Soloway,1992年)。然而,最近的研究表明,圖神經網路(GNNs)(Scarselli et al.,2009)是一類具有MLP構建塊的結構化網路,在具有挑戰性的演算法任務中,如預測物理系統的時間演化(Battaglia et al.,2016),可以推廣到比訓練嫌咐圖大得多的圖,學習圖形演算法(Velickovic et al.,2020),求解數學方程(Lample&Charton,2020)。

為了解釋這個難題,我們正式研究了梯度下降(GD)訓練的神經網路是如何外推的,即它們在訓練分布的支持之外學習什麼。我們說,如果一個神經網路在訓練分布之外學習了一個任務,它就能很好地進行外推。乍一看,似乎神經網路可以在訓練分布之外任意行為,因為它們具有高容量(Zhang et al.,2017),並且是通用逼近器(Cybenko,1989;Funahashi,1989年;Hornik等人,1989年;庫爾科娃,1992年)。然而,神經網路受到梯度下降訓練的限制(Hardt等人,2016;Soudry等人,2018年)。在我們的分析中,我們通過類比過參數化神經網路的訓練動態和通過神經切線核(NTK)的核回歸,明確考慮了這種隱式偏差(Jacot等人,2018)。

從前饋網路、最簡單的神經網路和更復雜的體系結構(如GNNs)的構建塊開始,我們建立了由GD訓練的具有ReLU激活的過參數mlp的預測從原點沿任意方向收斂到線性函數。我們證明了兩層網路的收斂速度,並從經驗上觀察到收斂經常發生在訓練數據附近(圖1),這表明ReLU-MLPs不能很好地外推大多數非線性任務。我們強調,我們的結果並不是基於ReLU網路具有有限多個線性區域的事實(Arora et al.,2018;Hanin&Rolnick,2019年;Hein等人,2019年)。雖然有有限多個線性區域意味著ReLU MLPs最終會變為線性,但MLPs是否會學習到接近訓練分布的正確目標函數並沒有說明。相比之下,我們的結果是非漸近的,並且量化了MLPs將學習什麼樣的函數接近於訓練分布。其次,我們確定了mlp外推良好的條件:任務是線性的,訓練分布的幾何結構是充分「多樣化」的。據我們所知蔽者閉,我們的結果是這種前饋神經網路的第一個外推結果。

然後,我們將我們對前饋神經網路的見解與GNNs聯系起來,以解釋GNNs在某些演算法任務中外推得好的原因。先前的工作報告了可以通過動態規劃(DP)解決的任務的成功外推(Bellman,1966),其計算結構與GNNs一致(Xu等人,2020)。DP更新通常可以分解為非線性和線性步驟。因此,我們假設GD訓練的GNN可以在DP任務中很好地外推,如果我們在架構和輸入表示中編碼適當的非線性(圖2)。重要的是,編碼非線性可能不需要GNNs插值,因為MLP模塊可以很容易地學習訓練分布中的許多非線性函數(Cybenko,1989;Hornik等人,1989年;Xu等人,2020),但GNNs正確外推至關重要。我們使用圖NTK(Du等人,2019b)證明了簡化情況下的這一假設。在經驗上,我們驗證了三個DP任務的假設:最大度、最短路徑和n體問題。我們證明了具有適當結構、輸入表示和訓練分布的GNNs可以很好地預測具有未知大小、結構、邊權值和節點特徵的圖。我們的理論解釋了以往工作的經驗成功,並指出了它們的局限性:成功的外推依賴於編碼任務特定的非線性,這需要領域知識或廣泛的模型搜索。從更廣泛的角度來看,我們的見解超越了GNNs,並廣泛應用於其他神經網路。

總之,我們研究神經網路如何外推。首先,由GD訓練的ReLU-mlp以O(1/t)的速率沿原點方向收斂為線性函數。其次,為了解釋為什麼GNNs在一些演算法任務中可以很好地外推,我們證明了ReLU-MLPs在線性任務中可以很好地外推,從而引出一個假設:當適當的非線性被編碼到結構和特徵中時,神經網路可以很好地外推。我們用一個簡化的例子證明了這個假設,並為更一般的情況提供了經驗支持。

1.1相關工作

早期的工作顯示了MLP不能很好地外推的示例任務,例如學習簡單多項式(Barnard&Wessels,1992;Haley&Soloway,1992年)。相反,我們展示了ReLU MLPs如何外推的一般模式,並確定MLPs外推良好的條件。最近的工作研究了在NTK和平均場兩種情況下,梯度下降對MLP產生的隱性偏差(Bietti和Mairal,2019;Chizat&Bach,2018年;Song等人,2018年)。與我們的結果相關,一些工作表明MLP預測收斂於「簡單」分段線性函數,例如,具有很少的線性區域(Hanin&Rolnick,2019;Maennel等人,2018年;Savarese等人,2019年;威廉姆斯等人,2019年)。我們的工作不同之處在於,這些工作都沒有明確研究外推法,有些只關注一維輸入。最近的研究還表明,在NTK區域的高維環境中,MLP在某些標度極限下至多是一個漸近線性預測因子(Ba等人,2020;Ghorbani等人,2019年)。我們研究不同的設置(外推),我們的分析是非漸近性質,不依賴於隨機矩陣理論。

先前的工作通過在較大的圖上進行測試來探索GNN外推(Battaglia et al.,2018;Santoro等人,2018年;薩克斯頓等人,2019年;Velickovic等人,2020年)。我們是第一個從理論上研究GNN外推法的人,我們完成了外推法的概念,包括看不見的特徵和結構。

2准備工作

3前饋神經網路如何外推

前饋網路是最簡單的神經網路和更復雜的體系結構(如GNNs)的構建塊,因此我們首先研究它們在GD訓練時是如何外推的。在本文中,我們假設ReLU激活。第3.3節包含其他激活的初步結果。

3.1 RELU MLP的線性外推行為

通過架構,ReLU網路學習分段線性函數,但是在訓練數據的支持之外,這些區域究竟是什麼樣的呢?圖1舉例說明了當GD對各種非線性函數進行訓練時,ReLU MLP如何進行外推。這些例子表明,在訓練支持之外,預測很快就會沿著原點的方向線性化。我們通過線性回歸對MLPs的預測進行了系統的驗證:決定系數(R2)總是大於0.99(附錄C.2)。也就是說,ReLU MLPs幾乎立即在訓練數據范圍之外「線性化」。

我們使用GD通過神經切線核(NTK)訓練的神經網路的隱式偏差來形式化這個觀察:GD訓練的過參數化網路的優化軌跡等價於具有特定神經切線核的核回歸的軌跡,在一系列被稱為「NTK制度」的假設下(Jacot等人,2018年)。我們在這里提供了一個非正式的定義;更多詳情,請參閱Jacot等人(2018)和附錄A。

定義2。

(非正式)在NTK區域訓練的神經網路是無限寬的,以一定的比例隨機初始化,並且由GD以無窮小的步長訓練。

先前的工作通過NTK分析過參數化神經網路的優化和分布泛化(Allen-Zhu等人,2019a;b類;Arora等人,2019a;b類;曹顧,2019;杜等人,2019c;一個;李亮,2018;日田和鈴木,2021年)。相反,我們分析外推。

定理1將我們從圖1中觀察到的結果形式化:在訓練數據范圍之外,沿著原點的任何方向tv,兩層ReLU MLP的預測迅速收斂為速率為O(1/t)的線性函數。線性系數β收斂速度中的常數項依賴於訓練數據和方向v。證據見附錄B.1

定理1

ReLU網路具有有限多個線性區域(Arora等人,2018;漢寧和羅爾尼克,2019),因此他們的預測最終成為線性。相反,定理1是一個更細粒度的分析MLP如何外推,並提供了收斂速度。雖然定理1假設兩層網路處於NTK狀態,但實驗證實,線性外推行為發生在具有不同深度、寬度、學習速率和批量大小的網路上(附錄C.1和C.2)。我們的證明技術也可能擴展到更深層次的網路。

圖4a提供了一個更積極的結果:MLP在許多不同的超參數上很好地外推了線性目標函數。雖然學習線性函數一開始似乎非常有限,但在第4節中,這一見解將有助於解釋GNN在非線性實際任務中的外推特性。在此之前,我們首先從理論上分析了MLPs外推的好時機。

3.2當RELU MLPS可證明外推井

圖4a顯示,當目標函數為線性時,MLP可以很好地外推。然而,這並不總是正確的。在本節中,我們展示了成功的外推依賴於訓練數據的幾何結構。直觀地說,訓練分布必須足夠「多樣化」,以便進行正確的推斷

我們提供了兩個條件,將訓練數據的幾何結構與外推聯系起來。引理1指出,過參數化的mlp只需二維例子就可以學習線性目標函數。

實驗:訓練數據的幾何結構影響外推。

定理2中的條件形式化了一種直覺,即訓練分布必須是「多樣的」,才能成功地進行外推,例如,D包括所有方向。從經驗上講,當滿足定理2的條件時(圖4b中的「all」),外推誤差確實很小。相反,當訓練示例僅限於某些方向時,外推誤差要大得多(圖4b和圖3)。

與之前的工作相關,定理2提出了為什麼虛假相關性可能會損害外推,補充了因果關系論點(Arjovsky et al.,2019;Peters等人,2016年;Rojas Carulla等人,2018年)。當訓練數據具有虛假相關性時,某些特徵組合丟失;e、 例如,駱駝可能只出現在沙漠中的圖像收集。因此,定理2的條件不再成立,模型可能外推錯誤。定理2也類似於線性模型的可辨識條件,但更為嚴格。如果訓練數據具有全(特徵)秩,我們可以唯一地識別一個線性函數。mlp更具表現力,因此識別線性目標函數需要附加約束。

綜上所述,我們分析了ReLU-MLPs是如何外推的,並提供了兩個啟示:(1)MLPs由於其線性外推而不能外推大多數非線性任務(定理1);當目標函數是線性函數時,如果訓練分布是「多樣的」(定理2),mlp可以很好地外推。在下一節中,這些結果將幫助我們理解更復雜的網路是如何外推的。

3.3具有其他激活功能的MLPS

在繼續討論GNNs之前,我們通過對其他激活函數tanh的實驗來完成MLPs的描述σ(x) =tanh(x),餘弦σ(x) =cos(x)(Lapedes&Farber,1987年;McCaughan,1997年;Sopena和Alquezar,1994),和σ(x) =x2(杜和李,2018;Livni等人,2014年)。詳情見附錄C.4。當激活函數和目標函數相似時,MLPs外推效果較好;e、 例如,當學習tanh時,tanh激活可以很好地推斷,但不能推斷其他功能(圖5)。而且,每個激活函數都有不同的局限性。要用tanh激活外推tanh函數,訓練數據范圍必須足夠寬。當學習具有二次激活的二次函數時,只有兩層網路可以很好地進行外推,而更多的層可以得到更高階的多項式。對於高維數據,餘弦激活很難優化,因此我們只考慮一維/二維餘弦目標函數。

4圖形神經網路如何外推

上面,我們看到非線性任務中的外推對於MLP來說是困難的。盡管存在這一局限性,GNNs在一些非線性演算法任務中表現出了很好的外推能力,如直觀物理(Battaglia et al.,2016;Janner等人,2019),圖演算法(Battaglia等人,2018;Velickovic等人,2020)和符號數學(Lample&Charton,2020)。為了解決這個差異,我們建立在MLP結果的基礎上,研究GD訓練的GNNs是如何外推的。

4.1假設:線性演算法對齊有助於外推

我們從一個例子開始:訓練GNNs來解決最短路徑問題。對於這項任務,先前的工作觀察到,具有最小聚集的改進GNN架構可以推廣到比訓練集中的圖更大的圖(Battaglia et al.,2018;Velickovic等人,2020):

我們首先提供一個直觀的解釋(圖2a)。最短路徑可通過Bellman-Ford(BF)演算法(Bellman,1958)求解,並進行以下更新

其中w(v,u)是邊(v,u)的權重,d[k][u]是k步內到節點u的最短距離。這兩個方程可以很容易地對齊:如果GNNs的MLP模塊學習一個線性函數d[k],那麼它將模擬BF演算法−1] [v]+w(v,u)。由於mlp可以外推線性任務,這種「對齊」可以解釋為什麼GNNs可以在這個任務中很好地外推。

為了進行比較,我們可以解釋為什麼我們不希望GNN使用更常用的和聚合(Eqn。1) 在這項任務中推斷得很好。對於和聚合,MLP模塊需要學習一個非線性函數來模擬BF演算法,但定理1表明,它們不會在訓練支持之外外推大多數非線性函數。

我們可以將上述直覺推廣到其他演算法任務。許多GNNs外推良好的任務可以通過動態規劃(DP)來解決(Bellman,1966),這是一種具有類似GNNs(Eqn)的遞歸結構的演算法範式。1) (Xu等人,2020年)。

定義3。動態規劃(DP)是一個帶有更新的遞歸過程

其中答案[k][s]是迭代k和狀態s索引的子問題的解決方案,DP Update是一個任務特定的更新函數,它基於上一次迭代解決子問題。從更廣泛的角度出發,我們假設:如果我們將適當的非線性編碼到模型結構和輸入表示中,使MLP模塊只需要學習接近線性的步驟,那麼所得到的神經網路就可以很好地外推。

假設1。

我們的假設建立在(Xu等人,2020)的演算法對齊框架之上,該框架指出,如果模塊「對齊」以便於學習(可能是非線性)函數,則神經網路插值良好。成功的外推更難:模塊需要與線性函數對齊。

線性演算法對準的應用。

一般來說,線性演算法對准不局限於GNN,廣泛應用於神經網路。為了滿足這種情況,我們可以在結構或輸入表示中編碼適當的非線性操作(圖2)。使用GNNs學習DP演算法是在體系結構中編碼非線性的一個例子(Battaglia等人,2018;Corso等人,2020年)。另一個例子是對體系結構中的日誌和exp變換進行編碼,以幫助外推算術任務中的乘法(Trask等人,2018;Madsen&Johansen,2020年)。神經符號程序進一步發展,並對符號操作庫進行編碼,以幫助推斷(Johnson等人,2017年;Mao等人,2019年;易等,2018年)。

對於某些任務,更改輸入表示可能更容易(圖2b)。有時,我們可以將目標函數f分解為f=g◦ 將h嵌入特徵嵌入h和一個簡單的目標函數g中,我們的模型可以很好地推斷。我們可以通過使用領域知識通過專門的特徵或特徵轉換獲得h(Lample&Charton,2020;Webb等人,2020年),或通過X\D中未標記的未標記的未標記的分發數據的表示學習(例如,BERT)(Chen等人,2020年);Devlin等人,2019年;胡等,2020;Mikolov等人,2013b;Peters等人,2018年)。這為表示如何幫助在不同應用領域進行外推提供了新的視角。例如,在自然語言處理中,預處理表示(Mikolov等人,2013a;Wu&Dredze,2019)和使用領域知識進行特徵轉換(袁等,2020年;Zhang等人,2019)幫助模型在語言之間進行概括,這是一種特殊的外推。在定量金融中,確定正確的「因素」或特徵對於深入學習模型至關重要,因為金融市場可能經常處於外推制度中(Banz,1981;法蘭西,1993年;羅斯,1976)。

線性演算法對齊解釋了文獻中成功的外推,並指出外推一般更難:編碼適當的非線性通常需要領域專家或模型搜索。其次,我們為我們的假設提供理論和實證支持。

4.2理論和經驗支持

我們驗證了我們對三個DP任務的假設:最大度、最短路徑和n-體問題,並證明了最大度假設。我們強調了圖結構在外推中的作用。

理論分析。

我們從一個簡單而基本的任務開始:學習一個圖的最大度,一個DP的特例。作為定理1的推論,常用的基於和的GNN(Eqn。1) 無法很好地推斷(證據見附錄B.4)。

推論1。

具有和聚集和和和讀出的GNNs在最大程度上不能很好地外推。為了實現線性演算法對齊,我們可以對讀出器中唯一的非線性max函數進行編碼。定理3證實了具有最大讀數的GNN在這個任務中可以很好地外推。

定理3並不是緊跟定理2,因為GNNs中的MLP模塊只接受間接的監視。我們分析圖NTK(Du等人,2019b)來證明附錄B.5中的定理3。雖然定理3假設相同的節點特徵,但我們在經驗上觀察到相同和不相同特徵的相似結果(附錄中的圖16)。

條件的解釋。

定理3中的條件類似於定理2中的條件。這兩個定理都需要不同的訓練數據,用定理3中的圖結構或定理2中的方向來度量。在定理3中,如果所有訓練圖都具有相同的最大或最小節點度,例如,當訓練數據來自以下族之一時,違反了該條件:路徑、C-正則圖(具有C度的正則圖)、圈和階梯。

實驗:有助於推斷的架構。

我們用兩個DP任務來驗證我們的理論分析:最大度和最短路徑(詳見附錄C.5和C.6)。而以前的工作只測試不同大小的圖(Battaglia et al.,2018;Velickovic等人,2020),我們還測試了具有不可見結構、邊權重和節點特徵的圖。結果支持了我們的理論。對於最大度,具有最大讀數的GNNs優於具有和讀數的GNNs(圖6a),證實了推論1和定理3。對於最短路徑,具有最小讀數和最小聚集的GNN優於具有和讀數的GNN(圖6a)。

實驗證實了訓練圖結構的重要性(圖7)。有趣的是,這兩個任務支持不同的圖結構。對於最大度,如定理3所預測的,當訓練在樹、完全圖、擴張圖和一般圖上時,GNNs外推效果很好,當訓練在4-正則圖、圈圖或梯形圖上時,外推誤差更大。對於最短路徑,當我們改變訓練圖的稀疏性時,外推誤差遵循U形曲線(附錄中的圖7b和圖18)。直覺上,在稀疏或稠密圖上訓練的模型可能學習退化解。

實驗:有助於推斷的表徵。

最後,我們展示了一個很好的輸入表示幫助外推。我們研究了n體問題(Battaglia等人,2016;Watters等人,2017年)(附錄C.7),即預測重力系統中n個物體的時間演化。根據之前的工作,輸入是一個完整的圖形,其中節點是對象(Battaglia等人,2016)。

5與其他分布外設置的連接

我們討論幾個相關的設置。直觀地說,從我們上述結果的觀點來看,相關設置中的方法可以通過1)學習超出訓練數據范圍的有用非線性和2)將相關測試數據映射到訓練數據范圍來改進外推。

領域適應研究對特定目標領域的泛化(Ben-David等人,2010;Blitzer等人,2008年;Mansour等人,2009年)。典型的策略會調整訓練過程:例如,使用來自目標域的未標記樣本來對齊目標和源分布(Ganin等人,2016;趙等,2018)。在訓練期間使用目標域數據可能會導致有用的非線性,並可能通過匹配目標和源分布來減輕外推,盡管學習映射的正確性取決於標簽分布(Zhao等人,2019)。

對大量未標記數據的自監督學習可以學習超出標記訓練數據范圍的有用非線性(Chen et al.,2020;Devlin等人,2019年;He等人,2020年;Peters等人,2018年)。因此,我們的結果提出了一個解釋,為什麼像BERT這樣的預訓練表示可以提高分布外魯棒性(Hendrycks et al.,2020)。此外,自監督學習可以將語義相似的數據映射到相似的表示,因此映射後的一些域外實例可能會落入訓練分布中。

不變模型旨在學習在多個訓練分布中尊重特定不變性的特徵(Arjovsky et al.,2019;Rojas Carulla等人,2018年;周等人,2021)。如果模型真的學習到了這些不變性,這可能發生在線性情況下,當存在混雜或反因果變數時(Ahuja等人,2021;Rosenfeld等人,2021),這可能從本質上增加了訓練數據范圍,因為模型可以忽略不變特徵的變化。

分布魯棒性考慮了數據分布的小干擾,並確保模型在這些干擾下表現良好(Goh&Sim,2010;Sagawa等人,2020年;Sinha等人,2018年;Staib&Jegelka,2019年)。相反,我們看的是更多的全局擾動。盡管如此,人們還是希望,有助於外推的修改通常也能提高對局部擾動的魯棒性。

6結論

本文是一個初步的步驟,正式了解如何神經網路訓練梯度下降外推。我們確定了MLPs和GNNs按期望外推的條件。我們還提出了一種解釋,說明GNNs在復雜的演算法任務中是如何能夠很好地進行外推的:在架構和特性中編碼適當的非線性可以幫助外推。我們的結果和假設與本文和文獻中的實證結果一致

㈨ 請問有誰知道TV演算法(最小全變分演算法)

您好,[LASIP_Image_Restoration_DemoBox_v112.rar] - LASIP局部多項式逼近演算法用於二維信號處理、圖像復原,圖像去噪的MATLAB實現。
[blind.rar] - 利用盲卷積圖像復原方法,對模糊圖像進行圖像復原,可以達到比較好的效果。
[TV1.rar] - 採用T.Chan的總體變分(TV)方法實現圖像修復,由於演算法本身的局限性,無法解決視覺連通性的問題。

[Thisprocereforfull-variational.rar] - 本程序實現全變分(Total Variation, TV)的去噪演算法,它使用了PDF糾正TV演算法中的小問題。該演算法可以很好地保留原圖邊緣信息的同時,去除雜訊。
[LASIP_BlindDeconvolution.zip] - The LASIP routines for Multiframe Blind Deconvolution are used for restoration of an Image from its multiple blurred and noisy observations.
[irntv.zip] - The generalized total variation denoising algorithm which can be widely used for optimization or signal processing
[RestoreToolsNoIP.rar] - 一個非常好的圖像恢復的工具集,matlab編寫的源代碼。
[MaximumEntropyv1.00.zip] - 一個基於最大熵的圖像復原演算法源代碼。可以完成圖像的去燥聲和去模糊。
[TVInpainting.rar] - TV圖象修復 自己寫的小程序 matlab
[TVCMRI_pub.zip] - matlab code for Fixed point and Bregman iterative methods. minimize alpha*TV(Phi *x) + beta*||x||_1 + 0.5*||Ax-b||_2^2

c語言程序設計題。實驗報告。高分。

車票系統,與你的第2題要求略有不同,你自己修改吧
#include<stdio.h>
#include<stdlib.h>
#include<dos.h>
#include<time.h>
#include<conio.h>
#include<string.h>
const int MAX=20;
const int N=50;
const int MAXFILENAME=100;
enum {FALSE,TRUE};
struct time
{
int hour;
int minutes;
};
struct ticket
{
int SerialNumber;
struct time SetOut;
char DeparturePoint[MAX];
char TerminalPoint[MAX];
float LastTime;
int FixNumber;
int FixedNumber;
}car[N];
int RecordNumber;
int FLAG=FALSE;
/**********************************************/
int ShowMessage(void); //載入原始數據
void mainmenu(void); //主菜單
void InsertMessage(void); //錄入班次信息
void SearchMenu(void); //查詢路線子菜單
void SearchByNumber(void); //按班次號查詢
void SearchByAddress(void); //按終點站查詢
void TicketManagement(void); //車票售出與退回
void TicketOrder(void); //售票
void TicketDelete(void); //退票
void exit(void); //退出該系統
/********************************************/
int main(void)
{
RecordNumber=ShowMessage();
if(1)
do{
mainmenu();
}while(FLAG==FALSE);
return 0;
}
void mainmenu(void)
{
system("color 1f");
system("mode con: cols=140 lines=130");
char functionNumber;
printf(" 車票管理系統\n\n");
printf(" 製作:hmm182007\n");
printf(" 日期:2007/11/25/19:57\n");
printf("============================================================================\n");
printf(" 1.錄入班次信息\t\n");
printf(" 2.瀏覽班次信息\t\n");
printf(" 3.查詢行車路線\t\n");
printf(" 4.售票與退票系統\t\n");
printf(" 5.退出該系統\t\n");
printf("============================================================================\n");
printf("請選擇你所需要的功能:");
scanf("%c",&functionNumber);
switch(functionNumber)
{
case '1':
{
InsertMessage();
printf("\n按任意鍵回主菜單......\n");
getchar();
getchar();
}
break;
case '2':
{
ShowMessage();
printf("\n按任意鍵回主菜單......\n");
getchar();
getchar();
}
break;
case '3':
{
SearchMenu();
printf("\n按任意鍵回主菜單......\n");
getchar();
getchar();
}
break;
case '4':
{
TicketManagement();
getchar();
getchar();
}
break;
case '5':FLAG=TRUE;exit();break;
default:
{
printf("輸入錯誤,請確保你的輸入為1--5.\n");
printf("按任意鍵回主菜單......\n");
getchar();
getchar();
}
}//switch ends
FLAG=FALSE;
}
void InsertMessage(void)
{
FILE *fp;
char filename[MAXFILENAME];
int i;
printf("請輸入文件名或者文件路徑名:");
scanf("%s",filename);
if((fp=fopen(filename,"r"))==NULL)
{
printf("文件%s不可讀,請確認文件%s存在或者文件路徑正確.\n\n",filename,filename);
mainmenu();
}
for(i=RecordNumber;!feof(fp)&&!ferror(fp);i++)
{
fscanf(fp,"%d%d%d",&car[i].SerialNumber,&car[i].SetOut.hour,&car[i].SetOut.minutes);
fscanf(fp,"%s%s%f%d%d",&car[i].DeparturePoint,&car[i].TerminalPoint,&car[i].LastTime,&car[i].FixNumber,&car[i].FixedNumber);
}
int count=i;
printf("班次\t發車時間\t起點\t終點\t行車時間(小時)\t額定載量\t已定票人數\n");
for(i=0;i<count;i++)
{
printf("%d\t%d:%d\t\t",car[i].SerialNumber,car[i].SetOut.hour,car[i].SetOut.minutes);
printf("%s\t%s\t\t%.1f\t %d\t\t%d\n",car[i].DeparturePoint,car[i].TerminalPoint,car[i].LastTime,car[i].FixNumber,car[i].FixedNumber);
}
fclose(fp);
}
int ShowMessage(void)
{
int i;
FILE *fp;
if((fp=fopen("add.txt","r"))==NULL)
{
printf("讀取數據失敗,請檢查文件add.txt是否存在.\n");
exit(-1);
}
for(i=0;!feof(fp)&&!ferror(fp);i++)
{
fscanf(fp,"%d%d%d",&car[i].SerialNumber,&car[i].SetOut.hour,&car[i].SetOut.minutes);
fscanf(fp,"%s%s%f%d%d",&car[i].DeparturePoint,&car[i].TerminalPoint,&car[i].LastTime,&car[i].FixNumber,&car[i].FixedNumber);
}
int count=i;
printf("班次\t發車時間\t起點\t終點\t行車時間(小時)\t額定載量\t已定票人數\n");
for(i=0;i<count;i++)
{
printf("%d\t%d:%d\t\t",car[i].SerialNumber,car[i].SetOut.hour,car[i].SetOut.minutes);
printf("%s\t%s\t\t%.1f\t %d\t\t%d\n",car[i].DeparturePoint,car[i].TerminalPoint,car[i].LastTime,car[i].FixNumber,car[i].FixedNumber);
}
return count;
}
void SearchMenu(void)
{
system("color 1f");
system("mode con: cols=140 lines=130");
char functionNumber;
printf(" 查詢子菜單\n");
printf("============================================================================\n");
printf(" 1.按班次號查詢\t\n");
printf(" 2.按終點站查詢\t\n");
printf(" 3.返回主菜單\t\n");
printf("============================================================================\n");
printf("請選擇你所需要的功能:");
scanf("%*c%c",&functionNumber);
switch(functionNumber)
{
case '1':SearchByNumber();break;
case '2':SearchByAddress();break;
case '3':
getchar();
mainmenu();
break;
default:
printf("輸入錯誤,請確保你的輸入為1--3.\n");
printf("按任意鍵回查詢子菜單......\n");
getchar();
getchar();
SearchMenu();
}
}
void SearchByNumber(void)
{
int SearchNumber;
printf("請輸入要查詢的班次號:");
scanf("%d",&SearchNumber);
printf("班次\t發車時間\t起點\t終點\t行車時間(小時)\t額定載量\t已定票人數\n");
printf("%d\t%d:%d\t\t",car[SearchNumber-1].SerialNumber,car[SearchNumber-1].SetOut.hour,car[SearchNumber-1].SetOut.minutes);
printf("%s\t%s\t\t%.1f\t %d\t\t%d\n",car[SearchNumber-1].DeparturePoint,car[SearchNumber-1].TerminalPoint,car[SearchNumber-1].LastTime,car[SearchNumber-1].FixNumber,car[SearchNumber-1].FixedNumber);
}
void SearchByAddress(void)
{
int i;
char Address[MAX];
printf("請輸入終點站的名稱:");
scanf("%s",&Address);
printf("班次\t發車時間\t起點\t終點\t行車時間(小時)\t額定載量\t已定票人數\n");
for(i=0;i<RecordNumber;i++)
{
//對比終點站記錄,找到並輸出
if((strcmp(Address,car[i].TerminalPoint))==0)
{
printf("%d\t%d:%d\t\t",car[i].SerialNumber,car[i].SetOut.hour,car[i].SetOut.minutes);
printf("%s\t%s\t\t%.1f\t %d\t\t%d\n",car[i].DeparturePoint,car[i].TerminalPoint,car[i].LastTime,car[i].FixNumber,car[i].FixedNumber);
}
}
}
void TicketManagement(void)
{
char functionNumber;
system("color 1f");
system("mode con: cols=140 lines=130");
printf(" 訂票與退票菜單\n");
printf("============================================================================\n");
printf(" 1.訂票\t\n");
printf(" 2.退票\t\n");
printf(" 3.返回主菜單.\n");
printf("============================================================================\n");
printf("選擇你需要的功能:");
scanf("%*c%c",&functionNumber);

switch(functionNumber)
{
case '1':
{
TicketOrder();
//getchar();
//getchar();
}
break;
case '2':TicketDelete();break;
case '3':
{
getchar();
mainmenu();
}
break;
default:
{
printf("輸入錯誤,請確保你的輸入為1--3.\n");
printf("按任意鍵回主菜單......\n");
getchar();
getchar();
mainmenu();
}
}
}
void TicketOrder(void)
{
int i;
printf("請輸入要訂購的車票的班次:");
scanf("%d",&i);
if(i<0||i>RecordNumber)
{
printf("對不起,今天沒有這趟車,請明天再來,謝謝使用!\n");
printf("按任意鍵回主菜單......\n");
getchar();//getchar();
TicketManagement();
}

time_t tval;
struct tm *now;
tval = time(NULL);
now = localtime(&tval);
if((now->tm_hour==car[i].SetOut.hour&&now->tm_min<car[i].SetOut.minutes)||(now->tm_hour<car[i].SetOut.hour))
{
if(car[i].FixedNumber<car[i].FixNumber)
{
car[i].FixedNumber++;
printf("你的訂票成功,請按時上車,謝謝使用!\n");
}
else printf("對不起,今天的這趟車的票已賣完,請明天再來,謝謝合作!\n");
}
else printf("對不起,今天的這趟車已發出,請明天再來,謝謝合作!\n");

printf("班次\t發車時間\t起點\t終點\t行車時間(小時)\t額定載量\t已定票人數\n");
printf("%d\t%d:%d\t\t",car[i-1].SerialNumber,car[i-1].SetOut.hour,car[i-1].SetOut.minutes);
printf("%s\t%s\t\t%.1f\t %d\t\t%d\n",car[i-1].DeparturePoint,car[i-1].TerminalPoint,car[i-1].LastTime,car[i-1].FixNumber,car[i-1].FixedNumber);
//printf("按任意鍵回主菜單......\n");
//getchar();getchar();
}
void TicketDelete(void)
{
int i;
printf("請輸入要退購的車票的班次:");
scanf("%d",&i);
if(i<0||i>RecordNumber)
{
printf("對不起,今天沒有這趟車,無法完成退票.謝謝使用!\n");
getchar();
//getchar();
TicketManagement();
getchar();
}
time_t tval;
struct tm *now;
tval = time(NULL);
now = localtime(&tval);
if((now->tm_hour==car[i].SetOut.hour&&now->tm_min<car[i].SetOut.minutes)||(now->tm_hour<car[i].SetOut.hour))
{
if(car[i].FixedNumber>=1)
{
car[i].FixedNumber--;
printf("退訂車票成功,謝謝使用!\n");
}
else printf("對不起,今天的這趟車的票尚未賣出,無法完成退票!\n");
}
else printf("對不起,今天的這趟車已發出,無法完成退票!\n");

printf("班次\t發車時間\t起點\t終點\t行車時間(小時)\t額定載量\t已定票人數\n");
printf("%d\t%d:%d\t\t",car[i-1].SerialNumber,car[i-1].SetOut.hour,car[i-1].SetOut.minutes);
printf("%s\t%s\t\t%.1f\t %d\t\t%d\n",car[i-1].DeparturePoint,car[i-1].TerminalPoint,car[i-1].LastTime,car[i-1].FixNumber,car[i-1].FixedNumber);
getchar();//getchar();
}
void exit(void)
{
printf("\n\n*********************謝謝使用本系統,歡迎下次繼續使用***********************\n");
exit(0);
}

熱點內容
內置存儲卡可以拆嗎 發布:2025-05-18 04:16:35 瀏覽:333
編譯原理課時設置 發布:2025-05-18 04:13:28 瀏覽:374
linux中進入ip地址伺服器 發布:2025-05-18 04:11:21 瀏覽:609
java用什麼軟體寫 發布:2025-05-18 03:56:19 瀏覽:30
linux配置vim編譯c 發布:2025-05-18 03:55:07 瀏覽:105
砸百鬼腳本 發布:2025-05-18 03:53:34 瀏覽:940
安卓手機如何拍視頻和蘋果一樣 發布:2025-05-18 03:40:47 瀏覽:736
為什麼安卓手機連不上蘋果7熱點 發布:2025-05-18 03:40:13 瀏覽:800
網卡訪問 發布:2025-05-18 03:35:04 瀏覽:507
接收和發送伺服器地址 發布:2025-05-18 03:33:48 瀏覽:369