學寶教育旗下公務員考試網站
網站地圖     設為首頁     加入收藏
當前位置:主頁  >> 試題中心  >> 綜合   
綜合
2019上半年事業(yè)單位聯(lián)考《綜合應用能力》C類真題及答案
http://www.3269787.com       2019-05-20      來源:浙江公務員考試網
【字體: 】              

  2019上半年事業(yè)單位聯(lián)考C類《綜合應用能力》真題在此發(fā)布。本套2019上半年事業(yè)單位聯(lián)考C類《綜合應用能力》真題來自考生回憶,由公考通整理。


  >>> 點擊下載PDF打印版(含參考答案,查看答案解析請下載PDF版)


  2019年上半年全國事業(yè)單位聯(lián)考C類《綜合應用能力》真題


  材料一


  1997年,國際象棋大師加里·卡斯帕羅夫敗給了電腦“深藍”;2016年,谷歌人工智能AlphaGo又戰(zhàn)勝了韓國棋手李世石,這標志著人工智能終于征服了它在棋類比賽中最后的弱項——圍棋,谷歌公司的DeepMind團隊比預期提前了整整10年達到了既定目標。


  對計算機來說,圍棋并不是因為其規(guī)則比國際象棋復雜而難以征服——與此完全相反,圍棋規(guī)則更簡單,它其實只有一種棋子,對弈的雙方輪流把黑色和白色的棋子放到一個19×19的正方形棋盤中,落下的棋子就不能再移動了,只會在被對方棋子包圍時被提走。到了棋局結束時,占據(jù)棋盤面積較多的一方為勝者。


  圍棋的規(guī)則如此簡單,但對于計算機來說卻又異常復雜,原因在于圍棋的步數(shù)非常多,而且每一步的可能下法也非常多。以國際象棋作對比,國際象棋每一步平均約有35種不同的可能走法,一般情況下,多數(shù)棋局會在80步之內結束。圍棋棋盤共有361個落子點,雙方交替落子,整個棋局的總排列組合數(shù)共有約10171種可能性,這遠遠超過了宇宙中的原子總數(shù)——1080!


  對于結構簡單的棋類游戲,計算機程序開發(fā)人員可以使用所謂的“暴力”方法,再輔以一些技巧,來尋找對弈策略,也就是對余下可能出現(xiàn)的所有盤面都進行嘗試并給予評價,從而找出最優(yōu)的走法。這種對整棵博弈樹進行窮舉搜索的策略對計算能力要求很高,對圍棋或者象棋程序來說是非常困難的,尤其是圍棋,從技術上來講目前不可能做到。


  “蒙特卡羅樹搜索”是一種基于蒙特卡羅算法的啟發(fā)式搜索策略,能夠根據(jù)對搜索空間的隨機抽樣來擴大搜索樹,從而分析圍棋這類游戲中每一步棋應該怎么走才能夠創(chuàng)造最好機會。舉例來說,假如筐里有100個蘋果,每次閉著眼拿出1個,最終要挑出最大的1個,于是先隨機拿1個,再隨機拿1個跟它比,留下大的,再隨機拿1個……每拿一次,留下的蘋果都至少不比上次的小,拿的次數(shù)越多,挑出的蘋果就越大。但除非拿100次,否則無法肯定挑出了最大的。這個挑蘋果的方法,就屬于蒙特卡羅算法。雖然“蒙特卡羅樹搜索”在此前一些弈棋程序中也有采用,在相對較小的棋盤中也能很好地發(fā)揮作用,但在正規(guī)的全尺寸棋盤上,這種方法仍然存在相當大的缺陷,因為涉及的搜索樹還是太大了。


  AlphaGo人工智能程序中最新穎的技術當屬它獲取知識的方式——深度學習。AlphaGo 借助兩個深度卷積神經網絡(價值網絡和策略網絡)自主地進行新知識的學習。深度卷積神經網絡使用很多層的神經元,將其堆疊在一起,用于生成圖片逐漸抽象的、局部的表征。對圖像分析得越細,利用的神經網絡層就越多。AlphaGo也采取了類似的架構,將圍棋模盤上的盤面視為19×19的圖片輸入,然后通過卷積層來表征盤面。這樣,兩個深度卷積神經網絡中的價值網絡用于評估盤面,策略網絡則用于采樣動作。


  在深度學習的第一階段——策略網絡的有監(jiān)督學習(即從中   I   中學習)階段,擁有13層神經網絡的AlphaGo借助圍棋數(shù)據(jù)庫KGS中存儲的3000萬份對弈棋譜進行初步學習。這3000萬份棋譜樣本可以用a、b進行統(tǒng)計。a是一個二維棋局,把a輸入到一個卷積神經網絡進行分類,分類的目標就是落子向量A。通過不斷的訓練,盡可能讓計算機得到的向量A接近人類高手的落子結果b,這樣就形成了一個模擬人類下圍棋的神經網絡,然后得出一個下棋函數(shù)F_go()。當盤面走到任何一種情形的時候,AlphaGo都可以通過調用函數(shù)F_go()計算的結果來得到最佳的落子結果b可能的概率分布,并依據(jù)這個概率來挑選下一步的動作。在第二階段——策略網絡的強化學習(即從   Ⅱ   中學習)階段,AlphaGo開始結合蒙特卡羅樹搜索,不再機械地調用函數(shù)庫,而類似于一種人類進化的過程:AlphaGo會和自己的老版本對弈。即,先使用F_go(1)和F_go(1)對弈,得到了一定量的新棋譜,將這些新棋譜加入到訓練集當中,訓練出新的F_go(2),再使用F_go(2)和F_go(1)對弈,以此類推,這樣就可以得到勝率更高的F_go(n)。這樣,AlphaGo就可以不斷改善它在第一階段學到的知識。在第三階段——價值網絡的強化學習階段,AlphaGo可以根據(jù)之前獲得的學習經驗得出估值函數(shù)v(s),用于預測策略網絡自我對抗時棋盤盤面s的結果。最后,則是將F_ go()、v(s)以及蒙特卡羅樹搜索三者相互配合,使用F_ go()作為初始分開局,每局選擇分數(shù)最高的方案落子,同時調用v(s)在比賽中做出正確的判斷。


  這就是AlphaGo給圍棋帶來的新搜索算法。它創(chuàng)新性地將蒙特卡羅模擬和價值網絡、策略網絡結合起來訓練深度神經網絡。這樣價值網絡和策略網絡相當于AlphaGo 的兩個大腦,策略網絡負責在當前局面下判斷“最好的”下一步,可以理解為落子選擇器;價值網絡負責評估整體盤面的優(yōu)劣,淘汰掉不值得深入計算的走法,協(xié)助前者提高運算效率,可以理解為棋局評估器,通過兩個“大腦”各自選擇的平均值,AlphaGo最終決定怎樣落子勝算最大。通過這種搜索算法,AlphaGo和其他圍棋程序比賽的勝率達到了99.8%。


  AlphaGo的飛快成長是任何一個圍棋世界冠軍都無法企及的。隨著計算機性能的不斷增強,遍歷蒙特卡羅搜索樹將進一步提高命中概率。大量的計算機專家,配合大量的世界圍棋高手,在算法上不斷革新,再配合不斷成長的超級計算能力,不斷地從失敗走向成功,最終打造出圍棋人工智能。在AlphaGo擊敗李世石后,歐洲圍棋冠軍樊麾說了這么一句話:“這是一個團隊的集體智慧用科技的方式戰(zhàn)勝了人類數(shù)千年的經驗積累?!比撕蜋C器其實沒有站在對立面上,“是人類戰(zhàn)勝了人類”。


  材料二


  上世紀80年代,M市高溫首日經常出現(xiàn)在6月中下旬至7月,到21世紀,往往還沒到6月中句,M市氣溫就會躥至35℃以上,僅有兩年的高溫日到7月才出現(xiàn),1981年以來,M市6-8月高溫日出現(xiàn)越來越頻繁,可見,M市首個高溫日的出現(xiàn)時間越來越早,21世紀后每年首個高溫日出現(xiàn)時間肯定早于上世紀80年代。


  在M市,一年中最熱的時候莫過于7月,1997年以來,高溫日數(shù)逐漸增多。截至2018年7月中旬,2018年M市高于35℃的日子已有6個,比往年7月的平均數(shù)還多2個。可以確定,這一年M市7月的高溫日總數(shù)將是1997年以來最多的一年。另外據(jù)統(tǒng)計,M市7月的高溫日整體多于6月和8月,照此趨勢,2018年8月的高溫日可能不會超過7月。


  近30年來,M市7月的夜溫越來越高,1999年以來7月的夜間最低氣溫普遍超過23℃,所以2018年7月下旬M市夜間的最低氣溫不會低于23℃。


  同樣近30年來,M市6-8月出現(xiàn)持續(xù)3天以上高溫的總次數(shù)為27次,20次都是在2000年以后出現(xiàn)的,2018年6月和7月,M市已經分別出現(xiàn)了一次持續(xù)3天以上的高溫。既然2018年M市出現(xiàn)3天以上持續(xù)高溫的次數(shù)已經超過了近30年來的平均值,那么8月份M市不會出現(xiàn)3天以上的持續(xù)高溫天氣。


  30年來,M市“城市熱島效應”愈發(fā)顯著,城區(qū)與郊區(qū)的平均氣溫差值越來越大。2018年7月M市各區(qū)平均氣溫偏高,均超過26.7℃。其中市中心2個城區(qū)氣溫最高,其次是環(huán)市中心的其他4個城區(qū),2個郊區(qū)的氣溫最低。(注:高溫日為日最高氣溫≥35℃)


  材料三


  材料(一)細菌學家弗萊明的實驗室里擺放著許多有毒細菌培養(yǎng)皿。多年來,


  他試驗了各種藥劑,力圖找到一種能殺滅這些細菌的理想藥品,但一直未能成功。1928年的一個早晨,他在檢查細菌的變化時,突然發(fā)現(xiàn)一個葡萄狀球菌的培養(yǎng)皿里長出了一團青色霉菌,并且其周圍原來生長著的葡萄狀球菌消失了,他進一步研究發(fā)現(xiàn),這種青色霉菌對其他多種有毒細菌同樣具有殺滅作用,他把這種青色霉菌分泌的殺菌物質稱為青霉素。


  材料(二)1870年,英國科學家克魯克斯在做陰極射線管放電實驗時,意外發(fā)現(xiàn)管子附近的照相底片有模糊陰影,他判斷是照相的干板有毛病;1890年美國科學家古德斯柏德在做相同的實驗時也發(fā)現(xiàn)同樣的現(xiàn)象,他歸因于沖洗藥水和沖洗技術有問題;到了1892年,德國有些物理學家也觀察到這一現(xiàn)象,但當時他們的注意力都集中在研究陰極射線的性質上,對此并沒有警覺。直到1895年,這一奇特現(xiàn)象才被德國物理學家倫琴敏銳地抓住,他反復研究實驗,最終發(fā)現(xiàn)了X射線,他也因此獲得諾貝爾物理學獎。


  材料三:丹麥天文學家第谷三十年如一日觀測天象,記錄了750顆星相對位置的變化,糾正了以往星表中的錯誤。但第谷不善于對感性材料進行科學抽象和概括,終究未能揭示行星運動規(guī)律。臨終前,他把自已所有的材料交給了學生開普勒,要求他繼續(xù)研究行星運動的理論。起初,開普勒以第谷宇宙體系為基本框架來探討這個問題,但毫無所獲,于是轉而以哥白尼日心體系為基本框架展開研究。他精于理論思維和數(shù)學推導,根據(jù)老師留下的大量一手資料,最終發(fā)現(xiàn)了天體運動的三大定律,被譽為“天空立法者”。


  【問題】


  問題一


  科技文獻閱讀題:請認真閱讀文章,按照每道題的要求作答。(50分)


  根據(jù)材料一,回答下列問題:


  1.判斷題:請用2B鉛筆在答題卡相應的題號后填涂作答,正確的涂“A”,錯誤的涂“B”。


  (1)國際象棋的走法不超過35*80種。


 ?。?)結構簡單的棋類游戲可以通過對博弈樹的“暴力”窮舉搜索找出最優(yōu)走法。


 ?。?)傳統(tǒng)的計算機圍棋程序能夠完全尺寸棋盤的蒙特卡羅樹模擬并計算最大勝率。


 ?。?)函數(shù)F_go(n)比F_go(n-1)的勝率更高。


  2.填空題:請根據(jù)文意,分別填補Ⅰ、Ⅱ兩處缺項,沒空不超過6個字。


 ?、瘢?nbsp;  )  Ⅱ(   )


  3.多項選擇題:備選項中有兩個或兩個以上符合題意,請用2B鉛筆在答題卡相應的題號后填涂正確選項的序號,錯選、少選均不得分。


  (1)這篇文章開頭認為圍棋是人工智能在棋類游戲中最弱項的原因是:


  A.圍棋每一步可能的下法太多,無法使用窮舉搜索


  B.圍棋的規(guī)則對于計算機來說太復雜,無法理解


  C.單一的計算機神經網絡難以應對圍棋的搜索計算


  D.圍棋盤面局勢的評估缺乏現(xiàn)代就三家技術的支撐


 ?。?)下列關于AlphaGo“兩個大腦”的說法正確的是


  A.價值網絡負責評估盤面優(yōu)劣


  B.策略網絡負責判斷走法優(yōu)劣


  C.策略網絡能夠協(xié)助價值網絡提高運算效率


  D.價值網絡和策略網絡共同確定最終的落子位置


  4.比較分析AlphaGo新算法和蒙特卡羅樹搜索的不同之處。


  要求:概括準確,層次清晰,文字簡潔,不超過250字。


  5.請為本文寫一篇內容摘要


  要求:全面、準確,條理清晰,不超過350字。


  問題二


  論證評價題:閱讀給定材料二,指出其中存在的4處論證錯誤并分別說明理由。請在答題卡上按序號分條作答,每一條先將論證錯誤寫在“A”處(不超過75字),再將相應理由寫在“B”處(不超過50字)。(40分)


  問題三


  材料作文題:閱讀下列材料,按要求作答。(60分)


  參考給定材料三,以“科學發(fā)現(xiàn)并不偶然”為話題,自選角度,自擬題目,寫一篇議論文。


  要求:觀點鮮明、論證充分,條理清晰,語言流暢,字數(shù)在800~1000字。



?
互動消息