2018年北京高考語文真題及答案解析
簡答題(綜合題) (本大題共8小題,每小題____分,共____分。)
一、本大題共7小題,共23分。
閱讀下面的材料,完成1-7題。
材料一
當前,科學(xué)技術(shù)的巨大進步推動了人工智能的迅猛發(fā)展,人工智能成了全球產(chǎn)業(yè)界、學(xué)術(shù)界的高頻詞。有研究者將人工智能定義為:____
人工智能并不是新鮮事物。20世紀中葉,“機器思維”就已出現(xiàn)在這個世界上。1936年,英國數(shù)學(xué)家阿蘭·麥席森·圖靈從模擬人類思考和證明的過程入手,提出利用機器執(zhí)行邏輯代碼來模擬人類的各種計算和邏輯思維過程的設(shè)想。1950年,他發(fā)表了《計算機器與智能》一文,提出了判斷機器是否具有智能的標準,即“圖靈測試”。“圖靈測試”是指一臺機器如果能在5分鐘內(nèi)回答由人類測試者提出的一系列問題,且超過30%的回答讓測試者誤認為是人類所答,那么就可以認為這機器具有智能。
20世紀80年代,美國哲學(xué)家約翰.希爾勒教授用“中文房間”的思維實驗,表達了對“智能”的不同思考。一個不懂中文只會說英語的人被關(guān)在一個封閉的房間里,他只有鉛筆、紙張和一大本指導(dǎo)手冊,不時會有畫著陌生符號的紙張被遞進來。被測試者只能通過閱讀指導(dǎo)手冊找尋對應(yīng)指令來分析這些符號。之后,他向屋外的人交出一份同樣寫滿符號的的答卷。被測試者全程都不知道,其實這些紙上用來記錄問題和答案的符號是中文。他完全不懂中文,但他的回答是完全正確的。上述過程中,被測試者代表計算機,他所經(jīng)歷的也正是計算機的工作內(nèi)容,即遵循規(guī)則,操控符號!爸形姆块g”實驗說明,看起來完全智能的計算機程序其實根本不理解自身處理的各種信息。希爾勒認為,如果機器有“智能”,就意味著它具有理解能力。既然機器沒有理解能力,那么所謂的的“讓機器擁有人類智能”的說法就是無稽之談了。
在人工智能研究領(lǐng)域中,不同學(xué)派的科學(xué)家對“何為智能”的理解不盡相同。符號主義學(xué)派認為“智能”的實質(zhì)就是具體問題的求解能力,他們會為所設(shè)想的的智能機器規(guī)劃好不同的問題求解路徑,運營形式推理和數(shù)理邏輯的方法,讓計算機模仿人類思維進行決策和推理。聯(lián)結(jié)主義學(xué)派認為“智能”的實質(zhì)就是非智能部件相互作為的產(chǎn)物,在他們眼里人類也是一種機器,其智能來源于許多非智能但半自主的組成大腦的物質(zhì)間的相互作用。他們研究大腦的結(jié)構(gòu),讓計算機去模仿人類的大腦,并且用某種教學(xué)模型去重建一個簡化的神經(jīng)元網(wǎng)絡(luò)。行為主義學(xué)派認為“智能”的實質(zhì)是機器和人類的行為相似,研究人工智能應(yīng)該研究人類感知和行動的本能,而不是高級的邏輯推理,不解決基本問題就無法實現(xiàn)復(fù)雜的思維模擬。因而他們讓計算機模仿人的行為,建立人工智能系統(tǒng)。
時至今日,研究者們對“智能”的理解仍未形成共識。但是,正是對“何為智能”這個核心問題的不斷思考和解答,推動了人工智能技術(shù)在不同層面的發(fā)展。
(取材于譚營等人的文章)
材料二
2018年5月,谷歌Duplex人工智能語音技術(shù)(部分)通過了“圖靈測試”。這個消息進一步引發(fā)了人們對于人工智能的思考:當機器人越來越像人,我們應(yīng)該怎樣做?
在人工智能的開發(fā)過程中,設(shè)計者會遇到倫理問題的挑戰(zhàn)。比如著名的“隧道問題”:一輛自動駕駛的汽車在通過黑暗的隧道時前方突然出現(xiàn)一個小孩,面對撞向隧道還是撞向行人這種進退維谷的突發(fā)情況,自動駕駛汽車會怎么做?
自動駕駛汽車依靠的是人工智能“大腦”,它會從以往案例數(shù)據(jù)庫中選取一個與當前情景較相似的案例,然后根據(jù)所選案例來實施本次決策。當遇到完全陌生的情景時,汽車仍然會進行搜索,即在“大腦”中迅速搜索與當前場景相似度大于某個固定值的過往場景,形成與之對應(yīng)的決斷。如果計算機搜索出來的場景相似度小于那個值,自動駕駛汽車將隨機選擇一種方式處理。
那么,如果自動駕駛汽車傷害了人類,誰來負責(zé)呢?有的學(xué)者認為不能將人工智能體作為行為主體對待。因為“主體”概念有一系列限定,譬如具有反思能力、主觀判斷能力以及情感和價值目標設(shè)定等。人工智能不是嚴格意義上的“智能”,它所表現(xiàn)出來智能以及對人類社會道德行為規(guī)范的掌握和遵循,是基于大數(shù)據(jù)學(xué)習(xí)的結(jié)果,和人類主觀意識有本質(zhì)的不同。因此,人工智能體不可以作為社會責(zé)任的承擔(dān)者。以上述自動駕駛汽車為例,究竟由人工智能開發(fā)者負責(zé),還是由汽車公司負責(zé)甚至任何的第三方負責(zé),或者各方在何種情形下如何分擔(dān)責(zé)任,應(yīng)當在相關(guān)人工智能的法律法規(guī)框架下通過制訂商業(yè)合同進行約定。
人工智能在未來還可能產(chǎn)生的一個問題就是“奇點(singularity)”。所謂“奇點”就是指機器智能有朝一日超越人類智能,那時機器將能夠進行自我編程而變得更加智能,它們也將持續(xù)設(shè)計更加先進的機器,直到將人類遠遠甩開。盡管研究者對“奇點”到來的時間和可能性還有爭議,但是不管“奇點”時刻能否真的到來,在技術(shù)不斷完善的過程中,我們都要小心被人工智能“異化”。在我們訓(xùn)練人工智能的同時,有可能也被人工智能“訓(xùn)練”了。我們的一舉一動、生活愛好都將被人工智能塑造,人工智能在無形中暗暗決定了我們的思維方式,當我們還在為自己的自由意志而驕傲的時候,也許已不知不覺地淪為了數(shù)據(jù)的囚徒。
面對人工智能可能帶來的種種沖擊,上世紀50年代美國科幻小說家阿西莫夫提出的機器人三大定律,今天對我們依然有借鑒意義。這三大定律是:機器人不得傷害人,也不得見到人受傷害而袖手旁觀;機器人應(yīng)服從人的一切命令,但不得違反第一定律;機器人應(yīng)保護自身安全,但不得違反第一、第二定律。歸根結(jié)底,人是智能行為的總開關(guān)。人工智能的開發(fā)者應(yīng)該始終把對社會負責(zé)的原則,放在對技術(shù)進步的渴望之上。人類完全可以做到未雨綢繆,應(yīng)對人工智能可能帶來的威脅。
(取材于芮喆等人的文章)
1.下列對材料一第一段“人工智能”定義的理解,正確的一項是(3分)
A. 人工智能是對一種智能體的描述和構(gòu)建。
B. 人工智能是能感知行動的智能體。
C. 人工智能是計算機對環(huán)境的描述和構(gòu)建。
D. 人工智能是對計算機思維的實現(xiàn)。
2.根據(jù)材料一,下列說法正確的一項是(3分)
A. 數(shù)學(xué)家圖靈提出了用機器來模擬人類行為的設(shè)想。
B. “圖靈測試”提出了機器是否具有智能的判斷標準。
C. “中文房間”實驗是為了證明計算機無法理解中文。
D. 圖靈和希爾勒全都認為計算機是可以擁有智能的。
3.根本材料一,下列理解不符合文意的一項是(3分)
A. 符號主義學(xué)派認為“智能”表現(xiàn)為解決具體問題的思維能力。
B. 聯(lián)結(jié)主義學(xué)派和符號主義學(xué)派都認為應(yīng)研究人類大腦的結(jié)構(gòu)。
C. 行為主義學(xué)派主張應(yīng)把人類感知和行動的本能作為研究的內(nèi)容。
D. 三個學(xué)派對“智能”的理解不同,因而他們的研究思路也不同。
4.下列對材料一、材料二中加點詞語的解說,不正確的一項是(3分)
A. 無稽之談:沒有根據(jù)的言論;甲C。
B. 進退維谷:進退兩難,很難做出選擇。
C. 袖手旁觀:置身事外,不提供幫助。
D. 未雨綢繆:比喻雖然事情不會發(fā)生也要做好準備。
5.根據(jù)材料二,下列表述符合文意的一項是(3分)
A. 自動駕駛汽車能夠根據(jù)情景的相似度進行決策。
B. 人工智能體的“智能”和人類的主觀意識相同。
C. 人們認為人工智能的“奇點”總有一天會到來。
D. 在任何情況下,機器都應(yīng)該服從人的一切命令。
6.根據(jù)材料二,下列現(xiàn)象屬于被人工智能“異化”的是(3分)
A. 經(jīng)常使用“健康手環(huán)”來檢測自己的運動健康狀況。
B. 工作繁忙無暇做家務(wù),購買智能產(chǎn)品幫助清掃房間。
C. 出行全依賴手機導(dǎo)航,喪失了應(yīng)有的路線識別能力。
D. 從事某一職業(yè)過久,習(xí)慣了用行業(yè)思維來思考問題。
7.根據(jù)材料一、材料二,簡要說明人類對人工智能的認識是如何不斷深化的。(5分)
考后關(guān)注:
2018高考答案 | 2018高考真題 | 2018高考作文 | 滿分作文
2018北京高考語文答案 | 2018北京高考數(shù)學(xué)答案 | 2018北京高考英語答案
2018北京高考志愿填報 | 2018北京高考成績查詢 | 2018北京高考分數(shù)線
加入2018年高考考后對答案、查分、志愿填報、錄取查詢交流群:779466571(點擊加群)或掃下面二維碼加入群聊