|
|
AI發(fā)展超速,發(fā)展人類跟不上節(jié)拍怎么辦 | |
智能科學大會集合全球頂尖科學家與資深專家,超速探討如何構建全球AI監(jiān)管體系 ? 人工智能(AI)為人類社會按下了加速鍵。人類新研究、上節(jié)新技術、拍辦新產(chǎn)品,新聞方方面面都在飛速更新。科學然而,發(fā)展假如AI發(fā)展過快,超速人類跟不上節(jié)拍怎么辦? 昨天舉行的人類2024年世界頂尖科學家論壇智能科學大會上,國內(nèi)外專家學者圍繞“為人類永續(xù)發(fā)展制定科學的上節(jié)AI治理框架”發(fā)表真知灼見。其中有一種聲音格外令人警醒,拍辦那就是新聞:人類把人工智能帶到這個已知的世界,但決不能讓人工智能把人類引向無法掌控的科學未知世界,否則后果不堪設想。發(fā)展 構建AI驅動的科研基礎設施 學術研究的深入,將人工智能不斷推向新的高度,而層出不窮的人工智能工具,也正推動科學研究不斷邁上新臺階。 中國科學院院士、北京科學智能研究院院長、北京大學國際機器學習研究中心主任鄂維南指出,在傳統(tǒng)科學研究中,理論建模與模擬的一大難處在于“維數(shù)災難”,即在高維度數(shù)據(jù)空間中,數(shù)據(jù)分析和處理將異常艱難。而今,深度學習技術提供了解決辦法。比如,研究人員可以對包含數(shù)十億個原子的系統(tǒng)進行具有量子力學精度的分子動力學模擬。這項成果讓鄂維南在2020年榮獲素有“超算界諾貝爾獎”之稱的美國計算機協(xié)會ACM戈登貝爾獎。 鄂維南表示,科研所需的三大基本方法或資源是理論、實驗和科學文獻。人工智能的興起,在這三方面引起了天翻地覆的改變,科學研究的方式也隨之迭代。大語言模型和AI數(shù)據(jù)庫的出現(xiàn)使研究人員能夠更高效、更智慧地運用現(xiàn)成的知識;分子動力學、量子多體、密度泛函理論等重要理論工具的背后,是基于AI的算法;而智能化的下一代實驗設備將大幅提升數(shù)據(jù)收集的效率和精度。 鄂維南說,我們正在經(jīng)歷一場科研范式變革,基于人工智能的一系列工具將顛覆傳統(tǒng)科研模式。為此,我們需要準備好“AI驅動的基礎設施”,需要將“作坊式”的科研模式切換到“安卓式”,即開發(fā)一些大平臺,以平臺為基礎,針對具體問題搭建應用,并針對具體的應用場景構建垂直整合的團隊。 科研領域的范式變革正在不斷轉化為成果。本屆智能科學大會圍繞智能科學前沿應用領域首次推出“科技創(chuàng)新卓越案例研討”,探討數(shù)字化與AI公司及機構的創(chuàng)新案例。 會上,賽諾菲高級副總裁、臨床科學與運營全球負責人萊昂內(nèi)爾·巴斯克萊斯介紹,AI已經(jīng)在疾病生物學、藥物研發(fā)、臨床試驗等各環(huán)節(jié)開始賦能。比如公司將AI與自動化結合,加速小分子藥物的發(fā)現(xiàn);開發(fā)mRNA大語言模型CodonBERT,以千萬mRNA序列為訓練數(shù)據(jù),用于mRNA疫苗候選的表達預測;開發(fā)生成式AI系統(tǒng),用于生成臨床研究報告,大幅提升效率,縮短藥品研發(fā)周期。 英矽智能也帶來了名為PreciousGPT的大語言模型。公司創(chuàng)始人兼首席執(zhí)行官亞歷克斯·扎沃隆科夫表示,這款模型可用于產(chǎn)生對生物系統(tǒng)有一定影響的化合物、模擬臨床研究、生成合成患者、對組學實驗的結果作注釋,以及將化合物特性類推到新領域。 算法設計不能一味“爭強” 人工智能引領的這場輻射全社會、影響各行業(yè)的變革,也引起了不少專家學者的警惕。 2007年圖靈獎得主、國際嵌入式系統(tǒng)研究中心Verimag實驗室名譽研究主任、南方科技大學斯發(fā)基斯可信自主系統(tǒng)研究院院長約瑟夫·斯發(fā)基斯,談到了AI系統(tǒng)的風險評估與管控。他認為,人工智能的風險有兩種:技術風險與人為風險。前者包括算法需求的不完整性、算法設計的缺陷,以及算法部署時可能面臨的外部環(huán)境威脅。后者又細分為兩種,客戶或投資方對AI系統(tǒng)提出的目標或需求可能不合法或不道德,用戶也可能將系統(tǒng)用于歪門邪道。 對此,斯發(fā)基斯主張,應針對算法設計者和使用者的人為風險以及算法設計部署階段的技術風險,分別制定相應對策。 他認為,人類尚不可以對人工智能報以百分百的信任,因為除了技術特性外,AI系統(tǒng)還具有“主觀特性”,所以需要向人類價值觀對齊,具備公平性、可靠性、安全性、隱私性、包容性、透明性等特征。然而,由于目前并沒有針對此類特性的嚴格認證方法,所以難以全面嚴謹?shù)卦u估AI風險。 2024頂科協(xié)獎“智能科學或數(shù)學獎”得主、康奈爾大學計算機科學和信息科學講席教授喬恩·克萊因伯格指出,當前人工智能發(fā)展存在三個風險點:一是人類自身的排外偏見會導致算法與生俱來的偏見,進而引發(fā)人類社會的一系列混亂。 二是受到經(jīng)濟激勵的影響,人們在設計算法時容易陷入“單作”的狀態(tài)。這個概念借用自農(nóng)業(yè)。假如一片農(nóng)田為了經(jīng)濟效益而只種植一種作物,那么只需一種病原體就能消滅一整片農(nóng)田。同樣的,“單作”算法也會“引火上身”,讓惡意軟件更加有的放矢。當外在條件或宏觀環(huán)境發(fā)生變化時,“單作”算法還可能觸發(fā)多米諾骨牌效應,引起連鎖性災難。 三是人類在面對超越人類的AI系統(tǒng)時,認知上的落后會帶來麻煩。在和此類AI系統(tǒng)開展合作時,控制權往往不在人類自己手里。但假如人工智能突然把控制權交了出來,那么人類就可能犯下嚴重錯誤,因為AI知道該怎么做,而人類未必。 所以克萊因伯格認為,在設計時既要追求算法的強大,也要注意,萬一到了不得不由人類掌控局面的時候,事態(tài)不能發(fā)展到失控的地步。 特別聲明:本文轉載僅僅是出于傳播信息的需要,并不意味著代表本網(wǎng)站觀點或證實其內(nèi)容的真實性;如其他媒體、網(wǎng)站或個人從本網(wǎng)站轉載使用,須保留本網(wǎng)站注明的“來源”,并自負版權等法律責任;作者如果不希望被轉載或者聯(lián)系轉載稿費等事宜,請與我們接洽。 |