智能科學大會集合全球頂尖科學家與資深專家,超速探討如何構建全球AI監管體系 ? 人工智能(AI)為人類社會按下了加速鍵。人類新研究、上節新技術、拍辦新產品,新聞方方面面都在飛速更新??茖W然而,發展假如AI發展過快,超速人類跟不上節拍怎么辦? 昨天舉行的人類2024年世界頂尖科學家論壇智能科學大會上,國內外專家學者圍繞“為人類永續發展制定科學的上節AI治理框架”發表真知灼見。其中有一種聲音格外令人警醒,拍辦那就是新聞:人類把人工智能帶到這個已知的世界,但決不能讓人工智能把人類引向無法掌控的科學未知世界,否則后果不堪設想。發展 構建AI驅動的科研基礎設施 學術研究的深入,將人工智能不斷推向新的高度,而層出不窮的人工智能工具,也正推動科學研究不斷邁上新臺階。 中國科學院院士、北京科學智能研究院院長、北京大學國際機器學習研究中心主任鄂維南指出,在傳統科學研究中,理論建模與模擬的一大難處在于“維數災難”,即在高維度數據空間中,數據分析和處理將異常艱難。而今,深度學習技術提供了解決辦法。比如,研究人員可以對包含數十億個原子的系統進行具有量子力學精度的分子動力學模擬。這項成果讓鄂維南在2020年榮獲素有“超算界諾貝爾獎”之稱的美國計算機協會ACM戈登貝爾獎。 鄂維南表示,科研所需的三大基本方法或資源是理論、實驗和科學文獻。人工智能的興起,在這三方面引起了天翻地覆的改變,科學研究的方式也隨之迭代。大語言模型和AI數據庫的出現使研究人員能夠更高效、更智慧地運用現成的知識;分子動力學、量子多體、密度泛函理論等重要理論工具的背后,是基于AI的算法;而智能化的下一代實驗設備將大幅提升數據收集的效率和精度。 鄂維南說,我們正在經歷一場科研范式變革,基于人工智能的一系列工具將顛覆傳統科研模式。為此,我們需要準備好“AI驅動的基礎設施”,需要將“作坊式”的科研模式切換到“安卓式”,即開發一些大平臺,以平臺為基礎,針對具體問題搭建應用,并針對具體的應用場景構建垂直整合的團隊。 科研領域的范式變革正在不斷轉化為成果。本屆智能科學大會圍繞智能科學前沿應用領域首次推出“科技創新卓越案例研討”,探討數字化與AI公司及機構的創新案例。 會上,賽諾菲高級副總裁、臨床科學與運營全球負責人萊昂內爾·巴斯克萊斯介紹,AI已經在疾病生物學、藥物研發、臨床試驗等各環節開始賦能。比如公司將AI與自動化結合,加速小分子藥物的發現;開發mRNA大語言模型CodonBERT,以千萬mRNA序列為訓練數據,用于mRNA疫苗候選的表達預測;開發生成式AI系統,用于生成臨床研究報告,大幅提升效率,縮短藥品研發周期。 英矽智能也帶來了名為PreciousGPT的大語言模型。公司創始人兼首席執行官亞歷克斯·扎沃隆科夫表示,這款模型可用于產生對生物系統有一定影響的化合物、模擬臨床研究、生成合成患者、對組學實驗的結果作注釋,以及將化合物特性類推到新領域。 算法設計不能一味“爭強” 人工智能引領的這場輻射全社會、影響各行業的變革,也引起了不少專家學者的警惕。 2007年圖靈獎得主、國際嵌入式系統研究中心Verimag實驗室名譽研究主任、南方科技大學斯發基斯可信自主系統研究院院長約瑟夫·斯發基斯,談到了AI系統的風險評估與管控。他認為,人工智能的風險有兩種:技術風險與人為風險。前者包括算法需求的不完整性、算法設計的缺陷,以及算法部署時可能面臨的外部環境威脅。后者又細分為兩種,客戶或投資方對AI系統提出的目標或需求可能不合法或不道德,用戶也可能將系統用于歪門邪道。 對此,斯發基斯主張,應針對算法設計者和使用者的人為風險以及算法設計部署階段的技術風險,分別制定相應對策。 他認為,人類尚不可以對人工智能報以百分百的信任,因為除了技術特性外,AI系統還具有“主觀特性”,所以需要向人類價值觀對齊,具備公平性、可靠性、安全性、隱私性、包容性、透明性等特征。然而,由于目前并沒有針對此類特性的嚴格認證方法,所以難以全面嚴謹地評估AI風險。 2024頂科協獎“智能科學或數學獎”得主、康奈爾大學計算機科學和信息科學講席教授喬恩·克萊因伯格指出,當前人工智能發展存在三個風險點:一是人類自身的排外偏見會導致算法與生俱來的偏見,進而引發人類社會的一系列混亂。 二是受到經濟激勵的影響,人們在設計算法時容易陷入“單作”的狀態。這個概念借用自農業。假如一片農田為了經濟效益而只種植一種作物,那么只需一種病原體就能消滅一整片農田。同樣的,“單作”算法也會“引火上身”,讓惡意軟件更加有的放矢。當外在條件或宏觀環境發生變化時,“單作”算法還可能觸發多米諾骨牌效應,引起連鎖性災難。 三是人類在面對超越人類的AI系統時,認知上的落后會帶來麻煩。在和此類AI系統開展合作時,控制權往往不在人類自己手里。但假如人工智能突然把控制權交了出來,那么人類就可能犯下嚴重錯誤,因為AI知道該怎么做,而人類未必。 所以克萊因伯格認為,在設計時既要追求算法的強大,也要注意,萬一到了不得不由人類掌控局面的時候,事態不能發展到失控的地步。 特別聲明:本文轉載僅僅是出于傳播信息的需要,并不意味著代表本網站觀點或證實其內容的真實性;如其他媒體、網站或個人從本網站轉載使用,須保留本網站注明的“來源”,并自負版權等法律責任;作者如果不希望被轉載或者聯系轉載稿費等事宜,請與我們接洽。 |