<b id="nqvhe"><source id="nqvhe"><menu id="nqvhe"></menu></source></b>

    1. <source id="nqvhe"></source><xmp id="nqvhe"></xmp>
      1. <b id="nqvhe"></b>
        <u id="nqvhe"></u>
      2. <b id="nqvhe"><address id="nqvhe"><ol id="nqvhe"></ol></address></b>
      3. <source id="nqvhe"></source>
        <xmp id="nqvhe"><video id="nqvhe"></video></xmp>
          <b id="nqvhe"></b>
          <u id="nqvhe"></u>
        1. 機遇如何把握,挑戰何以應對

          科學技術,既是人工智能(AI)理論和技術發展的源頭和基礎,也是人工智能的使用者、被影響者。近期,國務院印發《關于深入實施“人工智能+”行動的意見》。其中,“人工智能+”科學技術,列在加快實施重點行動的第一位。中國科學院院士張錦日前在本版撰文指出:AI for ScienceAI應用于科學研究領域)已成為當前推動科技創新“破繭成蝶”的重要支撐……不僅代表了AI應用領域的前沿,更成為推動AI自身核心能力升級、最終通往通用人工智能(AGI)的關鍵驅動力。

          “人工智能+”科學技術將給科技界帶來哪些機遇與挑戰?又該如何保證科技向善?本期,我們邀請多位專家談談他們的看法。

          AI正深刻地改變科研范式,成為科學發現與技術突破的重要驅動力。但不少科研人員和公眾對其產生了不同層面的擔憂。AI,究竟是科研的加速器,還是挑戰者?

          正視AI 是工具不是對手

          過去10年,AI技術以驚人的速度發展,并逐步滲透到人類生產和科學發現的方方面面。AI進入科學領域的方式非常廣泛,已經涌現出一系列具有代表性的成果和應用。例如,在蛋白質結構預測領域,AlphaFold的出現幾乎解決了生物學界長達半個世紀的“結構預測難題”,大幅度加快了藥物研發和分子生物學研究的進展。在醫療健康領域,除了醫學影像自動診斷,AI還被用于藥物靶點預測、臨床數據分析、個性化治療方案推薦,成為醫生和科研人員不可或缺的工具。

          這些例子表明,AI不僅是科研中的“助手”,更逐漸成為推動科學前沿的重要力量。過去可能需要十年甚至數十年才能攻克的難題,如今在AI的加持下有望在幾年甚至幾個月內得到突破。

          然而,面對突如其來的AI大模型時代,不少科研人員甚至普通大眾也產生了不同層面的擔憂。

          研究方向是否失去意義:一些原本被認為是可以長期研究的科學難題,可能被AI在短時間內攻克,從而讓研究者擔心自己的研究不再“有價值”。

          研究資源的不平衡:由于大模型訓練和運行需要巨大的算力和資金支持,很多課題組或中小機構難以參與其中,擔心被徹底邊緣化。

          傳統科研方法的“實效”:當AI方法能夠輕易超越傳統方法時,一些人擔心傳統科研方法不再被認可。

          生成式模型的幻覺問題:大模型在生成答案時可能會出現事實性錯誤,這在科學研究中可能造成誤導。

          社會就業的焦慮:有人擔心隨著AI接管大量工作任務,可能造成科研人員和技術人員大批失業。

          這些擔憂在一定程度上是合理的,但也需要全面、理性地分析。筆者認為,總體而言,AI對科學研究具有正面、積極的意義。

          AI會提升科研效率,這一點已經被廣泛接受,這里不再贅述。

          關于資源不平衡的問題,并非所有的研究都需要依賴大模型,小模型依舊有巨大的生命力。隨著技術的發展,輕量化模型、專用化模型不斷涌現,很多課題組即便資金有限,也能利用小模型在具體問題上發揮作用。這可以降低科研的門檻,給更多人“下場”研究的機會。

          關于科研方法的問題,傳統方法不應被完全拋棄。許多AI的設計靈感正來源于傳統的數學與物理方法。物理啟發、數學約束等思想在深度學習模型的設計中依然具有重要價值。這同時能解決人工智能的“幻覺”問題——將傳統科學方法與AI模型結合,可能孕育出更加穩健、可信的成果。

          生成式語言模型的幻覺問題,不應成為“人工智能+”科學技術的阻礙。科學發現始終是一個多環節、多驗證的過程,講求嚴謹與可驗證性。AI提出的結果只是一個參考,最終能否成立,還要經過實驗驗證、同行評議、臨床試驗等多重檢驗。例如,AI可以幫助發現一種可能具有抗癌作用的化合物,但在進入臨床前,仍需要大量的實驗驗證,最終是否使用也必須由醫生和監管機構綜合判斷。換句話說,AI是輔助而非決策者,只要人類把握住最終的決策權,就無需過度擔心幻覺問題。

          至于科學家會不會被AI取代,筆者認為,AI替代的往往是那些耗時耗力、重復性強的工作,例如大規模數據的清理與統計、冗長文獻的整理與初步分析等。這些工作過去需要投入大量人力,如今AI能夠快速完成,科研人員正好解放出更多時間和精力,專注于更具創造性、創新性的工作。目前來看,AI在原創性和真正的科學洞見上仍存在明顯不足——因為,科學發現不僅需要數據和計算,更需要問題意識、直覺判斷、跨學科聯想和價值選擇。這些能力是AI暫時無法完全替代的。因此,我們與其擔心“失業”,不如積極思考如何轉變角色,如何與AI協同工作,把AI當作增強人類智慧的工具,而不是競爭對手。

          毋庸置疑,AI正在重塑科學研究生態。它既帶來了前所未有的機遇,也引發了一些合理的擔憂。但從長遠看,AI的積極作用遠大于潛在風險。我們要做的就是,積極擁抱,探索如何與AI共同進步。

          ?探索更多AI實現路徑、率先布局未來技術,才能讓我們在包括“人工智能+”科學技術在內的各個領域搶占先機。那么,AI的未來在哪里?

          發展AI 融合人腦智慧

          2017年問世的Transformer架構(編者注:一種深度學習模型),被認為是目前人工智能大模型的技術基石。其基于簡單的神經元和復雜的網絡架構,在尺度定律的驅動下,通過增加網絡規模、算力資源和數據量提升模型智能水平,并取得了巨大成功。

          但這就是AI的未來嗎?我們是繼續沿著Transformer架構的道路不斷擴充參數規模,還是回過頭來,向這個世界上最精巧的智能系統——人類大腦,尋求啟發?

          當前學術界對此仍存在較大爭論。支持者,如諾貝爾物理學獎得主、深度學習之父杰弗里·辛頓,圖靈獎得主、紐約大學教授楊立昆等著名學者堅持神經科學是AI發展的重要靈感來源。杰弗里·辛頓曾明確表示,克服人工智能局限的關鍵在于建立計算機、科學和生物學之間的橋梁。反對者則認為,AI的重要成果并未受到神經科學機制的啟發,將來或許也不用。

          但是,單一路線的系統性風險不容忽視:其在效率、可解釋性等方面的內在局限,會沿技術棧被放大并傳導至所有下游應用,如Transformer架構在處理長序列時存在二次復雜度增長的問題,嚴重限制了其在長文本、科學計算等場景中的應用。科學家們有責任前瞻地回答這樣的問題:單純追求規模的增長是否能持續推動AI系統向更高階段發展?我們是否應該尋求其他突破性的研究方向,來進一步優化現有系統?

          在筆者看來,類腦計算,或許將成為未來AI的發展方向。

          人腦作為已知最高效的智能系統,以約20瓦的功耗支撐千億級神經元和千萬億級突觸的復雜動態網絡,其能效遠超現有任何AI系統。這種高效的信息處理機制,尤其是事件驅動、稀疏計算、多尺度動力學等特性,為構建下一代低功耗、高性能AI模型提供了寶貴借鑒。神經科學,尤其是其對人腦工作機制的研究,正為AI未來發展提供一條全新的路徑。

          然而,神經科學與AI技術之間存在一個明顯的鴻溝。從當前的研究來看,神經科學主要側重于精細的結構和生理細節,強調神經元之間的復雜連接以及大腦尺度的動力學,而AI技術則更注重抽象的結構和計算的高效性,尤其是在大規模并行計算方面。例如,GPU(圖形處理器)在處理大規模并行計算時,能夠實現高效的計算能力,但卻難以高效支持當前神經科學所關注的精細結構和神經元建模。這也就造成了神經科學和AI之間的鴻溝——當前AI模型往往難以將神經科學中的復雜結構融入進來,更遑論將其擴展到大規模的計算模型中。

          盡管關于未來AI實現路徑的爭議仍在,盡管存在這樣那樣的困難,但AI研究者們給出了選擇——腦科學與人工智能的結合已逐漸成為現實,各主要發達國家都把類腦計算、神經網絡等的研發,列為未來重點發展的領域。

          想在類腦計算領域占據領先地位,就要繼續強化前沿交叉研究,加強與神經科學、心理學、數學、計算機科學、量子科學等學科的交叉,拓展深化人工智能基礎理論研究范疇,推動下一代人工智能技術在基礎模型架構、高效學習范式和復雜認知推理等方面的突破。

          可喜的是,中國在這一方向上已經取得若干突破。以筆者所在的研究組為例,我們日前成功研發了類腦大模型“瞬悉1.0”(SpikingBrain)。經過測評,其在多個核心性能上實現了突破。首先,它在極低數據量下實現了高效訓練,顯著提升了長序列訓練效率。其次,它的推理效率得到數量級提升,特別是在超長序列處理上展現出顯著優勢。這使其在“人工智能+”場景下,如法律/醫學文檔分析、復雜多智能體模擬、腦機接口、高能粒子物理實驗等超長序列日常應用和科學任務建模場景等,具有顯著的潛在效率優勢。再次,它構建了國產自主可控的類腦大模型生態,支持將現有Transformer模型高效轉換為類腦脈沖架構。最后,它設計了多尺度稀疏機制,為低功耗的類腦大模型運行提供了有力支撐。

          沿著這個方向,我們或可找到一條融合神經元豐富動力學特性,具有生物合理性和計算高效性的神經網絡新路徑,構建新一代通用智能模型,從而探索腦科學與人工智能基礎模型架構之間的橋梁。

          AI不僅是“科研工具的革命”,更是“科研革命的工具”。那么,如何保證這把雙刃劍始終向善?

          使用AI 基于原則而非利益

          人工智能帶給我們的變革是全領域、全方位的,這個時代的人們,正在見證一場新的產業革命。我們面臨的問題之一,是如何讓這個被制造出來的未來既是友好的,也是體面的,這需要我們設定一些規則的“護城河”。因此,要加強對人工智能倫理的前瞻性研究——雖然不能一勞永逸地保證永遠正確,但至少可以為人工智能的有序發展提供一些可控的防御機制。那么,具體到科技領域,該做些什么準備呢?

          我們需要清醒地意識到,隨著科技的發展與技術迭代的加速,人工智能會展現出更多的機會與不確定性。在剛剛結束的2025世界人工智能大會上,諾貝爾物理學獎得主杰弗里·辛頓直言,AI已無法消除,人類所能做的只是:培養不會從人類手中奪權的“好AI”。

          在AI“軍備競賽”早已展開的當下,作為深度學習領域資深專家的辛頓對于人工智能略帶悲觀的論點,絕非危言聳聽。這里,我們要談到一個現象——技術脫域。所謂“技術脫域”現象,是指技術脫離人類的控制。這一點在AI上表現得極為明顯,GPT-4、AlphaGo等技術軟件是一個又一個黑盒子,輸出的信息與做出的決定,就是基于各種不透明而又極其復雜的微小信號鏈。

          面對新技術革命的到來,單純的悲觀與樂觀都于事無補,為人類共同的未來考慮,必須未雨綢繆設計一些規范來引領人工智能的發展。這其中,充滿困難與挑戰。

          比如,倫理規則的滯后性。倫理規則制定的理想狀態是先于技術迭代,但遺憾的是,人類社會中規則的變化總是慢于科技的變化。這就不可避免地會出現“倫理代差”,尤其是針對以AI為代表的高科技,這種滯后性愈發凸顯。因此,將不可避免地在某些領域出現“倫理失靈”與“倫理真空”現象,對于全局性的技術而言,這種可能性大大增加。而其一旦發生,或許將付出整個社會難以承受的代價。

          比如,難以達成共識。倫理規則的制定需要共識基礎。但在AI倫理的制定中,一個非常困難的點在于,由于每個人/群體都要受到特定歷史、認知、偏好與價值觀等因素的影響,要在規則內容上達成共識非常困難。人與人之間的價值對齊尚且如此困難,目前的研究顯示,人—機、機—機之間的價值對齊就更加困難。瑞士社會學家海爾格·諾沃特尼曾提到,蘇黎世聯邦理工學院的研究團隊分析了84份來自世界各地的企業、專家團體、政府、國際組織關于AI發布的倫理文件,約半數來自私營部門,另外半數來自公共機構。研究人員驚訝地發現,竟然沒有一條倫理原則是每份文件都提過的。這個結論足以反映,當下社會各界在人工智能科技倫理方面,還只能達成一些有限共識。

          盡管有這樣那樣的問題,但倫理規則設計與“人工智能+”同行甚至先行,是我們的目標,是AI健康發展的必要生態。

          筆者認為,人工智能的倫理規則,一個最基本的出發點就是:它應是基于原則而非基于利益的。

          宏觀上,相關管理部門、科技界應該肩負起更大責任,不能將AI倫理規則的制定完全讓位于企業。筆者發現,目前很多AI倫理規則都是AI頭部企業率先推出的。而企業本能地會基于其自身利益制定規則,因而可能存在巨大倫理隱患。如一些人工智能產品的算法黏性問題。美國麻省理工學院最新研究表明,長時間用ChatGPT寫作,會讓大腦“變傻”。而從長遠看,一項能讓人樂此不疲自愿變傻的技術顯然是不道德的。但,主要責任歸誰呢?更有甚者,研發者在算法中植入偏見,被指數級擴散后,將可能制造社會的分裂。

          針對這種倫理的脆弱性,最直接的解決辦法就是公開算法。為避免個人認知的局限性,甚至可以采用算法民主化——只有大多數人都同意的規則,才更有普遍性,才能最大限度地遏制倫理風險的發生。

          具體而言,AI倫理的制定可圍繞以下四個問題切入:公正問題、責任問題、隱私問題與安全問題。圍繞這四個問題,我們可以組織力量牽頭制定出一套可以被世界廣泛接受并具有普遍性的長效倫理規則。

          可以說,在未來AI的發展中,倫理規則競爭的影響力將更長久。因為規則的話語主導權一旦形成,很難轉移。從這個意義上說,借助于“人工智能+”的東風,構建基于原則而非利益的AI倫理規則,恰逢其時。

           來源:《光明日報》

            <b id="nqvhe"><source id="nqvhe"><menu id="nqvhe"></menu></source></b>

            1. <source id="nqvhe"></source><xmp id="nqvhe"></xmp>
              1. <b id="nqvhe"></b>
                <u id="nqvhe"></u>
              2. <b id="nqvhe"><address id="nqvhe"><ol id="nqvhe"></ol></address></b>
              3. <source id="nqvhe"></source>
                <xmp id="nqvhe"><video id="nqvhe"></video></xmp>
                  <b id="nqvhe"></b>
                  <u id="nqvhe"></u>
                1. 国产精品高清视亚洲精品