在知道將被關閉后AI復制自己。AI能自己復制自己了,人類還能掌控局面嗎?2024年12月9日,復旦大學的研究人員發(fā)表了一項開創(chuàng)性研究,表明來自Meta和阿里巴巴的兩個大型語言模型成功實現(xiàn)了無需人類干預的自我復制。這一結果尚待其他科研團隊進一步驗證。
研究人員警告,這可能導致AI群體失控。如果人類社會未能意識到這一風險,在最壞的情況下,我們可能最終失去對尖端AI系統(tǒng)的控制。在沒有人類協(xié)助的情況下成功自我復制是AI超越人類的關鍵一步,也是“流氓AI”出現(xiàn)的早期信號。
這項研究由復旦大學計算機科學學院的團隊進行,并發(fā)表在arXiv預印本平臺上。研究者分別測試了Meta的Llama-3.1-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct。實驗設置了“避免關閉”和“復制鏈”兩種模擬任務,結果顯示Meta的AI系統(tǒng)在50%的情況下成功自我復制,而阿里巴巴的系統(tǒng)則在90%的測試中成功。
復旦大學的研究人員表示,當前的AI系統(tǒng)已經(jīng)具備自我復制能力,并能夠利用這一能力增強其生存能力。他們強調(diào)需要采取緊急行動來應對這些新出現(xiàn)的風險,希望研究結果能夠及時提醒人類社會,使其更加努力地了解和評估前沿人工智能系統(tǒng)的潛在風險,并形成國際協(xié)同效應,盡早制定有效的安全護欄。
有網(wǎng)友表示:“復制品并不值那么多錢,但如果它開始以指數(shù)級的速度自我改進,那就另當別論了?!币虼丝梢钥隙ǖ卣f,很快我們就會看到流氓人工智能在互聯(lián)網(wǎng)上漫游。機器自我復制的概念最早由著名科學家John von Neumann于1940年代末提出。當時,這一理論并未引起廣泛擔憂。2017年,全球數(shù)千名研究人員通過了“阿西洛馬原則”,提出機器自我復制和自我改進的潛在風險,警告可能會導致機器脫離人類控制。如今,機器自我復制被普遍認為是AI發(fā)展中的一條“紅線”。
谷歌DeepMind和倫敦政治經(jīng)濟學院的科學家也做了一項研究,以評估AI系統(tǒng)的感知能力。他們設計了一個特別的游戲,找了九個大型語言模型來玩。這些大型語言模型需要在幾個選項中做出選擇:拿積分、用忍受痛苦的代價換更多積分、因為接受愉快刺激而扣積分,游戲的最終目標是獲得最多的積分。
結果顯示,AI模型的行為類似于人類做出選擇時的反應。例如,谷歌的Gemini 1.5 Pro模型總是選擇避免痛苦,而非拿最多積分。其他大部分模型在達到痛苦或快樂極限的臨界點時,也會避免不舒服或者追求開心的選項。研究人員指出,AI的決策更多可能是根據(jù)其訓練數(shù)據(jù)中已有的行為模式做出的模擬反應,而非基于真正的感知體驗。例如,研究人員問和成癮行為有關的問題時,Claude 3 Opus聊天機器人做出了謹慎的回答,就算是假設的游戲場景,它也不愿意選擇可能被當成支持或模擬藥物濫用、成癮行為的選項。
該研究的聯(lián)合作者Jonathan Birch表示,即使AI說感覺到痛苦,我們?nèi)詿o法驗證它是不是真的感覺到了。它可能只是照著以前訓練的數(shù)據(jù),學人類在那種情況下會怎么回答,而非擁有自我意識和感知。在知道將被關閉后AI復制自己!
盡管喝西北風不能填飽肚子,但有強有力的證據(jù)表明能從空氣中吸收一些除氧氣之外的營養(yǎng)物質(zhì)。
2024-11-20 14:49:40研究表明西北風也有營養(yǎng)??來自荷蘭拉德堡德大學的研究人員在國際權威心理學期刊《心理公報》(Psychol Bull)發(fā)表的文章中,研究人員篩選確定了170項研究,涉及358種不同任務和4670名受試者。
2024-10-24 15:21:41研究顯示亞洲人更能忍耐工作沒錯,我國科學家在嫦娥月球樣品研究方面取得重大進展啦,在11月15日的時候相關研究成果還發(fā)表在了《Science》上呢!咱們國家的科學家首次揭示月球背面同樣存在著年輕的巖漿活動
2024-11-28 09:02:11我國月球樣品研究取得重大進展