導航菜單

AI憲法要來了 谷歌OpenAI聯(lián)手制定 AI也要講價值觀和原則了

導讀 2023年10月10日,根據(jù)英國媒體《金融時報》報道谷歌DeepMind、OpenAI、Anthropic等AI領域知名的企業(yè)現(xiàn)在正在聯(lián)合制定一套人工智能模型能夠

2023年10月10日,根據(jù)英國媒體《金融時報》報道谷歌DeepMind、OpenAI、Anthropic等AI領域知名的企業(yè)現(xiàn)在正在聯(lián)合制定一套人工智能模型能夠遵守的價值觀和原則,防止人工智能大模型出現(xiàn)濫用的行為。

 

隨著Openai的等多家公司開始將人工智能技術商業(yè)化以后,人工智能領域的研究人員認為為了防止這些人工智能系統(tǒng)生成有害內容或者錯誤的信息,必須要采取相關的應對方案,建議所有的人工智能科技公司,必須要制定有關于人工智能的限制規(guī)定。在制作人工智能大模型的同時,讓人工智能首先要學習價值觀和原則,在沒有人類干預和管制的情況下,依舊能夠管控自身。

英國《金融時報》報道表示,讓人工智能應用程序擁有尊重,寬容的性質已經(jīng)成為了生成式人工智能發(fā)展的方向。不過哪怕制定人工智能的憲法,依舊無法完全保證人工智能不會出現(xiàn)被濫用的情況。因為在人工智能的研發(fā)方面,往往會攜帶著人工智能工程師和計算機科學家的主觀意見,所以很難也為人工智能的限制進行有效的評估。

在各大科技公司爭先爭奪人工智能技術商業(yè)化的同時,人工智能研究人員認為實現(xiàn)人工智能系統(tǒng)的安全防護措施,完全沒有跟上人工智能發(fā)展的速度。在一般情況下各大科技公司主要以人類反饋的強化學習方法來處理人工智能所生成的問題。能夠將人類反饋的強化學習方法,應用科技公司會雇用大量的承包商來審核人工智能模型的回復結果,對于回復結果進行分類,在積攢的足夠的評分以后。人工智能模型就會逐漸開始了解好壞之分,并且在之后回復的過程中,就會自動過濾掉一些比較差的信息。

免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

猜你喜歡:

最新文章: