<noscript id="jwsho"><legend id="jwsho"></legend></noscript>
<ins id="jwsho"><video id="jwsho"><var id="jwsho"></var></video></ins><tr id="jwsho"></tr><output id="jwsho"></output>
  • <menuitem id="jwsho"></menuitem>

      <menuitem id="jwsho"></menuitem>

      1. 展會信息港展會大全

        OpenAI風波后,人工智能安全發展與監管將何去何從?
        來源:互聯網   發布日期:2023-12-29 08:54:03   瀏覽:6645次  

        導讀:OpenAI 風波 2023年,OpenAI的戲份很足。3月份時,ChatGPT4.0亮相,驚艷到了全世界,一時間大家紛紛嘗試讓ChatGPT寫小作文、編代碼,及至咋舌ChatGPT偶爾會胡編亂造一通的做派。眾多軟件科技公司更是緊跟潮流,卯足了勁開發各種應用的大語言模型。OpenAI帶動...

        OpenAI風波后,人工智能安全發展與監管將何去何從?

        OpenAI 風波

        2023年,OpenAI的戲份很足。3月份時,ChatGPT4.0亮相,驚艷到了全世界,一時間大家紛紛嘗試讓ChatGPT寫小作文、編代碼,及至咋舌ChatGPT偶爾會胡編亂造一通的做派。眾多軟件科技公司更是緊跟潮流,卯足了勁開發各種應用的大語言模型。OpenAI帶動了人工智能(AI)的一輪新高潮。

        時至11月,Open AI再次震驚了全世界。公司董事會突然宣布CEO奧特曼去職。之后,局勢反轉再反轉,OpenAI員工集體威脅辭職,微軟馬上伸出橄欖枝愿意整體接收,最終一周之后,奧特曼重返CEO位置,董事會大改組,被認為是CEO罷免事件推手力量的公司首席科學家蘇茨克弗也不再任董事。OpenAI的大風波暫時平息。

        一個有意思的方面是,奧特曼雖然恢復CEO職位,卻并沒有回到董事會,而OpenAI的治理結構獨特,董事會是最高決策機構。

        奧特曼為何遭罷免?OpenAI是這樣官宣陳述的“董事會經過深思熟慮的審查程序”,奧特曼“與董事會的溝通中沒有始終坦誠,阻礙了其履行職責的能力。董事會不再對他繼續領導OpenAI的能力充滿信心”。

        同一時間段,據悉OpenAI某位高管在給員工的溝通信中表示,奧特曼并沒有瀆職行為,在公司財務、業務、安全或隱私等方面也沒有失誤。奧特曼回歸后,關于其免職事件,OpenAI公司仍要開展內部調查。

        追求速度還是安全?

        OpenAI事件一番戲劇性地演進,將一個人從幕后推到了大眾的矚目中,連帶他推崇的重要主張。這個人就是前文提及的,OpenAI首席科學家蘇茨克弗,他同時是OpenAI的聯合創始人。

        盡管ChatGPT4.0走紅后代表OpenAI在媒體上頻頻露臉的是CEO奧特曼,但事實上蘇茨克弗才是ChatGPT的核心發明人,攻克了AI重要的技術難題,被業界稱為“ChatGPT之父”。

        OpenAI風波后,人工智能安全發展與監管將何去何從?

        蘇茨克弗出生于前蘇聯,持以色列和加拿大的國籍。他是深度學習領域的專家。蘇茨克弗在讀博士期間師從圖靈獎得主, 有“人工智能教父”之稱的杰弗里辛頓(Geoffrey Hinton)。

        在OpenAI所處的加州硅谷地區,對于人工智能的發展有兩派相反的觀點。

        一派希望全速推動人工智能的發展,認為隨著技術進步,相關的社會問題會自然而然地得到解決,這在歷史上多次證明,所以不必多擔憂。用中國的俗語來說,就是“船到橋頭自然直”。

        另有一派,則主張在AI程序向社會公開之前,先要在實驗室進行徹底測試,特別是生成式人工智能。

        蘇茨克弗是后一派觀點的代表人物。

        蘇茨克弗比較近期的公眾演講,包括今年3月份他接受英偉達CEO黃仁勛的采訪,和今年10月他的TED演講。在演講中,蘇茨克弗直白地表示,AI將會發展達到人類的智能水平,進而超越人類智能,比人更聰明。他拋出一個深刻的問題:比人類更聰明的人工智能,將會怎樣對待人類?

        蘇茨克弗每每演講,都顯得邊講邊在沉思。他不茍言笑,卻觀點犀利,表達清晰。

        與人類的“生物大腦”相對照,蘇茨克弗稱人工智能是處在計算機系統中的“電子大腦”。“電子大腦”的優勢在于能夠充分全面地占有信息,在此基礎上,推導結果。

        蘇茨克弗習慣于以人和動物的關系,來類比將來通用人工智能(AGI)與人類之間或將存在的關系。他反復地會問觀眾,AI會愛人類嗎?AI會像今天人類對待動物那樣來對待人類嗎?公開演講時,蘇茨克弗頻頻穿著帶動物圖案的T恤出鏡頭,似乎為了加強他的觀點。

        蘇茨克弗向聽眾介紹,他之所以在2015年聯合創辦Open AI,出發點正是為了在推動AI發展的進程中,妥善解決AI和社會的問題。

        AGI通用人工智能,何為“通用”?

        Artificial General Intelligence (AGI) 中文譯為“通用人工智能”。其實,這個中文翻譯并沒有準確地傳意。General是相對Special而言的。在AI的這個語境下,人工智能機器人先后打敗了人類的國際象棋大師、圍棋大師,實現了蛋白質結構預測的重大突破,等等,這些赫赫成績反映了AI智能的某個 (special) 方面,或者說是單項考評的成績。

        而AGI指的是在綜合考評上AI全面地達到乃至超過人類智能的那個時刻,用通俗的話來說,就是“全面碾壓”。所以,用“綜合人工智能”或“全面人工智能”翻譯AGI,似乎更加提挈。

        AGI目前尚未實現,但是正在向人類走來。OpenAI在其公司網頁上預期,十年內,AGI會被實現。按人工智能成果的此起彼伏來看,十年不知道是不是一個保守的時間估計。

        此外還有一個AI名詞,GenerativeAI,中文翻譯是“生成式人工智能”。為什么稱generative(生成),而不是creative (創作)?造詞者大概是考慮到目前的知識產權法律框架體系并不承認AI作為發明創作的主體,不賦予AI創作的主體資格。

        但是,從價值的角度來衡量,AI大語言模型生成的段落、文章以及圖片是否具備文化價值?人是否樂意花時間去閱讀乃至欣賞?認為AI作品是生成的而非創作的,這樣的界定更多來自于人類對待人工智能的主觀態度。但是,一旦AGI實現,其“生成”的作品例如出品的小說超出人類作家的水準,是否有必要開放創作發明的主體資格,延及AI?還是另外新辟AI-IP這個權利范疇?

        OpenAI的Q*項目之謎

        奧特曼究竟為什么被董事會罷免?官宣中提到奧特曼沒有和董事會坦誠溝通,言下之意是他背著董事會秘密地干了些什么。敏銳的記者們在努力揭秘。

        據路透社等幾家媒體的報導,奧特曼在公司內部大力推進Project Q*項目,很可能是他被免職的重要原因。

        OpenAI風波后,人工智能安全發展與監管將何去何從?

        據稱,Project Q*的研究將AI的智能水平又推上了一個新的高度。AI將不僅能基于統計學的能力,在占有信息和數據的基礎上做預測,生成文字和圖片,還掌握了數學推理的能力。前者不一定有一個標準答案,而數學的答案是唯一的。

        OpenAI的治理結構,采取了非盈利機構控制下屬盈利公司的模式,其最初的意愿正是希望AI的研究發展不受制于資本的影響。OpenAI的首席科學家蘇茨克弗更是積極倡導AI發展要顧及人類安全的大命題,安全謹慎地推進AI研究。

        ChatGPT4.0發布后,蘇茨克弗在今年四五月期間提出了OpenAI內部的一個名為“超級對齊(Super-alignment)”的項目,據說調動了占OpenAI五分之一的內部資源,著重于AI與安全的研究。

        根據路透社及其他媒體調查后所推斷,CEO奧特曼并沒有太重視AI帶來的安全擔憂,而是繼續大力推進人工智能的商業化,由此觸發了他被免職的一幕。

        基辛格博士參與撰寫的暢銷書:

        The Age of AI

        The Age

        of

        AI

        《AI

        時代》

        被福布斯雜志評選為

        2

        022

        “當年最暢銷的

        1

        0

        本技術類書籍之一”

        ,該書由基辛格博士及兩位技術領域的頂尖專家共同撰寫。書中指出,在人類發展的歷史長河中,推理是人類高度珍視,或者說是引以為傲的一項重要能力。

        如果人工智能突破推理的障礙,從而擁有了與人類相當的推理能力,甚至超越了人類的推理能力,那么這是否意味著人類對自身能力將產生懷疑?作者們認為,定義AI能力的同時,也意味著重新來定義人類的能力乃至人類的地位。

        OpenAI風波后,人工智能安全發展與監管將何去何從?

        對AI將威脅人類安全的擔憂

        追溯到2015年,霍金、馬斯克以及多名人工智能專家已經聯名簽署了公開信,呼吁重視人工智能將帶來的社會影響,并展開認真的研究。公開信特別指出,人工智能雖然將帶來非常多的好處,甚至消除疾病和貧困,但要警惕人工智能趨向于不安全和不可控的態勢。

        近年來,隨著AI威力的持續升級,有關AI很可能帶來安全威脅的擔憂也不斷被放大。ChatGPT4.0推出后,馬斯克等上千名科技界人士發表公開信,提議所有人工智能實驗室立即暫停訓練比ChatGPT4.0更強大的人工智能系統至少六個月。

        當蘇茨克弗的導師、人工智能教父辛頓被記者采訪時問及人工智能是否會消滅人類,他回答:“我認為這并非不可想象。我只能說這些。”這話聽著,是不是讓人感到后脊發涼?

        硅谷是人工智能研究的前沿,也大概是有關人工智能與人類安全問題爭論最多的地方。像蘇茨克弗這樣的頂級科學家在擔憂AI對人類可能帶來的不可挽回的影響,也有大量的富豪捐款投入在有關AI與安全問題的研究上。

        有效利他主義(effective altruism)是其中一種代表性的思潮,關心遠方最貧窮的人,關心子孫后代的生活環境,關注科技對人類的影響尤其是AI對社會的影響,考察如何定量評估干預產生的效果,利他的同時達成利己。

        回到本文開篇提到的奧特曼被免,OpenAI董事會大改組,對普羅大眾來說,這場戲劇性事件除了能為八卦談資增加題材,更向大眾揭開了AI與安全這個命題的面紗。由陌生到開始了解,從有所了解到更深入地探究,OpenAI風波好比是向大眾啟蒙AI安全問題的重要與迫切,這也是這個事件產生的積極社會影響。

        AI監管,及國際合作

        近幾年來,中國、歐盟、美國等全球的主要國家和地區,有關AI監管都出臺了一系列法律法規,主要涉及隱私保護、數據安全、防范AI的武器化應用、算法反歧視等方面。這些都是重要問題,但不得不說,更重要的問題在于:AI一旦演進成為超級智能,將在多大程度影響人類安全本身?或者說,人類是否持續可以保有對AI的控制權?

        令人欣慰的是,今年11月初在英國召開了人工智能安全峰會,包括中國在內超過25個國家的政府代表和科技界人士參加。參會成員國同意以國際合作的途徑,建立人工智能的有效監管方法。盡管這看著是一個松散的非正式的合作模式,但是合作好過不合作,中國參與其中也可以爭取到發言權和交換意見的渠道。

        可以說,人工智能的風險和對人類可能產生的根本性的影響,其重要性和后果一點都不遜于碳排放等問題,可以說有過之而無不及。正如代表中國參會的科技部副部長吳朝暉所指出的,人工智能的治理攸關全人類的命運,是世界各國面臨的共同課題。

        耐人尋味的是,在英國AI峰會后發布的全體與會國家宣言中,特別強調的一點是各國要加強合作,識別、理解AI帶來的風險,并采取適當的行動。宣言進一步指出,需要加深對于潛在風險的理解。從這些字里行間透露出來的信號是,AI迅猛發展,各國政府承認看不清楚其前景。

        馬斯克也參加了這次峰回,他對記者表示,在監管AI之前,必須要有洞察力。換言之,風險撲朔迷離,首要步驟是清晰識別和理解風險。

        而識別和理解AI風險,需要政府和科技界緊密合作,后者向前者介紹AI的發展狀況和風險,幫助政府了解和理解,進而制定規范,調動資源,有效監管。如此才談得上有效控制風險,指導科技界負責任地開發和部署人工智能。

        贊助本站

        人工智能實驗室
        相關內容
        AiLab云推薦
        展開

        熱門欄目HotCates

        Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港
        aiai视频,aiai永久网站在线观看,AiGAO视频资源在线
        <noscript id="jwsho"><legend id="jwsho"></legend></noscript>
        <ins id="jwsho"><video id="jwsho"><var id="jwsho"></var></video></ins><tr id="jwsho"></tr><output id="jwsho"></output>
      2. <menuitem id="jwsho"></menuitem>

          <menuitem id="jwsho"></menuitem>