AI奠基人離開谷歌 示警科技危險(圖)

發表:2023-05-06 19:46
手機版 简体 打賞 0個留言 列印 特大

人工智能
AI聊天機器人所帶來的某些危險「相當恐怖」!(图片来源: LIONEL BONAVENTURE/AFP via Getty Images)

【看中国2023年5月6日讯】(看中國記者程帆編譯綜合報導)屢獲殊榮的計算機科學家辛頓(Geoffrey Hinton)被業界尊為「AI(人工智能)奠基人」。不過,近日他開始認真地重新思考自己這一輩子的勞動成果。

據路透社和美聯社的報導,辛頓今年4月就已向谷歌請辭,除了因為年齡因素外,更重要的是他現在可以無所顧慮的暢談AI可能給人類帶來的風險,「而不必擔心會影響谷歌的業務」。

在長達數十年的學習和職業生涯中,辛頓在深度研究神經網路(neural networks)方面的開創性工作,為我們今天看到的許多AI技術奠定了基礎。

但在接受媒體採訪時,他表示,「我對畢生所研究的東西,現在感到後悔了。」他還形容,AI聊天機器人所帶來的某些危險「相當恐怖」!

最初,辛頓認為,ChatGPT語言模型的能力,不如人類大腦處理語言的方式。然而,去年谷歌和微軟在科技開發商OpenAI投入了大量資金和數據以建構系統,令他的想法開始改變,「或許在某些方面,AI確實會比人腦處理得還要好。」

例如,正在開發的數位智慧和生物智慧(biological intelligence)就「非常不同」。前者可以透過「完全複製」獲取大量知識,它是人類大腦無法達到的。

辛頓解釋道,「如果我有1,000相同權重且完全複製的數位代理人,那麼,只要其中一個代理人學到怎麼做某事,其他代理人就會立刻知道。但生物代理人辦不到這一點。因此,相同數位代理人的集結,就可以獲取比任何單一生物代理人多的知識。這就是為什麼GPT-4的知識量會遠大於任何人。」

他指出,像GPT-4這樣的系統一旦接受研究人員的適當訓練,就可以非常有效地學習新事物。這與訓練有素的專業物理學家能比高中理科學生更加快速地通過新實驗發現如何動腦筋的方式沒有什麼不同。

目前,最令辛頓擔心的是,通過利用AI,網路上會出現很多虛假的圖片、視頻或文字,可能讓人分不清真偽。其次,他還擔心AI將改變就業市場,讓律師助理、私人助理、翻譯等不需要直接與人打交道的崗位消失。

從長期來看,辛頓認為AI會對人類將構成威脅,未來,這些技術還會對人類構成其他的威脅。「因為AI可能通過大量的數據分析,做出一些令人意想不到的行為。」

他補充稱,有些公司和個人現在已經允許用AI寫代碼,甚至自主設計演演算法,並在實際使用。「我擔心,總有一天,類似於『殺人機器』的自動化武器就會成為現實。」「現在很難防止壞人利用AI做壞事。」

他說,光是和5年前的技術相比,技術進步就非常大。有些人還認為,人工智慧最終變得比人類更聰明是相當遙遠的事。「連我也曾那樣認為,大概還要三五十年、或更久。但現在,我不再這麼覺得了。」

(文章僅代表作者個人立場和觀點)


来源:看中國

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

看完這篇文章您覺得

評論



加入看中國會員
捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意