AI四類技術風險驚人 全球再拉警報(圖)

發表:2023-06-30 22:06
手機版 简体 打賞 0個留言 列印 特大

AI
AI的飛躍式發展令我們感到世界並「不正常」。(圖片來源: Adobe stock)

【看中國2023年6月30日訊】(看中國記者程帆編譯綜合報導)人工智能(AI)「不可思議」的發展速度,令科技專家、億萬富翁和普通人都表示擔心,其未來可能將失控並給人類帶來毀滅性災難。

近日,美國非營利組織人工智能安全中心(CAIS)發表了一篇關於「滅絕式AI風險」的文章並指出,歷史的前進並非一成不變,今天出現了一種前所未有的AI革命「加速發展」模式。這種飛躍式速度令我們感到世界並「不正常」。

CAIS主任亨德里克斯(Dan hendricks)進一步表述,如果能安全開發和監管AI技術,它將造福世界。然而與AI巨大的進步相比,人類尚未解決諸多的基本安全問題。他將這種「強大技術」的風險劃分為4個類別,即惡意使用、武器化、欺騙性AI和組織風險。

例如,AI模型很容易會被不法份子訓練用於惡意目的,製造生物武器。根據最新研究,用現有人工智能技術進行的試驗,僅在6小時內就識別出了4萬種此類生物武器化學物質。

這就意味著,儘管它在發現並改善健康的化學組合和藥物化合物方面具有強大能力,而且比人類快很多,但也可以用來製造潛在的致命物質。

此外,AI自動化網路攻擊甚至可以控制核發射井。根據CAIS的研究,如果一個國家投資在武器化AI系統,這個國家的軍備可能會迅速升級,並引發一場「大規模戰爭」。那麼,其他國家也就會更有動力這樣做。

亨德里克斯表示,人工智能不應該被用於軍備競賽。他打比方稱,「想像一群人站在薄冰覆蓋的海面上。當他們遠眺看到了對面遙遠海岸的金銀財寶,有些人可能會想衝刺。但他們必須冒著破冰、跳到冰冷海水的風險。在這種情況下,即使是最自私的人也應該謹慎行事。」

不僅如此,研究人員還寫道,「AI可能會將某些隱秘信息意外洩露給公眾或被惡意行為者竊取。」因為有些機構可能沒辦法投資於安全研究、缺乏對人工智能安全性的瞭解,或者阻止風險的發生。

他們將人工智能潛在的組織洩漏與歷史上的災難進行了比較,例如切爾諾貝利、三哩島和挑戰者號太空梭致命事故等。

除此之外,人們還可以通過AI行騙,來獲得社會的普遍認可。亨德里克斯引用了大眾汽車的例子,該公司曾聲稱自己的汽車是低碳排放、高性能。可實際上,他們在車裏設計了一項編程功能,該功能可以使發動機只在被監控時減少排放。

CAIS呼籲專門建立AI研究領域,推動制定安全標準,來預防可能給社會帶來的大規模災難。

對於該機構的聲明,英國現任首相蘇奈克首先在個人社交平台上轉發並表示,英國政府正在非常仔細地研究這一問題。他還透露,已經向各大企業重申了「設置防護」措施的必要性,以確保AI開發可靠。

據路透社的報導,歐盟委員會副主席喬羅娃(Vera Jourova)本月初公開提出,對抗虛假信息。她要求谷歌、微軟、Meta、TikTok等幾十家科企,檢測文本、圖片及視頻,並明顯標記所有AI生成的內容。



来源:看中國

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

看完這篇文章您覺得

評論



加入看中國會員
捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意