請選擇 進入手機版 | 繼續訪問電腦版
找回密碼註冊
作者: White
查看: 8334
回復: 0

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

Micron Crucial PRO D5 6000超頻版 玩家開

解放封印 極限超頻駕馭低延遊電競記憶體的力量Crucial DDR5 Pro 記憶 ...

ASRock 玩家體驗會--會後分享得獎公告

B760M PG Riptide 得獎玩家: hyper5_ae900 https://www.xfastes ...

極致效能 為遊戲而生 990 PRO 4TB 超大容量

全新設計三星內部控制器的 NVMe 固態硬碟高達 7,450 / 6,900 MB/s 的 ...

ZOTAC 40 SUPER顯示卡 玩家開箱體驗活動

SUPER 疾速、SUPER 強悍GEFORCE RTX 40 SUPER 系列 NVIDIA Ada Lovela ...

[業界新聞] 馬斯克又拉了一百多人呼籲小心人工智慧,這次是為軍用.......

[複製鏈接]| 回復
White 發表於 2017-8-21 16:12:26 | 顯示全部樓層 |閱讀模式
馬斯克又拉了一百多人呼籲小心人工智慧,這次是為軍用....... - XFastest - 20170821-1.jpg

這種武器還沒有被開發,但聯合國、技術公司都有擔憂。
馬斯克又出來表達對人工智慧的擔憂,這次還有其它 115 位科技公司的創始人。

《衛報》周日報道稱,來自 26 個國家、116 位機器人和人工智慧公司的創始人遞交了一封給聯合國的建議信,希望後者可以禁止所謂“致命性自動化武器(LAWS)”的部署。其中包括特斯拉創始人馬斯克,DeepMind 聯合創始人 Mustafa Suleyman。

這裏的“致命性自動化武器(LAWS)”不是指具體某一種武器。按照其定義,是機器人在沒有人為操作下,自動篩選和攻擊目標。

相比之下,目前軍用無人機很多雖然可以搭載導彈殺人,但它攻擊什麽目標,是否攻擊都由電腦前的人類操控。

在更通俗的說法中,這種武器還會被稱作是殺人機器(killer robot)。

把這封信刊登出來的,是一家被名為“未來人生協會(Future of Life Institute)”的網站。

這封信表達的是這些科技領袖對聯合國發出的預警,本質上是希望能推動聯合國的討論,以便在這種武器尚未被發明創造前就杜絕其使用。

他們認為,這種致命性自動化武器(LAWS)很可能會給人類帶來預估以外的威脅。

致命自動武器有可能成為第三次武器革命。一旦開發成功,它們將把衝突的規模帶到前從未有的大,也會超過人類能認知的速度。它們將成為恐怖的武器,將成為暴君和恐怖分子殘害無辜民眾的武器,或者被黑客挾持用於預期之外的功用。我們沒有足夠的時間行動。一旦潘多拉的盒子被打開,就很難被關上。

116 位機器人、人工智慧公司的創始人提交給聯合國的“預警”信
聯合國從 2014 年 5 月開始討論這種武器,也是在做預防的工作。前聯合國秘書長潘基文稱:“雖然自動武器系統尚未被部署,並且作為軍用技術而言,它們的開發程度尚不清楚,這些問題的討論必須立刻開始,不能等到這種技術被開發和擴散後再討論。”

但有不少人認為,這種武器的誕生已經不遠了。加州大學伯克利分校的機器科學和工程教授 Stuart Russell 認為,所需要的技術基礎現在都已經具備,不需要另外的技術突破,問題在於會有多少資源被投入進去開發。

這次的預警信是針對於聯合國從去年開始籌備的討論,進一步討論對這種武器的禁止。

總的來說,致命性自動化武器(LAWS)被認為可以分為 3 種,一種是需要人類授權射擊開火,也就是說人是攻擊的一環;另一種是機器人可以自己執行攻擊任務,但人類可以否決;最後一種是完全沒有人為的干預,機器自動完成攻擊任務。

不難理解軍隊對殺手機器人的期待:它不會累不會困不會受道德譴責,打完仗也不會因為戰後創傷自殺造成負面影響。

聯合國從去年開始籌備、討論的是,哪幾種武器應該被禁止。他們為此設立了一個政府專家組(GGE),專門用於討論這項武器相關的話題,最終可能是起草一份應對計劃。其中還涉及到一個問題是,不少國家的防禦系統本質上接近於這種自動武器,這也加大了聯合國討論的難度。事實上,聯合國比較成功的一次武器禁令還是在 1995 年。


資料來源:Source

您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-3-28 19:15 , Processed in 0.094192 second(s), 33 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表