Google執行長Sundar Pichai再強調:AI不會用在軍武

▲▼離職員工反映Google似乎不似之前願意傾聽員工意見。圖為Google執行長桑德爾·皮蔡(Sundar Pichai)。(圖/路透)

▲Google 執行長 Sundar Pichai 撰文解釋 AI 技術原則。。(圖/路透)

記者黃肇祥/綜合報導

根據先前的報導,Google 因為與美軍的合作引來內部的離職潮,有員工擔憂 AI 技術被運用在生產武器與監控。Google 執行長 Sundar Pichai 今天就公開詳細的 AI 技術使用原則,明確指出不會將技術運用在對人造成傷害的武器與技術上。

在文章開頭 Pichai 提到 AI 人工智慧於各領域的應用,幫助人們解決難題,但強大的技術也面臨風險,如何使用與開發將會對社會造成重大影響。Google 承諾該領域不斷發展,會保持謙卑的態度面對開發工作,並且隨著時間調整 AI 研發的工作內容。

Pichai 提出七大原則,包含:
1. AI 技術應該對社會是有益的
2. 避免加強、製造偏見與不平等
3. 注重技術安全、確保安全性
4. 對人類負責,保證受人類控制與監控
5. 設計需注重隱私原則
6. 捍衛科學的最高標準
7. 提供符合上述原則的用途

▲▼  google。(圖/路透)

▲Google 本次與國軍的爭議,引發首度大規模離職潮。(圖/路透)

除了七大原則,還有四項禁止項目,包含不違反國際的技術公約、國際法與人權原則等,若可能製造巨大傷害,將在可以進行安全限制下進行,最後則是關於近期爭議武器的條款,則是寫道,AI 不會用在「直接導致人類被傷害的武器與技術」。Pichai 澄清,Google 沒有開發專用於武器的 AI 技術,仍會繼續與美軍保持合作,但會將技術運用在網路安全、人才培訓、醫療保險與搜救。

根據《彭博社》報導,一名參與 Google 內部抗議聯署的員工表示,文章用語非常謹慎,但至少公司開始解決問題。英國牛津大學的 AI 研究員 Miles Brundage 則表示,對於人類造成傷害這點相當模糊,因為 Google AI 仍可以針對建築物與非人類項目進行網路攻擊。

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

關鍵字:

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面