人工智能被指過(guò)度宣傳
鳳凰網(wǎng)科技訊 北京時(shí)間7月1日消息,多年來(lái),谷歌、Facebook等科技巨頭投入數(shù)十億美元研發(fā)人工智能(AI),大肆宣傳它的潛力。但是現(xiàn)在,研究人員表示,是時(shí)候重新設(shè)定對(duì)AI的期望值了。
(資料圖片)
誠(chéng)然,AI技術(shù)開(kāi)發(fā)近期取得了一定的飛躍。企業(yè)已經(jīng)開(kāi)發(fā)出了更多的AI系統(tǒng),可以產(chǎn)生看起來(lái)像人類(lèi)的對(duì)話(huà)、詩(shī)歌和圖像。然而,AI倫理學(xué)家和研究人員警告稱(chēng),一些企業(yè)正在夸大AI的能力,這種炒作正在制造廣泛的誤解,并扭曲政策制定者對(duì)AI力量和不可靠性的看法。
“我們失去了平衡。”西雅圖非營(yíng)利研究機(jī)構(gòu)艾倫人工智能研究所CEO奧倫·埃齊奧尼(Oren Etzioni)這么說(shuō)。埃齊奧尼和其他研究人員指出,這種失衡有助于解釋為何谷歌工程師稱(chēng)AI有知覺(jué)的說(shuō)法讓許多人搖擺不定。
谷歌工程師布萊克·萊莫恩(Blake Lemoine)基于他的宗教信仰提出,該公司的一個(gè)AI系統(tǒng)應(yīng)該被視為有感知能力。他聲稱(chēng),AI聊天機(jī)器人實(shí)際上已經(jīng)成為了一個(gè)人,有權(quán)決定是否允許在它上面做實(shí)驗(yàn)。谷歌隨后對(duì)他進(jìn)行停職處理,并駁回了他的說(shuō)法。谷歌表示,公司倫理學(xué)家和技術(shù)專(zhuān)家已經(jīng)研究過(guò)這種可能性,并駁回了他的說(shuō)法。
聲稱(chēng)AI有知覺(jué)的萊莫恩
研究人員表示,在更廣泛的科學(xué)界,AI正變得有意識(shí)或可能有意識(shí)的看法仍然處于邊緣地位。
從現(xiàn)實(shí)來(lái)看,AI涵蓋的一系列技術(shù)在很大程度上依舊對(duì)一系列平淡無(wú)奇的后臺(tái)后勤工作有幫助,比如處理來(lái)自用戶(hù)的數(shù)據(jù),以便更好地向用戶(hù)投放廣告、內(nèi)容,進(jìn)行產(chǎn)品推薦。
大力投入和宣傳
過(guò)去10年,谷歌、Facebook母公司Meta以及亞馬遜等公司投入了大量資金來(lái)提高此類(lèi)能力,以驅(qū)動(dòng)它們的增長(zhǎng)和利潤(rùn)引擎。例如,谷歌使用AI更好地解析復(fù)雜的搜索提示,幫助它提供相關(guān)廣告和網(wǎng)絡(luò)結(jié)果。
一些創(chuàng)業(yè)公司還萌發(fā)了更宏偉的雄心。其中一家公司名為OpenAI,它從特斯拉CEO埃隆·馬斯克(Elon Musk)和微軟公司等捐贈(zèng)者和投資者那里籌集了數(shù)十億美元,旨在實(shí)現(xiàn)所謂的通用AI,也就是能夠匹配或超越人類(lèi)智能每一個(gè)維度的系統(tǒng)。一些研究人員認(rèn)為,這即使不是無(wú)法實(shí)現(xiàn),也是幾十年后的事情。
谷歌大力研發(fā)AI
這些公司為了超越對(duì)方而展開(kāi)的競(jìng)爭(zhēng)推動(dòng)了AI的快速發(fā)展,并催生了越來(lái)越多引人注目的演示。這些演示抓住了公眾的想象力,吸引了人們對(duì)這項(xiàng)技術(shù)的關(guān)注度。
OpenAI的DALL-E系統(tǒng)可以根據(jù)用戶(hù)提示生成藝術(shù)品,例如“土星軌道上的麥當(dāng)勞”或“穿著運(yùn)動(dòng)裝備參加鐵人三項(xiàng)的熊”,最近幾周在社交媒體上引發(fā)了許多表情包。隨后,谷歌仿效DALL-E系統(tǒng)推出了自己的基于文本的藝術(shù)品生成系統(tǒng)。
盡管這些成果十分驚人,但越來(lái)越多的專(zhuān)家警告稱(chēng),企業(yè)沒(méi)有適當(dāng)控制宣傳。
瑪格麗特·米切爾(Margaret Mitchell)曾是谷歌倫理AI團(tuán)隊(duì)的共同負(fù)責(zé)人,在撰寫(xiě)了一篇關(guān)于谷歌系統(tǒng)的批評(píng)論文后被解雇。她表示,谷歌向股東宣傳的一個(gè)賣(mài)點(diǎn)是,它在AI方面是世界上最好的。
AI的局限性
米切爾目前在一家名為Hugging Face的AI創(chuàng)業(yè)公司工作,她和谷歌另一位AI倫理聯(lián)合負(fù)責(zé)人蒂姆尼特·格布魯(Timnit Gebru)是最早對(duì)AI危險(xiǎn)性提出警告的人之一。格布魯也被谷歌解雇。
根據(jù)他們?cè)诠雀枞温殨r(shí)寫(xiě)的最后一篇論文,他們認(rèn)為這些技術(shù)有時(shí)會(huì)造成傷害,因?yàn)樗鼈兊念?lèi)人能力意味著它們和人類(lèi)一樣有失敗的可能性。例如,F(xiàn)acebook的AI系統(tǒng)誤譯了阿拉伯語(yǔ)的“早上好”,把它翻譯成英語(yǔ)時(shí)變成了“傷害他們”,翻譯成希伯來(lái)語(yǔ)時(shí)變成了“攻擊他們”,導(dǎo)致以色列警方逮捕了發(fā)布這一問(wèn)候語(yǔ)的巴勒斯坦男子,隨后才意識(shí)到錯(cuò)誤。
米切爾因批評(píng)谷歌被解雇
去年曝光的Facebook內(nèi)部文件也顯示,F(xiàn)acebook的AI系統(tǒng)無(wú)法一直識(shí)別第一人稱(chēng)射擊視頻和種族主義言論,只刪除了一小部分違反公司規(guī)定的內(nèi)容。Facebook則表示,AI技術(shù)的提升大幅減少了仇恨言論和其他違反其規(guī)定的內(nèi)容。
理想與現(xiàn)實(shí)的差距
理想很豐滿(mǎn),現(xiàn)實(shí)很骨感。埃奇奧尼和其他人提到了IBM圍繞著沃森系統(tǒng)展開(kāi)的營(yíng)銷(xiāo)。沃森是IBM開(kāi)發(fā)的AI系統(tǒng),因?yàn)樵谥橇Ω?jìng)賽節(jié)目《危險(xiǎn)邊緣》中打敗人類(lèi)而聲名大噪。然而,經(jīng)過(guò)10年和數(shù)十億美元的投資后,IBM在去年表示,正在研究出售沃森健康業(yè)務(wù)的可能性,該部門(mén)的主要產(chǎn)品本應(yīng)幫助醫(yī)生診斷和治療癌癥。
由于AI現(xiàn)在已經(jīng)無(wú)處不在,并涉及更多的公司,它們開(kāi)發(fā)的軟件包括電子郵件、搜索引擎、新聞推送、語(yǔ)音助手,已經(jīng)滲透到我們的數(shù)字生活中,所以它的風(fēng)險(xiǎn)就更大了。
谷歌發(fā)言人布萊恩·加布里埃爾(Brian Gabriel)在否認(rèn)AI有知覺(jué)的說(shuō)法時(shí)稱(chēng),該公司的聊天機(jī)器人和其他對(duì)話(huà)工具“可以即興談?wù)撊魏翁摶玫脑?huà)題”?!叭绻銌?wèn)一只冰淇淋恐龍是什么樣子的,他們可以生成關(guān)于融化和咆哮等內(nèi)容的文本,這與感知不同。”他表示。
AI認(rèn)知差距滲透到政府政策
布朗大學(xué)研究AI政策的計(jì)算機(jī)科學(xué)博士生伊麗莎白·庫(kù)馬爾(Elizabeth Kumar)表示,這種認(rèn)知差距已經(jīng)悄悄滲透到了政策文件中。
最近,地方、聯(lián)邦和國(guó)際法規(guī)和監(jiān)管提案試圖解決AI系統(tǒng)通過(guò)歧視、操縱或以其他方式造成傷害的可能性,這些都是基于AI系統(tǒng)具有高度能力的假設(shè)。庫(kù)馬爾表示,他們?cè)诤艽蟪潭壬虾雎粤诉@種AI系統(tǒng)“根本不起作用”造成傷害的可能性,而且這種可能性更大。
埃齊奧尼也是拜登政府的國(guó)家人工智能研究資源特別工作組的成員。他指出,政策制定者往往難以把握這些問(wèn)題。“從我和他們中的一些人的交談來(lái)看,我可以告訴你,他們的出發(fā)點(diǎn)是好的,問(wèn)的問(wèn)題也很好,但他們并非對(duì)一切了如指掌。”他表示。(作者/簫雨)
更多一手新聞,歡迎下載鳳凰新聞客戶(hù)端訂閱鳳凰網(wǎng)科技。想看深度報(bào)道,請(qǐng)微信搜索“鳳凰網(wǎng)科技”(ifeng_tech)。
關(guān)鍵詞: 人工智能
網(wǎng)站首頁(yè) |網(wǎng)站簡(jiǎn)介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 www.sgycos.com All Rights Reserved.
中國(guó)網(wǎng)絡(luò)消費(fèi)網(wǎng) 版權(quán)所有 未經(jīng)書(shū)面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com