美國《大眾科學(xué)》網(wǎng)站9月13日發(fā)表題為《人工智能語音過濾器可以讓你聽起來像任何人——也可以讓任何人聽起來像你》的文章,作者是安德魯·保羅。全文摘編如下:
近年來,人們對人工智能(AI)深偽技術(shù)越來越多的關(guān)注主要集中在視覺欺騙上。想想看,視頻能夠不可思議地將一個人的臉疊加到另一個人的身上,基于用戶建議的超現(xiàn)實藝術(shù)世代,以及圍繞著這些能力的倫理問題受到爭議。但另一種令人信服的數(shù)字模擬關(guān)鍵方法最近才得到適當(dāng)?shù)膶徱暫陀懻摗?br />
看看本田、吉普和雪佛蘭新推出的語音過濾器,在人工智能的幫助下,最近才開始得到更多重視。不幸的是,它帶來了一系列嚴(yán)重的社會影響,就像視頻深偽行業(yè)一樣,監(jiān)管機(jī)構(gòu)似乎對此無能為力。
新興的人工智能工具——比如Koe Recast——正在迅速提升它們可以將音頻輸入轉(zhuǎn)換成幾乎任何人聲音的能力,只要提供足夠的資料進(jìn)行分析的話。在某些情況下,這些程序只需要15秒至30秒的片段就能產(chǎn)生令人信服的模擬。盡管Koe Recast僅處于Alpha測試(α測試)階段,但已經(jīng)有例子顯示,元宇宙平臺公司董事長馬克·扎克伯格的一段簡短音頻聽起來可以像一個重低音敘述者,一個女人,甚至是一個高音調(diào)動漫角色。
Koe Recast的創(chuàng)建者阿薩拉·尼爾在接受“技術(shù)之道”網(wǎng)站的記者采訪時說:“我的目標(biāo)是幫助人們用任何能讓他們更快樂的方式來表達(dá)自己?!蹦釥栠€說,他打算最終發(fā)布一款桌面應(yīng)用程序,能夠在Discord和Zoom等平臺上實時轉(zhuǎn)換用戶的聲音。當(dāng)被問及壞人利用Koe Recast進(jìn)行人身攻擊以及發(fā)布虛假信息的可能性時,尼爾認(rèn)為,“就像任何技術(shù)一樣,它可能同時具有積極和消極的一面,但我認(rèn)為絕大多數(shù)人類都是由優(yōu)秀的人組成的,他們將從中受益匪淺”。
然而,批評人士仍對讓公眾放心使用這種潛在混亂的工具持懷疑態(tài)度。最近,一些外包呼叫中心的代表也已經(jīng)開始使用人工智能軟件來消除自己國家的口音,以聽起來更“本土”,減輕西方消費(fèi)者的偏見。盡管這個工具的創(chuàng)建者認(rèn)為他們的發(fā)明防止了偏見,但很多人反駁說,它只是提供了一種避免處理手頭更大問題的方法——即排外主義和種族主義。
同樣,一些大型企業(yè)的員工已經(jīng)成為騙子的獵物,他們利用類似的音頻模擬來模仿老板,要求轉(zhuǎn)賬和密碼。普羅托科爾網(wǎng)站的網(wǎng)絡(luò)安全記者凱爾·阿爾斯波最近在全國公共廣播電臺的《市場》欄目中解釋說:“在規(guī)模較大的企業(yè)中,我認(rèn)為,越來越多的企業(yè)開始看到這一點,因為他們真的是這種事情的現(xiàn)成目標(biāo)?!?br />
阿爾斯波也指出,這類騙局仍處于初級階段,但可能用不了多久,這些策略就會變得越來越常見,很難區(qū)分事實和虛構(gòu)。不幸的是,人工智能支持的視覺和音頻模擬的快速升級是無法阻擋的?!?