看過日本動(dòng)漫《柯南》的朋友可能知道,柯南有一款能夠變聲的蝴蝶結(jié),現(xiàn)在這種技術(shù)可能不再僅僅是動(dòng)漫中的幻想了。據(jù)國外科技類媒體futurism.com2月28日消息,百度人工智能團(tuán)隊(duì)研發(fā)出一種神經(jīng)網(wǎng)絡(luò)技術(shù),能夠模仿聲音,在其發(fā)布的演示視頻中,軟件甚至還可以改變模仿聲音的性別甚至口音。
語音模仿并不是一項(xiàng)最新的技術(shù),但是隨著技術(shù)迭代,所需要使用的原始素材時(shí)長越來越短。在2017年百度深度語音研究團(tuán)隊(duì),展示過可以使用30分鐘時(shí)長的語音素材進(jìn)行聲音的模仿,Adobe公司有一個(gè)名為VoCo的程序,它的模仿將聲音素材時(shí)長縮短為20分鐘,加拿大一家名為Lyrebird的初創(chuàng)公司僅用一分鐘時(shí)長的素材就能模仿聲音。而現(xiàn)在百度進(jìn)一步創(chuàng)新,將素材時(shí)長縮短為數(shù)秒鐘。
這項(xiàng)技術(shù)能夠幫助創(chuàng)建個(gè)性化的數(shù)字助手和提供更自然的語音翻譯服務(wù)。
然而,與許多技術(shù)一樣,語音克隆技術(shù)也有被濫用的風(fēng)險(xiǎn)《新科學(xué)家》報(bào)道說,使用這樣的技術(shù)能夠做出聲音識別軟件,在測試中準(zhǔn)確率已經(jīng)超過了95%,這使得AI可能成為語音詐騙的幫兇。
現(xiàn)在已經(jīng)存在一些技術(shù)使人們可以使用AI進(jìn)行替換或者更改一些視頻畫面,甚至完全從頭制作出一些假的視頻,雖然目前主要是在互聯(lián)網(wǎng)上做些搞笑的視頻,但是也開始有人使用這種技術(shù),讓明星“出演”他們根本沒有參演過影片甚至色情電影?,F(xiàn)在,如果再加上這種聲音克隆技術(shù),那么我們可能很快就被假新聞轟炸了。
僅是使用文字或者Photoshop來愚弄人們就已經(jīng)很容易了,如果這樣的技術(shù)被別有用心的人所掌握,那么可能會有更大的麻煩。