5月29日消息,新加坡國(guó)立大學(xué)和香港中文大學(xué)的研究人員聲稱已經(jīng)創(chuàng)造了一種人工智能——稱為MinD-Video,可以從大腦信號(hào)中重建“高質(zhì)量”視頻。
正如研究人員在一篇論文中介紹稱,MinD-Video AI 模型是根據(jù)來(lái)自 fMRI 讀數(shù)的公開(kāi)可用數(shù)據(jù)和 AI 圖像生成器 Stable Diffusion 的增強(qiáng)模型共同訓(xùn)練的。
研究人員稱,他們的模型能夠完全基于大腦讀數(shù)生成高質(zhì)量的 AI 重建視頻,平均準(zhǔn)確率為85%。
這篇新論文建立在研究人員之前使用人工智能通過(guò)僅分析腦電波來(lái)重建圖像的努力的基礎(chǔ)上。
MinD-Video可將大腦信號(hào)生成視頻效果著實(shí)讓人驚艷,例如,一段關(guān)于一群人走在繁忙街道上的視頻被翻譯成同樣擁擠的場(chǎng)景,生成的視頻色彩更鮮艷。
不過(guò)效果還有些瑕疵,例如,水母的視頻莫名其妙地變成了魚(yú)游泳的片段,而海龜?shù)囊曨l被重新解釋為魚(yú)的鏡頭。
研究人員認(rèn)為,這些人工智能世代也可以提供神經(jīng)學(xué)見(jiàn)解,例如顯示視覺(jué)皮層在視覺(jué)感知過(guò)程中的主導(dǎo)地位。
盡管這項(xiàng)研究令人著迷,但我們距離能夠戴上頭盔并獲得完全準(zhǔn)確的人工智能生成的視頻流的未來(lái)還很遙遠(yuǎn)。
來(lái)源:站長(zhǎng)之家