新華社北京7月22日專電(記者周文林)把看到一幅圖畫的感受譜寫成樂曲,這樣的本事以前為人類獨有。不過現(xiàn)在,經過深度學習的機器也在向這一目標靠近。百度近日首次嘗試將人工智能(AI)技術與視覺藝術和音樂創(chuàng)作相結合,機器可以在分析畫作之后,作出與之風格相應的曲子。
針對美國藝術大師羅伯特·勞森伯格的巨作《四分之一英里畫作》,百度通過人工智能技術,將其中兩聯(lián)分別譜成20余秒的鋼琴曲,實現(xiàn)了視覺呈現(xiàn)向聽覺表達的轉化。
記者了解到,這是通過規(guī)模龐大的神經網絡和深度學習算法由機器自主學習實現(xiàn)的。百度神經網絡在“看到”圖像后,首先會對圖像進行分析解讀,然后通過搜索挖掘相關的音樂信息,對音樂拆分重組,再合成與圖片內容相匹配的音樂旋律,最終拼接成完整的曲子。不過,由于神經網絡目前的作曲水平還較為初級,樂曲中的和弦部分由人工干預實現(xiàn)。
這是當前人工智能技術獲得的又一新進展。專家表示,雖然機器的這一能力尚與人類有不小差距,但從發(fā)展趨勢看,人工智能的自主創(chuàng)作能力將不斷提高。
今年以來,藝術創(chuàng)作是全球人工智能研究的一個新重點。相關資料顯示,谷歌也在加大對人工智能藝術創(chuàng)作能力的研發(fā),包括繪畫、作曲、視頻拍攝等,近日谷歌還發(fā)布了一段由人工智能創(chuàng)作的鋼琴曲。