Az új mesterséges intelligencia dalokat komponál néma előadású videókból

Az új mesterséges intelligencia dalokat komponál néma előadású videókból

Sok kínos kísérlet történt az algoritmusok betanítására, hogy megtegyék, amire az emberek képesek. A zene kiváló példa. Kiderült, hogy a megkomponált darab egyedi hangjainak teljesen expresszív előadássá alakításának folyamata – a hangerő és a hangulat változásaival kiegészítve – nem könnyű automatizálni.

A Washingtoni Egyetem egyik csapata azonban közeledik annak érdekében, hogy közelebb kerüljön kutatást mutattak be egy gépi tanulási konferencián tavaly év végén . Az „Audeo” nevű AI-eszközük, amely az „audio” és a „video” szavakat kombinálja, egy zongoraelőadás néma videóját nézi, mint például a virtuóz Paul Barton, aki Piotr Iljics Csajkovszkij művét adja elő. Valse Sentimentale (Op. 51).



Ezután csak a vizuális információk felhasználásával az Audeo olyan zenét készít, amely az éppen nézett zenész kifejezőkészségével és interpretatív sajátosságaival rendelkezik.

Attól függően, hogy milyen szintetizátorszoftvert dolgoztak a kutatók az Audeóval, az eredmény nagyon kifejező, de kissé „zajos” lehet:

Köszönet: Washingtoni Egyetem

Christie Taylor producer Eli Shlizerman vezető szerzővel beszélget arról, hogyan lehet kiképezni egy algoritmust a művészet létrehozásához, és hogy ezek az eszközök hogyan segíthetik a zenét elérhetőbbé és könnyebben kezelhetőbbé.


További irodalom