<?xml version="1.0" encoding="utf-8" ?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
         xmlns:dc="http://purl.org/dc/terms/">

  <rdf:Description rdf:about="https://pro.bpi.fr/fiche-pratique/blind-test-musik-ia/">
    <rdf:type rdf:resource="http://www.w3.org/1999/02/22-rdf-syntax-ns#Description"/>
    <dc:title>EMI &amp;#8211; Blind test « Musik IA »</dc:title>
    <dc:subject>Médiation</dc:subject>
    <dc:subject>Pratiques innovantes</dc:subject>
    <dc:date>2024-07-05</dc:date>
    <dc:type>Fiche pratique</dc:type>
    <dc:publisher>Bpi</dc:publisher>
    <dc:description></dc:description>
    <dc:description>En amont de la séance, un collègue spécialisé en musique sélectionne une vingtaine de morceaux, qu’il décrit en quelques mots. Les descriptions textuelles servent ensuite de base pour créer des compositions musicales via une intelligence artificielle générative (Udio et MusicGen). À noter que la plateforme Suno permet de combiner chant et instrumentation.
Lors du blind test, le public doit déterminer quel morceau a été créé par un humain, par une IA ou par la combinaison des deux. Les extraits musicaux n’excèdent pas une trentaine de secondes. Chaque morceau est diffusé trois fois. Le public devine ensuite quel morceau est « humain », « IA » ou « les deux ». Afin de familiariser le public avec les générateurs de musique, on peut passer en début de séance quelques morceaux créés avec de l&amp;rsquo;IA.
Pendant la séance, une série d&amp;rsquo;images génératives (à partir d&amp;rsquo;une vidéo récupérée sur YouTube) est également projetée.
La séance se conclut par une petite démonstration technique, suivie de temps d&amp;rsquo;échanges avec le public.</dc:description>
    <dc:description>https://pro.bpi.fr/content/uploads/sites/3/2024/07/fiche-pratique-musik-ia.jpg</dc:description>
    <dc:rights>CC BY-SA 4.0</dc:rights>
  </rdf:Description>

</rdf:RDF>
