Android Sentral

YouTubes nye AI driver ut musikk ved å bruke stemmer fra ekte sangere

protection click fraud

Hva du trenger å vite

  • Google DeepMinds nye Lyria-modell kan lage musikk med instrumental og vokal i en rekke sjangere, og den kan opprettholde kompleksiteten til rytmer, melodier og vokaler over lange passasjer.
  • YouTube og Google DeepMind samarbeider om to AI-eksperimenter for musikk, inkludert Dream Track, som lar brukere lage 30-sekunders lydspor for YouTube Shorts i stil med favorittartistene deres, og Music AI-verktøy for å hjelpe den kreative prosessen med kunstnere.
  • DeepMind bruker også SynthID for å merke AI-generert lyd på en måte som ikke er hørbar for mennesker, og dette vannmerket kan brukes til å spore opprinnelsen til AI-generert musikk og forhindre misbruk.

Google dykker formelt inn i AI-musikkens verden med et nytt eksperiment kalt Dream Track, et AI-verktøy som pisker opp originale låter som etterligner stilen til favorittsangerne dine.

Dream Track er allerede i hendene på noen få YouTubere, og det gir ut 30-sekunders spor som etterligner artister som Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia, T-Pain, Troye Sivan og Papoose, kunngjorde Google i en

blogg innlegg.

I en demo slengte en bruker inn en forespørsel som "en ballade om hvordan motsetninger tiltrekker seg, upbeat akustisk," og Dream Track pisket opp et kort klipp av en ny sang sunget av en stemmeklone av Charlie Puth. Stemmeklonen hørtes ut akkurat som den ekte Puth, komplett med et backingspor som matcher stemningen.

Akkurat nå er det bare en "liten gruppe utvalgte amerikanske skapere" som kan prøve ut Dream Track, og det kan bare brukes til å lage musikk for YouTube Shorts. Det ruller ut med andre AI-musikk-sidekicks som kan lage hornseksjoner og hele orkestre ved å bruke tekstmeldinger og nynning. Disse nye verktøyene er fortsatt under utvikling, men de vil være tilgjengelige for deltakere i YouTubes Music AI-inkubator senere i år.

Googles siste prosjekt utvikles med DeepMind-teamet ved å bruke en ny AI-musikkgenerasjonsmodell kalt Lyria. Selv om disse verktøyene har potensial til å revolusjonere måten musikk skapes på, vekker de også bekymringer om hvordan man kan beskytte artisters intellektuelle eiendom.

Tidligere i år surret musikkverdenen om sangen «Heart on My Sleeve», som brukte AI til å høres ut som Drake og The Weeknd. Universal Music Group (UMG), etiketten bak Drake og The Weeknd, spilte opphavsrettskortet for å rive det sporet av strømmeplattformer og sosiale medier. UMG til slutt slo seg sammen med Google til offisielt lisensiere artistenes stemmer for Dream Track.

Det Mountain View-baserte selskapet har som mål å løse opphavsrettsproblemer ved å utvikle verktøy som kan identifisere AI-generert musikk. Et slikt verktøy, kalt SynthID, merker AI-generert lyd med et vannmerke som ikke er hørbart for mennesker.

SynthID debuterte i slutten av august med målet om å identifisere AI-genererte bilder ved å snuse opp et digitalt vannmerke rett i pikslene. Disse vannmerkene dukker opp hver gang en Google AI-modell spytter ut et bilde.

Når det gjelder AI-generert musikk, sier Google at dette vannmerket vil holde lytteopplevelsen intakt, og det skal fortsatt være der selv om du gjør endringer i sangen, som å komprimere den, øke hastigheten eller legge til bråk.

instagram story viewer