Das Stable Audio Modell wurde zu diesem Zweck anstelle von Bildern mit verschiedenen Audioinputs trainiert. Verwendet wurden über 800.000 - lizensierte - Dateien der Audiobibliothek AudioSparks inklusive der jeweiligen Metadaten. Durch dieses kontextreiche Training ist das Modell in der Lage, gepromptete Vorgaben bezüglich Inhalt und Form recht gut einzuhalten, und auch den Output auf die genaue Länge zu timen. Um das Modell auf eine Verbindung zwischen Text und Audio zu konditionieren, wurde beim Training eine Technik namens Contrastive Language Audio Pretraining (CLAP) eingesetzt - genaueres dazu in diesem Blog-Beitrag, in dem auch gute Audiobeispiele eingebettet sind.
Generieren lassen sich sowohl Musikstücke mit bis zu 90 Sekunden Länge, als auch einzelne Instrumentspuren oder auch Soundeffekte. Vorgeben lassen sich das Genre, der Stil, die Stimmung, die Instrumentierung, die Geschwindigkeit in BPM und mehr - im Grunde alles, was bei Audiobibliotheken üblicherweise über die Metadaten definiert wird. In einem User-Guide hat StabilityAI einige Prompt-Beispiele zusammengetragen, die von kurz und knackig bis mehrzeilig ausfallen.
Die resultierenden Musikstücke klingen wenig hitverdächtig, um nicht zu sagen teilweise recht erratisch "komponiert". Wobei es auch auf die Art Musik ankommt und auf die Länge; ruhige, ambient-artige Tracks lassen sich z.T. kaum von der typischen, GEMA-freien Hintergrundmusik unterscheiden. Eher brauchbar scheinen uns grundsätzlich die kürzeren Sound-Schnipsel, welche sich als Effektuntermalung generieren lassen, oder vielleicht minimalistisch gehaltene Instrumentausgaben.
Stable Audio ist in einer kostenlosen Version zugänglich, mit welcher sich pro Monat 20x bis zu 45 Sekunden lange Tracks generieren lassen. Das Pro-Abo für 12 Dollar im Monat erlaubt 500 Generierungen von bis zu 90 Sekunden Länge, welch auch in kommerziellen Projekten genutzt werden dürfen. Der Download erfolgt in 44.1 kHz Stereo.
Auch ein Open Source-Modell von Stable Audio soll demnächst veröffentlicht werden, allerdings wird dies mit einem anderen Datensatz trainiert worden sein, aus Lizenzgründen darf man annehmen.
mehr Informationen
Kommentare lesen/schreiben
Passende News:
- Filmic Pro - Team aus dem Rennen, Pferd läuft noch weiter
- Stable Video Diffusion - Freies KI-Diffusionsmodell zur Videoerzeugung vorgestellt
- AMD Ryzen Threadripper (Pro) 7000 - Workstation auch wieder als HEDT-Mittelklasse
- Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität
- Schlägt Meta Stable Diffusion XL mit Ästhetik? Emu trainiert "vom Feinsten"
- ElevenLabs - KI-Dubbing Audio Übersetzung als Web-Service
- Das Flaggschiff Kamera-Rennen zu den olympischen Spielen wird etwas konkreter: Sony A9 III und Canon EOS R1 (?)
- Stable Diffusion XL Style Studies - Stilberatung für das kreative Prompting
- Drehbuchstreik in Hollywood endet nach 148 Tagen mit gutem Deal für Autoren - auch in Punkto KI
- DALL-E 3 ist da und generiert exaktere KI-Bilder inkl. Text dank ChatGPT-Integration
- Adobe führt Credit-basiertes Modell für generative KI ein (und die Creative Cloud wird teurer)
- Grass Valley kündigt EDIUS 11 an mit KI-Funktionen, neuem Audio Editor und mehr