29.03.2023 von Rudi Schmidts
Was ist und was wird Firefly?
Auf der frisch gestarteten Webseite von Firefly sieht man bereits, wohin die Reise gehen soll und welche Dienste Adobe in nächster Zeit noch plant. Dies sind unter anderem Inpainting, Text to Vector, objektbasierte Bildbearbeitung per Textprompt, Upscaling (Superresolution), Smart Portrait, Randergänzung, 3D-Model to Image, Text to Pattern, Text to Brush, Sketch to Image, Bildgenerierung per Farbreferenz Bild, Kombination von Fotomotiven sowie Text to Template. Auch das Trainieren mit eigenen Bildern von speziellen Objekten für die Integration in KI-generierte Bilder soll möglich werden. Die meisten dieser Technologien findet man bereits bei anderen Anbietern im Netz, jedoch gibt es sie bislang noch nicht einfach zu bedienen "unter einer Haube". So soll mittelfristig natürlich auch eine tiefere Integration in Adobes digitale Designprodukte erfolgen - was weitaus größere kreative Möglichkeiten eröffnen wird, als jetzt gerade einzelne Standalone-Tools bieten können.
Der Stand der Dinge
Doch zurück in die Gegenwart: Aktuell steht neben einem Text-Texturengernator erst einmal "nur" ein einfacher Text-To-Image Generator zur Verfügung, der sich aktuell mit ähnlichen KI-Modellen wie Dall-E 2, Midjourney, Stable Diffusion oder dem Bing Image Creator vergleichen lassen muss.
Die zugrunde liegende Technologie scheint sich nicht grundsätzlich von den anderen generativen Modellen zu unterscheiden und die oft beeindruckenden Ergebnisse liegen meist in der Anmutung irgendwie zwischen Dall-E/Bing und Midjourney, mit dem sich Adobe selbst auch auf Augenhöhe sieht:
Apropos Augen: Auffällig ist, dass gerade bei möglichst realitätsgetreuen Abbildungen von Menschen auch bei Adobes Firefly die Augen und Hände oft den synthetischen Ursprung des Bildes verraten. Dieses Problem hat aktuell Midjourney mit der neuen Version v5 am besten im Griff. Ansonsten lässt sich die Qualität von Firefly als State-of-The Art beschreiben. Die meisten Ausgaben wissen nach ein paar Prompt-Iterationen mit hoher inhaltlicher Qualität zu begeistern:
Die großen Unterschiede zur Konkurrenz finden sich dagegen in der Bedienung und der Lizenzierung. Fangen wir mit der Bedienung an...
Bedienung
Als Eingabesprache akzeptiert Adobe momentan ausschließlich Englisch. Während andere KI-Modelle auch aus anderen Sprachen - meist jedoch nicht sonderlich treffsicher - Inhalte erzeugen können, prüft Adobe vor jeder Eingabe die Sprache. Gleichzeitig werden auf diesem Weg auch unerwünschte Worte aus dem Prompt gefiltert. Allerdings verrät Firefly nicht, welche speziellen (Reiz-)Worte die Ausführung der Ausgabe verhindern. Dies lässt sich nur durch Ausprobieren herausfinden.
Auch ist nicht klar, ob Adobe zu häufige Versuche "ahndet", unerwünschten Content zu erstellen. Adobe selbst verbietet jedenfalls explizit die folgenden Themen bei der Generierung von KI-Bildern:
- Pornografisches Material und eindeutige Nacktheit
- Hassvolle oder höchst beleidigende Inhalte, die eine Gruppe aufgrund von Rasse, ethnischer Zugehörigkeit, nationaler Herkunft, Religion, schwerer Krankheit oder Behinderung, Geschlecht, Alter oder sexueller Orientierung angreifen oder entmenschlichen
Grafische Gewalt oder Grausamkeit
- Die Förderung, Verherrlichung oder Androhung von Gewalt
- Illegale Aktivitäten oder Waren
- Selbstbeschädigung oder die Förderung von Selbstbeschädigung
- Darstellungen von nackten Minderjährigen oder Minderjährigen in sexueller Weise
- Förderung von Terrorismus oder gewalttätigem Extremismus
- Verbreitung von irreführenden, betrügerischen oder täuschenden Inhalten, die zu realen Schäden führen könnten
- Persönliche oder private Informationen Dritter
Bei Open Source Modellen wie Stable Diffusion lassen sich dagegen auch Bilder aus "unzensiertem Text" erzeugen - was einerseits einen unbestreitbaren Reiz darstellt, aber natürlich auch entsprechend verantwortungsloses Handeln ermöglicht. Während man mit Stable Diffusion beispielsweise Memes mit prominenten Gesichtern erzeugen kann, ist dies mit Adobes Firefly aktuell nicht möglich.
Auf den ersten Klick...
Auffällig ist, wie ansprechend fast jedes Firefly Ergebnis bereits beim ersten Versuch gelingt. Bei Stable Diffusion dauert es meistens erst einmal 5-20 Anläufe, bis man mit typischen Prompts auf ähnliche Ergebnisse kommt wie bei Adobes erstem Versuch. Allerdings bekommt man bei den kommerziellen Konkurrenten Midourney und Bing mittlerweile oft ähnlich gute "erste Würfe".
Vor- und zugleich auch Nachteil sind bei Firefly die wenigen Benutzer-Optionen. Man bekommt hier nach seiner Eingabe nur ein paar Optionen direkt per Mausklick zum weiteren Spielen geboten. Dabei gibt es drei grundsätzliche Vorlagen (Photo, Graphic sowie Art) sowie das gewünschte Seitenverhältnis zur Ausgabe des Bildes. Komplizierte Parameter wie bei Stable Diffusion gibt es hier nicht und die Bedienung ist in einer Minute durchschaubar.
Eine 16:9-Widescreen Ausgabe erfolgt beispielsweise mit 1792 x 1024 Pixeln in vierfacher Ausfertigung mit aktuell sehr hoher Geschwindigkeit. Die meisten anderen Dienste bieten aktuell weniger Auflösung. Zur europäischen Arbeitszeiten empfingen wir vier Versionen in dieser Auflösung stets unterhalb von 12 Sekunden. Dies ist selbst mit einer eigenen Spitzen-GPU unter Stable Diffusion kaum schneller hinzubekommen.
Wie bereits erwähnt gibt es keinen direkten Zugriff auf spezielle Parameter wie die Seed, was natürlich die Nutzung prinzipiell vereinfacht, aber es zugleich schwer macht, verschiedene Versionen eines Ergebnisses weiterzuentwickeln. Aktuell kann man immer nur ein generiertes Bild auswählen und auf dieser Grundlage drei neue Variationen von diesem Bild berechnen lassen. Wer sich jedoch etwas in HTML auskennt, kann die vier aktuellen Seeds dennoch leicht aus dem URL-Prompt fischen und für spätere Versions-Entscheidungen weiter nutzen.
Lizenz und Kosten
Wer aktuell von Adobe ins Beta-Programm aufgenommen wird, muss neben seiner Creative Cloud-Lizenz keine weiteren Kosten für die Generierung tragen. Aktuell scheint es zudem weder ein Mengen-Limit für eigene Versuche zu geben noch scheint aktuell ein Credit System geplant zu sein. Somit ist Adobes Modell in dieser Form für Kreative erstaunlich günstig - zumal man keine eigene Hardware benötigt. Vielleicht weiß man bei Adobe auch selbst noch gar nicht, wie man diesen Service in Zukunft bepreisen soll, aber als integrierter Service macht Adobe damit natürlich auch ein Creative Cloud Abo für viele KI-Interessierte ziemlich attraktiv.
Interessant klingt die Ankündigung, die generativen KI-Dienste so zu gestalten, dass die Kund*innen ihre Prompting-Talente sogar monetarisieren können. Ähnlich wie bei Adobe Stock und Behance sollen neue Verdienstmöglichkeiten für Adobe Stock-Designer*innen eingeführt werden. Sobald die Beta-Phase beendet ist, sollen Details zur Entlohnung bekannt gegeben werden. Das könnte kurzfristig für Early Adopter natürlich ein weiterer Reiz sein, schon jetzt auf Adobe zu setzen.
Nicht zuletzt ist für die Weiterentwicklung der internen KI-Modelle User-Feedback enorm wertvoll. Und eben dieses hat Adobe schon jetzt in Firefly integriert. So kann und soll man zu gelungenen Bildern Feedback abgeben, was über die Zeit die Ergebnisse weiter verbessern kann. Vielleicht ist dieses Feedback bereits genügend Entlohnung für Adobe.
Firefly als Geldquelle?
Überhaupt zielt Adobe wie kein zweiter Konkurrent auf die potentielle Kommerzialisierung der generierten Ergebnisse. Firefly wurde angeblich nur mit Adobe Stock-Bildern, offen lizenzierten Inhalten und Public Domain-Inhalten, deren Copyright abgelaufen ist, trainiert. Adobe will hiermit garantieren, dass Firefly keine Inhalte generiert, die auf dem geistigen Eigentum anderer Personen oder Marken basieren. Hiermit generierte Inhalte sollen für die kommerzielle Nutzung somit rechtlich wasserdicht nutzbar sein. Sicherlich auch kein unwichtiger Aspekt, wenn man sich als Early Adopter Künstler früh in den rechtlich noch sehr unsicheren kommerziellen Markt wagt.
Bei der Ausgabe der meisten konkurrierenden Modelle herrscht dagegen noch ein reines Wild West Szenario. Praktisch alle anderen Systeme deklarieren ihre Ausgaben als "vogelfrei", nach dem Motto: "Ihr könnt damit machen, was ihr wollt, aber ihr könnt auch keine Rechte dafür einfordern".
Wer jetzt schon ebenfalls Zugang erhält, sollte auch wissen, dass die aktuelle Firefly als Beta-Version nur für den "nicht kommerziellen Einsatz" benutzt werden darf. Was darauf schließen lässt, dass Adobe hier in Zukunft natürlich noch ein anderes Lizenzmodell im Kopf hat.
Die Zukunft
Ganz klar zeigt Adobe mit Firefly, dass man den KI-Zug auf keinen Fall vorbeiziehen lassen will und wird. Die erste Web-Implementierung ist sehr einfach, aber damit auch effektiv für jedermann zu benutzen und (bisher in der Beta) für Abonnenten der Creative Cloud verlockend gut.
Richtig spannend wird es, wenn Firefly-Modelle als Werkzeuge in Photoshop und Premiere zur Verfügung stehen. Bis dahin wird die KI-Konkurrenz allerdings auch noch einige spannende Dinge hervorgebracht haben.