Heim > Artikel > Technologie-Peripheriegeräte > Der Wettbewerb verschärft sich, da Microsoft und Adobe Tools zur KI-Bildgenerierung veröffentlichen
KI-Kunstgeneratoren werden mit der Einführung von OpenAI DALL-E und Midjourney immer beliebter. Sie nehmen Texteingaben auf und verwandeln sie in wunderschöne, oft surreale Kunstwerke – heute sind zwei große Unternehmen auf den Zug aufgesprungen.
Microsoft gab bekannt, dass es die auf dem DALL-E-Modell basierende KI-Bildgenerierungsfunktion über Bing Image Creator in die Bing-Suchmaschine und den Edge-Browser einführen wird. Der kreative Softwareentwickler Adobe gab außerdem bekannt, dass er seine Tools mit einem KI-Produkt zur Kunstgenerierung namens Firefly erweitern wird.
Dieser neue KI-Bildgenerator ist bereits im Kreativmodus für Benutzer verfügbar, die Zugriff auf die Bing-Chat-Vorschau haben. Benutzer erhalten eine Schnittstelle, die für sie Kunstwerke generiert, indem sie einfach eine Beschreibung des Bildes eingeben, das sie erstellen möchten, und ein aussagekräftiges Beispiel wie einen Ort, eine Sache oder eine Aktivität bereitstellen, und die zugrunde liegende KI erstellt basierend auf diesen Informationen.
Benutzer können schnell und einfach ihre Fantasie eingeben, einschließlich „Bild erstellen“ oder „Bild zeichnen“, und die KI übernimmt sie von dort, einschließlich Iteration durch Ändern interner Teile, Ändern von Bildelementen, sodass der Benutzer das ändern kann Hintergrund oder andere Teile des vorherigen Bildes. Edge-Benutzer mit Zugriffsrechten können diese Funktion auch nutzen, indem sie in der Seitenleiste auf das Bing Image Creator-Symbol klicken oder die Bing-Chat-Funktion im Browser aufrufen.
Microsoft betont, dass dieser KI-Bildgenerator über integrierte Schutzmaßnahmen verfügt, um die Erstellung unsicherer oder schädlicher Bilder zu verhindern. Wenn der Benutzer versucht, die Eingabeaufforderung zum Generieren eines solchen Bildes zu verwenden, wird der Generator den Benutzer blockieren und warnen. Dieses von der KI erstellte Bild platziert außerdem ein Wasserzeichensymbol in der unteren linken Ecke, sodass bei Verwendung des Bildes angezeigt wird, dass es von Bing Image Creator erstellt wurde – obwohl das Wasserzeichen möglicherweise abgeschnitten ist.
Yusuf Mehdi, Corporate Vice President, Consumer Chief Marketing Officer, Microsoft, sagte: „Mit diesen und weiteren Updates ist es unser Ziel, immersivere Erlebnisse in Bing und Edge zu bieten, die das Finden von Antworten und das Erkunden des Webs noch mehr Spaß machen.“ , nützlich und unterhaltsam.“
Diese Funktion wird jetzt für Benutzer mit Zugriff auf die neuen Vorschaufunktionen von Bing und Edge AI eingeführt und ist auf Englisch verfügbar. Benutzer, die keinen Zugriff auf die neuen Bing- und Edge-Funktionen haben, können sich auf eine Warteliste setzen oder es jetzt testen.
Adobe bringt das generative KI-Tool Firefly auf den Markt
Adobe nennt Firefly „eine Familie generativer KI-Modelle für den kreativen Ausdruck“ und wird es der App hinzufügen, damit Benutzer die Leistungsfähigkeit der KI-Kunstgenerierung freisetzen können. Beginnen Sie mit zwei Tools: eine, die es Benutzern ermöglicht, Benutzer zu generieren, und eine andere, die Texteffekte generiert.
Die neuen KI-Tools zur Kunstgenerierung werden direkt in die bestehende Creative Cloud-Tool-Suite von Adobe integriert, darunter Creative Cloud, Document Cloud, Experience Cloud und Adobe Express, sodass Benutzer diese Funktionen nutzen können.
Die erste Funktion in der Beta-Version ähnelt DALL-E oder Midjourney. Sie ermöglicht es dem Benutzer, eine Textaufforderung einzugeben und eine Reihe von Bildern basierend auf der Textbeschreibung „Text-zu-Bild“ zu generieren. Der zweite ähnelt WordArt und ist ein „Texteffekt“, der es dem Benutzer ermöglicht, Text auf dem Bildschirm einzugeben und dann aufgefordert wird, sein Erscheinungsbild anzupassen, z. B. „mit Schnee bedeckt“ oder „sieht aus wie aus Kuchen“. werden auf den auf dem Bildschirm eingegebenen Text angewendet.
Adobe plant außerdem viele weitere kommende Funktionen, die es Benutzern ermöglichen werden, Inhalte zu verwenden, die sie bereits in Adobe-Produkten erstellt haben, und Text zu verwenden, um zu beschreiben, was sie ändern oder hinzufügen möchten. Dies ist die Stärke der generativen KI, die die Fähigkeiten der bereits leistungsstarken KI-Tools von Adobe, die auf Adobe Sensei basieren, weiter erweitern kann.
Benutzer von Photoshop- und Illustrator-Grafikeditoren können beispielsweise ein Bild, an dem sie bereits arbeiten, aufnehmen und einen Teil ihrer digitalen Kunst auswählen und dann mithilfe kontextbezogener Eingabeaufforderungen einen bestimmten Teil des Bildes von der KI modifizieren lassen. Sie können ein Foto von einem Haus am Strand machen, das Haus auswählen, „Muschelhaus“ eingeben und die KI eine Version des Muschelhauses zeichnen lassen. Wählen Sie entweder „Ozean“ und bitten Sie die KI, Schiffe hinzuzufügen, oder wählen Sie „Himmel“ und fügen Sie Alien-Kämpfe hinzu.
Es kann auch verwendet werden, um neue Bilder zu erstellen, die auf dem gleichen Farbschema und Stil bestehender Inhalte basieren und so problemlos ähnliche Bilder erzeugen. Die gleiche Technologie kann auf die Videobearbeitung angewendet werden, da KI in der Lage ist, die Stimmung und sogar das Wetter zu verändern.
David Wadhwani, Präsident für digitale Medien bei Adobe, sagte: „Generative KI ist die nächste Evolutionsstufe der KI-gesteuerten Kreativität und Produktivität und verwandelt die Konversation zwischen Schöpfern und Computern in ein natürlicheres, intuitiveres und noch leistungsfähigeres Element.“ Mit Firefly wird Adobe die KI-gesteuerte Generierung von „kreativen Zutaten“ direkt in die Arbeitsabläufe der Kunden integrieren, um die Bedenken der Ersteller hinsichtlich der möglichen Verwendung durch Adobe auszuräumen. Adobe sagte, dass das erste Modell auf Adobe Stock-Bildern und öffentlich lizenzierten Inhalten basiert Der Zweck besteht darin, sicherzustellen, dass alle generierten Bilder sicher kommerziell genutzt werden können.
Adobe sagte außerdem, dass es ein Modell entwickelt, um YouTuber zu entschädigen, die ihre Arbeit zum Trainieren generativer KI-Modelle nutzen, wie etwa das in Firefly verwendete, ähnlich dem, das es für Adobe Stock verwendet. Darüber hinaus hat Adobe auch einen globalen Standard entwickelt, der es Erstellern ermöglicht, ihren Werken ein „Do Not Train“-Metadaten-Tag hinzuzufügen, um die KI anzuweisen, ihre Werke nicht zu verwenden.
Ab heute sind die ersten beiden Firefly-Tools in der öffentlichen Beta verfügbar.
Das obige ist der detaillierte Inhalt vonDer Wettbewerb verschärft sich, da Microsoft und Adobe Tools zur KI-Bildgenerierung veröffentlichen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!