Das neuronale Netzwerk lernte, wie komplexe Bilder durch eine Textbeschreibung erzeugt werden

Forscher haben ein generativ-kontradiktorisches neuronales Netzwerk entwickelt, das dem sehr ähnlich ist

früherer Microsoft AttGAN-Algorithmus. Der Unterschied besteht darin, dass sich ein neues neuronales Netzwerk beim Erstellen von Bildern auf der Basis von Text auf Objekte konzentriert, dh den erforderlichen Text analysiert und Objekte aus der Bibliothek auf dem fertigen Bild anordnet.

Der Algorithmus wurde an 328.000 Objekten mit einer im COCO-Datensatz gesammelten Textbeschreibung trainiert.

Die Studie besagt, dass das vorgestellte neuronale Netzwerk die Erstellung einer textbasierten Beschreibung komplexer Objekte mit vielen kleinen Details besser beherrscht.

Zuvor hatte das Facebook AI-Labor künstliche Intelligenz eingeführt, die aus Lebensmittelfotos ein Rezept für dieses Gericht generieren kann.