Wie gesagt; ich komm kaum noch zum Spielen da ich fast 100% Rechenzeit für die Bildgenerierung benötige
Also sämtliche Programmierversuche mit ChatGPT waren zumindest bei mir alle zum Wegwerfen. Nichts hatte auch nur ansatzweise funktioniert. Weiß aber nicht, ob das mit dem neuesten Modell besser wurde. Copilot soll etwas besser programmieren können, hab ich gehört. Aber ich glaube, dafür fehlt mir dann echt die Geduld. Da ist es wohl einfacher, sich selbst ranzuwagen. VBA, SQL, Amiga Basic und ein bisschen Python kann ich schon. Vielleicht reicht das schon.
Wie pauschal kann man das eigentlich Berechnen, pro Generierung gleich 10 min VR-Zock? Generiere in der Regel immer zwei Bilder mit 1024. Hab's gestern auch kurz geschafft den Rechner in die Knie zu zwingen, einmal zulange auf der Spacetaste verblieben, alles ging aus und die GPU ging instand über in den Turbinenmodus.
Die KI verarscht mich... Seit 2 Tagen warte ich auf die Datei, ständig "bin bei 40%", "bin bei 60%", gleich fertig, 1 Minute noch, etc. etc. ......und als ich mal nachgefragt habe, ob das überhaupt möglich ist, daß die KI Dateien hochläd sagt sie "Nein"
Ein Beispiel, wie ich von Zeit zu Zeit auf neue Ideen komme: Hier ein Lora, welches mir sehr gut gefällt: https://civitai.com/models/824478/70s-scifi-style-by-chronoknight-flux-and-il?modelVersionId=921974 Viele Poster geben ihren Prompt in den Beispielbilder an (sieht man am kleinen ! rechts unten im Bild). Einfach mal den kompletten Prompt kopieren und versuchen, das Bild nachzustellen. Dann Variationen einbauen um zu sehen, wie das Lora damit umgeht. UInd schon hat man wieder einen neuen Ansatz und etwas Neues gelernt.
Den kniff hab ich auch gefunden, das Tool/Umgebung ist wirklich mehr als durchdacht. Ich wollte es gerade mal für "Flux" mit dem "Load Diffusion Model" versuchen @ToFu0815, aber ich bekomme leider folgende Fehlermeldung: (Aber irgendwie macht der Workflow so doch keinen Sinn, ohne "Load Checkpoint" Model-Anbindung.) Mal allgemein gefragt, ist meine Logik dahingehen eigentlich richtig? (Checkpoint und Lora) (Nur Lora ohne Checkpoint)
Ok, anscheinend habe ich das nicht gut erklärt. Beim LoadDiffusionModell musst du CLIP und VAE extra bereitstellen jedoch nicht mit dem LoadCheckpoint Node. z.B.: so Dazu musst du dir die MOdelle für CLIP und VAE (siehe Link in meinem Post) runterladen und in die entsprechenden Ordner kopieren. CLIP d:\ComfyUI_windows_portable\ComfyUI\models\clip\ VAE d:\ComfyUI_windows_portable\ComfyUI\models\vae\ Bzgl. der Fehlermeldung: Bei unet_name steht 'null'; also wird da natürlich auch kein Modell geladen. Einfach auf dieses Feld 'unet_name' im LoadDiffusionModel Node klicken und dann öffneet sich ein Auswahlfenster wo du dir dein runtergeladenes Modell aussuchen kannst (wenn es im richtigen Verzeichnis abgelegt ist).
Für die Loras verwende ich immer nur LoraLoaderModelOnly. Konnte bisher nicht feststellen, wie weit CLIP und VAE dadurch beeinflusst werden. Aber gut möglich, dass ich da etwas übersehen habe. Zumindest funktionieren sie bei mir meistens recht gut.
Hab es mal nachgebaut (wo findet man nochmal die Node Suchfunktion?) und mal nach VAE auf CiviAI gesucht, muss ich da auch wieder auf den Flux .1D/.1S Tag achten? Nach CLIP gibt es dort allerdings keine Suchfunktion. @ReVoltaire sind bei dir diese zusätzlichen schritte auch nötig?