Aha....dann lad ich auch mal die kleine... Jetzt bin ich seit Tagen in ChatGPT am rumfuhrwerken, aber so langsam verlässt mich die Lust. Die ganze Zeit: "gleich", "in ein paar Minuten", etc., aber kommen tut nix (seit 3 Tagen), .......mach ich morgen beim arbeiten auch so...."gleich fertig". Und ich drängle wirklich nicht, als die KI mir sagte "in ein paar Minuten", hab ich erst 3 Stunden später mal nachgehakt. Muss die KI denn gleich sooooo menschlich sein?!
OpenXR umprogrammieren, bzw. mal testen, ob´s geht. Also paar mal hatte ich schon ein Erfolgserlebnis, aber halt unterm Strich = 0.
Also ich kann die Faszination echt verstehen, gestern völlig die Zeit vergessen, hier noch ein Tag=Generieren, da noch ein Tag=Generieren usw. und plötzlich waren drei Stunden um. Aber Flux Dev Full will weiterhin nicht laufen. Ich muss den Tip mit dem [Load Diffusion Model] Loader nochmal testen.
Sehr seltsam... Wenn du das Node 'Load Diffusion Model' verwendest musst du auch ein Clip und ein VAE Model bereitstellen. Eventl. findest du einen Link in dem, nicht mehr ganz so aktuellen, Start-Guide.
VAE: https://comfyui-wiki.com/en/install/install-models/install-vae CLIP: https://comfyui-wiki.com/en/comfyui-nodes/advanced/loaders/dual-clip-loader In einem der Bilder, die ich hier gepostet habe, ist ein Workflow mit dem Load Diffusion Model dabei. Du musst nur das VAE- und CLIP-Modell in den entsprechenden Ordner bei dir schieben und dann in den Nodes diese auswählen.
Hast du dir die 22GB Version runtergeladen? Wenn ja, versuch bitte noch die 15GB Version bevor du mit dem Load Diffusion Model beginnst.
Dank dir, dass muss ich später mal testen. Ja wie gesagt, habe alle vier Versionen getestet, von dem leider nur eines lief.
Das richtige Modell bzw. der/die/das Lora zu finden ist auch schon eine Herausforderung. Mittlerweile lade ich mir einfach alles runter, was bei 3 auf der Festplatte ist, aber da muss ich schon die Dateien mit einer gewissen Struktur benennen, sonst blicke ich da nicht mehr durch. Gibt es evtl. irgendwas zum Organisieren? Alles in einen Ordner klatschen zu müssen, kann wirklich unübersichtlich werden. Dazu noch ein paar Fragen an @ToFu0815 (sorry, dass ich dich so zuballere ) die eher Bilder mit hoher Auflösung betreffen. Z.B. wenn man Wallpaper erstellen will. Nicht alle Modelle sind dafür geeignet...soweit verstanden. Aber.... 1) Woran erkenne ich Modelle, die 2440 x 1440 können? Wenn die das nicht können, kommen bei hoher Auflösung immer doppelt und dreifache Motive raus, richtig? 2) Auch fände ich es besser, wenn ich erst mal was Kleines generieren könnte, um schnell zu sehen, ob das passt und dann genau dieses Bild noch mal in "groß" zu generieren. Nur leider kommt ein völlig anderes Bild raus, wenn ich nur die Größe ändere. Alles andere (wie Seed & Co.) aber gleich lasse. Kann man das beeinflussen? 3) Hast du evtl. einen guten, vorbereiteten Workflow zum "upscalen" eines bestehenden Bildes? Denn ich habe nur was gefunden, bei dem ich wieder einen Prompt eingeben muss. Doch dort werden ja wieder neue (und somit andere) Bilder generiert.
Kein Problem ad1: Steht in der Modellbeschreibung des Herstellers(Flux -> Black Forest Labs). Nein, keine doppelten Bilder sondern häßliche Bilder ad2: Wüsste nicht, wie man das machen soll. Wenn du ein großes Bild benötigst würde ich empfehlen, es so groß wie es das Modell hergibt zu generieren und dann mit einem Upscaler vergrößern. ad3: Nein, leider. Dafür verwende ich noch das alte A1111. Ein Prompt brauche ich dafür nicht. Ich muss nur den Vergößerungsfaktor angeben und dann einen oder zwei Upscaler festlegen.