Nachsatz (wenn auch nicht so wichtig): Natürlich kann man jedes Modell auch nur mit wenigen Trainingsdaten erweitern. Aber dann hat man ein riesen File (15GB-25GB) mit nur ein paar TRainingsdaten mehr. Also eher ungut das Handling. Lora Modelle sind nur ein paar 100MB groß; also wesentlich einfacher zu handhaben und zu verschicken. Daher gibt es auf CivitAI so viele.
Die Einbindung ist sehr einfach. Zwischen dem Ausgang der Checkpoint Loaders (oder Diffusion Model Loader) und dem Scheduler oder KSampler wird einfach das Node 'LoraLoaderModelOnly' geschalten. Also, Model-Ausgang vom CheckpointLoader kommt in den Model-Eingang des Lora-Loaders und dessen Ausgang kommt wieder zum Scheduler- oder KSampler -Eingang. Ihr könnt somit beliebig viele Lora-Loader dazwischen schalten. Bei der Beschreibung der Lora-Modelle werden auch meistens Triggerwörter angegeben. Diese baut ihr in euren Prompt ein damit die KI auf die Daten des Lora-Modells zugreift. Mit dem Parameter 'strength_model' beeinflusst ihr die Gewichtung dieser Berücksichtigung. Gute Lora-Modelle erzeugen wirklich nur die Details für die sie trainiert wurden, schlechte Lora-Modelle können das ganze Bild verändern (was man meistens nicht will). Da spielt man sich dann mit der Gewichtung des Lora-Modells. Bei vielen Lora-Modellen wird das natürlich immer schwieriger.
Eigentlich egal wo es auf der SSD liegt. Die Datei 'extra_model_paths.yaml' im ComfyUI Verzeichnis definiert die Pfade wo die Checkpoints (und auch die Loras) liegen. Kontrolliert diese mal und passt sie euren Wünschen an. Aber da ihr eine frische Installation habt sollte das schon passen. Aber stimmt schon, ich musste auch ein paar Modelle ins unet Verzeichnis kopieren (am besten über Hard-Links), damit sie gefunden werden. Anscheinend halten sich nicht alle Nodes an die Vorgaben der Pfad-Definitionen.
Also ich komme jetzt schon gut klar mit den Models, Prompts, etc. gar nicht so schwer. @ToFu0815 : Drei Fragen noch! 1) Wenn ich jetzt ein Bild in möglichst hoher Auflösung und hohem Detailgrad generieren will, mache ich das über die Node hier? Also einfach eine 16:9 Auflösung einstellen und speichern? 2) Wofür ist "Batch_Size"? Und die Steps sind wirklich nicht so wichtig? Habe den EIndruck, dass mit mehr Steps auch mehr Details kommen. 3) Ich klicke manchmal einfach so lange, bis ein Bild passt. Das würde ich dann noch etwas optimieren (z.B. eben mit der Auflösung). Dann setze ich (nachdem es generiert wurde) "control_after_generate" auf "fixed", sodass beim nächsten Generieren kein neuer Seed generiert wird. Dennoch kommt nach dem nächsten Klick ein neues Bild. Erst das kommende Bild ist dann fixiert. Lässt sich das irgendwie anhalten?
Fein, freut mich! ad 1: Ja, ist richtig. Wobei es zu beachten gilt, dass das KI Modell nur für gewisse Auflösungen optimiert ist. Hier mehr dazu: https://www.reddit.com/r/StableDiff..._recommended_resolutions_from_01_to_20/?tl=de ad2: Batch Size gibt die Anzahl der Bilder pro Anzahl Queue an; also wenn du in der Queue 4 Aufträge hast und die Batch Size 2 ist werden 8 Bilder generiert. Ich lass Batch Size aber immer auf 1. Die Steps sind optimal zischen 20 und 30. Mehr bringt dann nicht mehr viel außer der Zeitaufwand pro Bild steigt. Ich lasse sie immer auf 30. ad3: Weiß ich auch nicht so genau. Wenn da fixed eingestellt ist sollte eigentlich (wenn sonst nichts verändert wurde) immer das gleiche Bild rauskommen. Ich verwende immer nur random.
Ahja, cfg ist auch noch ein wichtiger Parameter. Verwende ich aber fast nur beim Nachbearbeiten. Damit sagt man (so ungefähr; ich weiß es leider auch nciht so genau) wie stark die KI vom Prompt abweichen darf. Normalerweise verwende ich dafür immer 7. Wenn ich der KI mehr Spielraum geben möchte gehe ich bis zu 4 und äußerst selten bis 3 runter. Wenn ihr Bilder nachbearbeiten wollt/müsst, dann bitte wieder melden. Dafür gibt es auch einen eigenen Workflow und ein paar Tricks.
Ach und nochwas zu den Prompts: Vereinzelt klappt es mit verschiedenen "Elementen", diese mit Kommas voneinander zu trennen. Aber manchmal checkt das der Generator nicht, egal welches Modell. Mal ein ganz einfaches Beispiel. Ich möchte eine Dampflokomotive, wie sie durch einen Wald aus Kameras fährt. Das klappt aber nicht, weil immer nur ein Detail verwendet wird. Prompt: Hier fehlen IMMER die Kameras. A Steam Locomotive runs through a dark forest, There are many surveillance cameras on the trees Hier nochmal mit Gewichtung: Hier wird der Zug nicht mehr sinnvoll generiert... A Steam Locomotive runs through a dark forest, (There are many surveillance cameras on the trees:1.4) Wie muss man sowas formullieren?