LORA (Low-rank Adaptation for Fast T2I Diffusion Fine-tuning)

깃허브

모델은 놔두고 파인튜닝을 계속 하는 것으로 쓰인다.

이미지 생성시 추가 시간이 소요되지 않고, 파인튜닝 방식보다 결과 퀄리티가 좋으나 6GB이상의 CUDA 코어가 있어야 하는것으로 보인다.