File size: 1,835 Bytes
4ed0624 91b3d13 4ed0624 da37867 3e01864 8bcb16a da37867 8bcb16a 3e01864 4ed0624 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 |
---
tags:
- text-to-image
- stable-diffusion
- lora
- diffusers
- template:sd-lora
widget:
- text: '-'
output:
url: images/0.jpg
base_model: CompVis/stable-diffusion-v1-4
inference:
parameters:
num_inference_steps: 200
guidance_scale: 7.5
height: 128
width: 128
---
# Mukh-Oboyob
## Usage
```py
from diffusers import DiffusionPipeline
from transformers import AutoTokenizer,AutoModel
from diffusers.models import AutoencoderKL
vae = AutoencoderKL.from_pretrained("stabilityai/sd-vae-ft-ema")
pipeline = DiffusionPipeline.from_pretrained(
"CompVis/stable-diffusion-v1-4",
tokenizer=AutoTokenizer.from_pretrained('csebuetnlp/banglabert'),
text_encoder = AutoModel.from_pretrained("csebuetnlp/banglabert"),
vae=vae
)
pipe.unet.load_attn_procs("gr33nr1ng3r/Mukh-Oboyob")
pipe = pipe.to(device)
prompt = "মেয়েটির কালো চুল ছিল। মেয়েটির মুখে ভারী মেকাপ ছিল। মেয়েটির উঁচু গালের হাড় ছিল। মেয়েটির মুখ কিছুটা খোলা ছিল। মেয়েটির চেহারা ডিম্বাকৃতির। মেয়েটির চোখা নাক ছিল। মেয়েটির ঢেউ খেলানো চুল ছিল। মেয়েটির কানে দুল পরা ছিল। মেয়েটির লিপস্টিক পরা ছিল। "
image = pipeline(prompt, num_inference_steps=200, guidance_scale=7.5,height=128,width=128).images[0]
image
```
<Gallery />
## Download model
Weights for this model are available in PyTorch format.
[Download](/gr33nr1ng3r/Mukh-Oboyob/tree/main) them in the Files & versions tab.
|