from transformers import AutoTokenizer, AutoModelForSeq2SeqLM # Załaduj model z formatu safetensors model = AutoModelForSeq2SeqLM.from_pretrained("ścieżka_do_modelu", from_tf=False, from_safetensors=True) tokenizer = AutoTokenizer.from_pretrained("ścieżka_do_modelu") # Zapisz model i tokenizer w formacie kompatybilnym z PyTorch (plik .bin) model.save_pretrained("./models/ably") tokenizer.save_pretrained("./models/ably") print("✅ Model zapisany w formacie binarnym!")