35 lines
1.4 KiB
Markdown
35 lines
1.4 KiB
Markdown
|
|
# Przeczytaj uważnie przed uruchomieniem tego repo 📝
|
|
To jest biblia szkolenia modeli obsługiwanych przez Ably.do
|
|
|
|
## Konfiguracja Git 🔥
|
|
**git config --global credential.helper store** \
|
|
Przejdź do folderu, w którym będziesz przechowywał lokalne repo. (np. **cd /home**) \
|
|
Pobierz repo: \
|
|
**git clone https://repo.pokash.pl/POKASH.PL/ably.do.git** \
|
|
pierwszym razem zostaniesz poproszony o zalogowanie się.
|
|
|
|
## Konfiguracja Hugging Face Transpormers 🚀
|
|
**huggingface-cli login** \
|
|
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
|
|
|
|
**W przypadku niektórych obrazów modeli musisz przejść przez akceptację licencji**
|
|
|
|
## Trenowanie modelu 🔥
|
|
Przejdź do folderu, w którym będziesz pobierał wiedzę z repo. (np. /home). \
|
|
Pobierz najnowsze zmiany (**git pull**) \
|
|
Uruchom skrypt Python, który rozpocznie trenowanie modelu: \
|
|
**python3 hft.py**
|
|
|
|
## Wdrażanie modelu ✨
|
|
Po wytrenowaniu modelu,
|
|
musisz przekonwertować go do formatu GGUF, który obsługuje Ollama. \
|
|
Konwersja do GGUF
|
|
1. Skorzystaj z narzędzia dostarczonego przez Ollama do konwersji: \
|
|
**ollama convert your_model.bin --output your_model.gguf** \
|
|
2. Umieść przekonwertowany model w katalogu Ollama: \
|
|
**mv your_model.gguf ~/.ollama/models/**
|
|
|
|
Uruchomienie dostrojonego modelu \
|
|
Użyj nazwy swojego modelu w poleceniu: \
|
|
**ollama run your_model** *"Jakie są wymagania dotyczące ochrony słuchu?"* |