Readme.md
This commit is contained in:
parent
4c7b1cbd0a
commit
91afff8c46
45
readme.md
45
readme.md
|
|
@ -1,18 +1,35 @@
|
|||
ZAPAMIĘTAJ LOGOWANIE GIT NA MASZYNIE:
|
||||
git config --global credential.helper store
|
||||
|
||||
PAMIĘTAJ O ZALOGOWANIU SIĘ DO HF!
|
||||
# Przeczytaj uważnie przed uruchomieniem tego repo 📝
|
||||
To jest biblia szkolenia modeli obsługiwanych przez Ably.do
|
||||
|
||||
## Konfiguracja Hugging Face Transpormers 🚀
|
||||
**huggingface-cli login** \
|
||||
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
|
||||
|
||||
huggingface-cli login
|
||||
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
|
||||
**W przypadku niektórych obrazów modeli musisz przejść przez akceptację licencji**
|
||||
|
||||
## Konfiguracja Git 🔥
|
||||
**git config --global credential.helper store** \
|
||||
Przejdź do folderu, w którym będziesz przechowywał lokalne repo. (np. **cd /home**) \
|
||||
Pobierz repo: \
|
||||
**git clone https://repo.pokash.pl/POKASH.PL/ably.do.git** \
|
||||
pierwszym razem zostaniesz poproszony o zalogowanie się.
|
||||
|
||||
## Trenowanie modelu 🔥
|
||||
Przejdź do folderu, w którym będziesz pobierał wiedzę z repo. (np. /home). \
|
||||
Pobierz najnowsze zmiany (**git pull**) \
|
||||
Uruchom skrypt Python, który rozpocznie trenowanie modelu: \
|
||||
**python3 hft.py**
|
||||
|
||||
## Wdrażanie modelu ✨
|
||||
Po wytrenowaniu modelu,
|
||||
musisz przekonwertować go do formatu GGUF, który obsługuje Ollama. \
|
||||
Konwersja do GGUF
|
||||
1. Skorzystaj z narzędzia dostarczonego przez Ollama do konwersji: \
|
||||
**ollama convert your_model.bin --output your_model.gguf** \
|
||||
2. Umieść przekonwertowany model w katalogu Ollama: \
|
||||
**mv your_model.gguf ~/.ollama/models/**
|
||||
|
||||
Jeśli masz własny model (np. po fine-tuningu na danych BHP), musisz przekonwertować go do formatu GGUF, który obsługuje Ollama.
|
||||
Konwersja do GGUF
|
||||
1. Skorzystaj z narzędzia dostarczonego przez Ollama do konwersji:
|
||||
ollama convert your_model.bin --output your_model.gguf
|
||||
2. Umieść przekonwertowany model w katalogu Ollama:
|
||||
mv your_model.gguf ~/.ollama/models/
|
||||
Uruchomienie dostrojonego modelu
|
||||
Użyj nazwy swojego modelu w poleceniu:
|
||||
ollama run your_model "Jakie są wymagania dotyczące ochrony słuchu?"
|
||||
Uruchomienie dostrojonego modelu \
|
||||
Użyj nazwy swojego modelu w poleceniu: \
|
||||
**ollama run your_model** *"Jakie są wymagania dotyczące ochrony słuchu?"*
|
||||
Loading…
Reference in New Issue