Readme.md

This commit is contained in:
l.gabrysiak 2025-02-25 11:44:32 +01:00
parent 4c7b1cbd0a
commit 91afff8c46
1 changed files with 31 additions and 14 deletions

View File

@ -1,18 +1,35 @@
ZAPAMIĘTAJ LOGOWANIE GIT NA MASZYNIE:
git config --global credential.helper store
PAMIĘTAJ O ZALOGOWANIU SIĘ DO HF!
# Przeczytaj uważnie przed uruchomieniem tego repo 📝
To jest biblia szkolenia modeli obsługiwanych przez Ably.do
## Konfiguracja Hugging Face Transpormers 🚀
**huggingface-cli login** \
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
huggingface-cli login
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
**W przypadku niektórych obrazów modeli musisz przejść przez akceptację licencji**
## Konfiguracja Git 🔥
**git config --global credential.helper store** \
Przejdź do folderu, w którym będziesz przechowywał lokalne repo. (np. **cd /home**) \
Pobierz repo: \
**git clone https://repo.pokash.pl/POKASH.PL/ably.do.git** \
pierwszym razem zostaniesz poproszony o zalogowanie się.
## Trenowanie modelu 🔥
Przejdź do folderu, w którym będziesz pobierał wiedzę z repo. (np. /home). \
Pobierz najnowsze zmiany (**git pull**) \
Uruchom skrypt Python, który rozpocznie trenowanie modelu: \
**python3 hft.py**
## Wdrażanie modelu ✨
Po wytrenowaniu modelu,
musisz przekonwertować go do formatu GGUF, który obsługuje Ollama. \
Konwersja do GGUF
1. Skorzystaj z narzędzia dostarczonego przez Ollama do konwersji: \
**ollama convert your_model.bin --output your_model.gguf** \
2. Umieść przekonwertowany model w katalogu Ollama: \
**mv your_model.gguf ~/.ollama/models/**
Jeśli masz własny model (np. po fine-tuningu na danych BHP), musisz przekonwertować go do formatu GGUF, który obsługuje Ollama.
Konwersja do GGUF
1. Skorzystaj z narzędzia dostarczonego przez Ollama do konwersji:
ollama convert your_model.bin --output your_model.gguf
2. Umieść przekonwertowany model w katalogu Ollama:
mv your_model.gguf ~/.ollama/models/
Uruchomienie dostrojonego modelu
Użyj nazwy swojego modelu w poleceniu:
ollama run your_model "Jakie są wymagania dotyczące ochrony słuchu?"
Uruchomienie dostrojonego modelu \
Użyj nazwy swojego modelu w poleceniu: \
**ollama run your_model** *"Jakie są wymagania dotyczące ochrony słuchu?"*