diff --git a/readme.md b/readme.md index fd163a3..c72c463 100644 --- a/readme.md +++ b/readme.md @@ -1,18 +1,35 @@ -ZAPAMIĘTAJ LOGOWANIE GIT NA MASZYNIE: -git config --global credential.helper store -PAMIĘTAJ O ZALOGOWANIU SIĘ DO HF! + # Przeczytaj uważnie przed uruchomieniem tego repo 📝 + To jest biblia szkolenia modeli obsługiwanych przez Ably.do + + ## Konfiguracja Hugging Face Transpormers 🚀 + **huggingface-cli login** \ + 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 -huggingface-cli login -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 + **W przypadku niektórych obrazów modeli musisz przejść przez akceptację licencji** + + ## Konfiguracja Git 🔥 + **git config --global credential.helper store** \ + Przejdź do folderu, w którym będziesz przechowywał lokalne repo. (np. **cd /home**) \ + Pobierz repo: \ + **git clone https://repo.pokash.pl/POKASH.PL/ably.do.git** \ + pierwszym razem zostaniesz poproszony o zalogowanie się. + ## Trenowanie modelu 🔥 + Przejdź do folderu, w którym będziesz pobierał wiedzę z repo. (np. /home). \ + Pobierz najnowsze zmiany (**git pull**) \ + Uruchom skrypt Python, który rozpocznie trenowanie modelu: \ + **python3 hft.py** + + ## Wdrażanie modelu ✨ + Po wytrenowaniu modelu, + musisz przekonwertować go do formatu GGUF, który obsługuje Ollama. \ + Konwersja do GGUF + 1. Skorzystaj z narzędzia dostarczonego przez Ollama do konwersji: \ + **ollama convert your_model.bin --output your_model.gguf** \ + 2. Umieść przekonwertowany model w katalogu Ollama: \ + **mv your_model.gguf ~/.ollama/models/** -Jeśli masz własny model (np. po fine-tuningu na danych BHP), musisz przekonwertować go do formatu GGUF, który obsługuje Ollama. -Konwersja do GGUF - 1. Skorzystaj z narzędzia dostarczonego przez Ollama do konwersji: - ollama convert your_model.bin --output your_model.gguf - 2. Umieść przekonwertowany model w katalogu Ollama: - mv your_model.gguf ~/.ollama/models/ -Uruchomienie dostrojonego modelu -Użyj nazwy swojego modelu w poleceniu: -ollama run your_model "Jakie są wymagania dotyczące ochrony słuchu?" \ No newline at end of file + Uruchomienie dostrojonego modelu \ + Użyj nazwy swojego modelu w poleceniu: \ + **ollama run your_model** *"Jakie są wymagania dotyczące ochrony słuchu?"* \ No newline at end of file