Go to file
l.gabrysiak 61fbc79211 mod herbert 2025-03-01 11:35:22 +01:00
docs Przeniesiono z folderu GŁÓWNEGO do DOCS 2025-02-27 19:43:35 +01:00
.DS_Store mod 2025-02-25 22:00:00 +01:00
allegro.py mod allegro 2025-02-28 23:04:03 +01:00
catalog.json mod 2025-02-25 23:17:07 +01:00
gemma-faiss.py mod 2025-02-26 16:10:38 +01:00
gemma.py mod gemma 2025-02-26 14:07:49 +01:00
gpt.py mod gpt 2025-02-26 11:19:33 +01:00
herbert.py mod herbert 2025-03-01 11:35:22 +01:00
hft.py mod 2025-02-26 00:19:51 +01:00
readme.md readme 2025-02-25 12:11:02 +01:00
requirements.txt mod 2025-02-25 20:59:06 +01:00
test.py mod test 2025-02-26 10:32:08 +01:00

readme.md

Przeczytaj uważnie przed uruchomieniem tego repo 📝

To jest biblia szkolenia modeli obsługiwanych przez Ably.do

Konfiguracja Git 🔥

git config --global credential.helper store
Przejdź do folderu, w którym będziesz przechowywał lokalne repo. (np. cd /home)
Pobierz repo:
git clone https://repo.pokash.pl/POKASH.PL/ably.do.git
pierwszym razem zostaniesz poproszony o zalogowanie się.

Konfiguracja Hugging Face Transpormers 🚀

huggingface-cli login
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

W przypadku niektórych obrazów modeli musisz przejść przez akceptację licencji

Trenowanie modelu 🔥

Przejdź do folderu, w którym będziesz pobierał wiedzę z repo. (np. /home).
Pobierz najnowsze zmiany (git pull)
Uruchom skrypt Python, który rozpocznie trenowanie modelu:
python3 hft.py

Wdrażanie modelu

Po wytrenowaniu modelu, musisz przekonwertować go do formatu GGUF, który obsługuje Ollama.
Konwersja do GGUF

  1. Skorzystaj z narzędzia dostarczonego przez Ollama do konwersji:
    ollama convert your_model.bin --output your_model.gguf \
  2. Umieść przekonwertowany model w katalogu Ollama:
    mv your_model.gguf ~/.ollama/models/

Uruchomienie dostrojonego modelu
Użyj nazwy swojego modelu w poleceniu:
ollama run your_model "Jakie są wymagania dotyczące ochrony słuchu?"