Szkolenie 1-dniowe

Fine-tuning modeli językowych

Szkolenie pozwoli Ci opanować zaawansowane metody dostrajania modeli językowych, takich jak SmolLM i Mistral. Nauczysz się przygotowywać dane treningowe, oceniać jakość modeli oraz korzystać z nowoczesnych narzędzi i bibliotek, w tym Axolotl, Transformers i API OpenAI.

Cele szkolenia

Wprowadzenie do trenowania istniejących modeli językowych na przykładzie SmolLM i Mistral.

Zgłębienie technik przygotowywania danych treningowych.

Dla kogo jest to szkolenie?

Dla programistów z doświadczeniem w użyciu modeli językowych.

Wymagania

Znajomość Pythona i umiejętność korzystania z dużych modeli językowych.

Dostęp do API OpenAI.

Dostęp do środowiska Google Colab z GPU (wersja Pro).

Dostęp do repozytorium HuggingFace.

Dlaczego warto wziąć udział w szkoleniu?

Eksperci z praktycznym doświadczeniem

Szkolenie jest prowadzone przez osoby na co dzień zajmujące się inżynierią danych oraz uczeniem maszynowym.

Aktualny i dynamicznie dostosowywany program

Program jest ciągle uaktualniany ze względu na szybki rozwój rozwiązań, których dotyczy szkolenie.

Program szkolenia

1. Wprowadzenie

2. Omówienie sposobów dotrenowywania modeli językowych

3. Fine-tuning modeli językowych open-source

4. Fine-tuning modeli OpenAI

5. Ocena jakości otrzymanego modelu

Autor szkolenia - Bartosz Mikulski

W pracy zawodowej zajmuje się budowaniem zautomatyzowanej platformy wdrażania modeli uczenia maszynowego na produkcji. Specjalizuje się w inżynierii danych z użyciem AWS. Od 2017 roku pisze bloga o inżynierii danych, uczeniu maszynowym i sztucznej inteligencji. Napisał jeden z rozdziałów książki '97 Things Every Data Engineer Should Know'. Występuje na konferencjach i meetupach w roli prelegenta gdzie dzieli się swoim doświadczeniem ze społecznością programistów. Prowadzi szkolenia komercyjne.


Kursy PRO, na których prowadzi zajęcia:

Bartosz Mikulski