AI

Regularyzacja w uczeniu maszynowym

Jest to celowe uproszczenie modelu w celu uniknięcia przetrenowania. W zależności od algorytmu stosowane są inne sposoby regularyzacji. Często potocznie regularyzacja jest nazywana karaniem (penalizing) algorytmu. Wczesne zatrzymanie Ten sposób regularyzacji dotyczy wszystkich algorytmów. Polega on na odpowiednim doborze czasu uczenia modelu. Najczęściej im dłużej model się uczy, tym jest on coraz bardziej przetrenowany. Stąd …

Regularyzacja w uczeniu maszynowym Czytaj dalej »

Uczenie z przykładów i uczenie z modelu

Na wstępie pragnę zauważyć, że uczenie z przykładów (instance-based learning) jest trafioną nazwą. Lecz uczenie z modelu (model-based learning) nie jest dobrze dobraną nazwą. Stąd opisując drugie, będę używał sformułowania uczenie się reguł. Uczenie się przykładów (na blachę) Model próbuje nauczyć się (czasami są one zapisywane za pomocą wektorów) jak największej ilości przykładów a następnie …

Uczenie z przykładów i uczenie z modelu Czytaj dalej »

Uczenie wsadowe i przyrostowe

Uczenie wsadowe (batch learning/offline learning) jest to sytuacja, w której model uczymy raz i później wrzucamy ten model „na produkcję”. W ramach potrzeby przeuczenia modelu, uczony jest on od początku na danych, które już istniały oraz na nowych danych. Niestety wymaga to przechowywania wszystkich danych uczących i ich dalszego gromadzenia. A co gorsze każdorazowego uczenia …

Uczenie wsadowe i przyrostowe Czytaj dalej »

Nadzór człowieka przy uczeniu maszynowym

Okazuje się, że nie zawsze człowiek musi nadzorować algorytmy uczące się 🙂 W tym wpisie zwięźle opiszę uczenie nadzorowane, nienadzorowane, półnadzorowane oraz uczenie przez wzmacnianie. Uczenie nadzorowane (supervised learning) Człowiek tutaj w pełni nadzoruje uczenie modelu – wszystkie przykłady dostarczane modelowi są oznaczone – posiadają etykiety (labels): komentarz pozytywny/negatywny (etykieta) To jest świetny produkt, każdy …

Nadzór człowieka przy uczeniu maszynowym Czytaj dalej »

Data mining

Jest to technika uczenia maszynowego polegająca na wyciąganiu wniosków z dużej ilości danych za pomocą algorytmów. Przykładowo mamy wiele wiadomości oznaczonych jako spam przez użytkowników. Możemy te wszystkie wiadomości „wpuścić” do algorytmu i następnie zapytać go o reguły – czyli przykładowo jakie słowa/zdania mają największe znaczenie w wiadomościach typu spam.

RAG – czyli jak rozszerzyć wiedzę modelu bez ponownej nauki

RAG to z angielskiego Retrieval Augumented Generation czyli generowanie wzbogacone pozyskiwaniem 😉 A chodzi tutaj o to, żeby wydobyć jakąś (Retrieval) wiedzę i dostarczyć ją (Augumented) modelowi generacyjnemu (Generation) aby ten na jej podstawie odpowiedział na pytanie/rozwiązał problem. Przykładowo znany dobrze ChatGPT ma bardzo szeroką wiedzę, ale na pewno nie wie nic na temat wewnętrznych …

RAG – czyli jak rozszerzyć wiedzę modelu bez ponownej nauki Czytaj dalej »

Chain of thoughts – czyli jak krok po kroku rozwiązywać zadanie

Chain of thoughts jest techniką polegającą na dostarczeniu modelowi algorytmu rozwiązywania problemu, dopiero po czym dostarczany jest problem. Można powiedzieć, że model dzięki temu „wie jak ma myśleć” (jakie kroki ma wykonać). Modele przeważnie są bardzo dobre w wykonywaniu zadań matematycznych. Ale przykładowo wprowadzając nową logikę, mogą się trochę pogubić. Załóżmy taką algorytmikę: No to …

Chain of thoughts – czyli jak krok po kroku rozwiązywać zadanie Czytaj dalej »

Zero-, few-shot prompting – dostarczanie przykładów modelowi

Modele językowe generujące odpowiedzi (na przykład ChatGPT) czasami w celu wygenerowania lepszych odpowiedzi potrzebują kilku przykładów (few-shot). A w niektórych są w stanie rozwiązać problem bez żadnego przykładu (zero-shot). Zero-shot Jest pewna pula zadań/pytań na które modele językowe są w stanie odpowiedzieć bez dostarczania im przykładów jak rozwiązać zadań/odpowiedzieć na pytanie. Przykładowo prosząc model o …

Zero-, few-shot prompting – dostarczanie przykładów modelowi Czytaj dalej »