LLM Opleiding - Data Voorbereiding

Reading time: 5 minutes

tip

Leer en oefen AWS Hacking:HackTricks Training AWS Red Team Expert (ARTE)
Leer en oefen GCP Hacking: HackTricks Training GCP Red Team Expert (GRTE) Leer en oefen Azure Hacking: HackTricks Training Azure Red Team Expert (AzRTE)

Ondersteun HackTricks

Dit is my aantekeninge uit die baie aanbevole boek https://www.manning.com/books/build-a-large-language-model-from-scratch met 'n paar ekstra inligting.

Basiese Inligting

Jy moet begin deur hierdie pos te lees vir 'n paar basiese konsepte wat jy moet weet:

0. Basic LLM Concepts

1. Tokenisering

tip

Die doel van hierdie aanvanklike fase is baie eenvoudig: Verdeel die invoer in tokens (ids) op 'n manier wat sin maak.

1. Tokenizing

2. Data Monsters

tip

Die doel van hierdie tweede fase is baie eenvoudig: Monster die invoerdata en berei dit voor vir die opleidingsfase deur gewoonlik die datastel in sinne van 'n spesifieke lengte te skei en ook die verwagte reaksie te genereer.

2. Data Sampling

3. Token Inbedings

tip

Die doel van hierdie derde fase is baie eenvoudig: Ken elkeen van die vorige tokens in die woordeskat 'n vektor van die verlangde dimensies toe om die model te oefen. Elke woord in die woordeskat sal 'n punt in 'n ruimte van X dimensies wees.
Let daarop dat die posisie van elke woord in die ruimte aanvanklik net "ewekansig" geinitialiseer word en dat hierdie posisies opleibare parameters is (sal verbeter word tydens die opleiding).

Boonop, tydens die token inbedding word 'n ander laag van inbeddings geskep wat (in hierdie geval) die absolute posisie van die woord in die opleidingssin verteenwoordig. Op hierdie manier sal 'n woord in verskillende posisies in die sin 'n ander voorstelling (betekenis) hê.

3. Token Embeddings

4. Aandag Meganismes

tip

Die doel van hierdie vierde fase is baie eenvoudig: Pas 'n paar aandag meganismes toe. Hierdie gaan baie herhaalde lae wees wat die verhouding van 'n woord in die woordeskat met sy bure in die huidige sin wat gebruik word om die LLM op te lei, vasvang.
'n Baie lae word hiervoor gebruik, so 'n baie opleibare parameters gaan hierdie inligting vasvang.

4. Attention Mechanisms

5. LLM Argitektuur

tip

Die doel van hierdie vyfde fase is baie eenvoudig: Ontwikkel die argitektuur van die volle LLM. Sit alles saam, pas al die lae toe en skep al die funksies om teks te genereer of teks na IDs en terug te transformeer.

Hierdie argitektuur sal vir beide, opleiding en voorspellings van teks gebruik word nadat dit opgelei is.

5. LLM Architecture

6. Vooropleiding & Laai modelle

tip

Die doel van hierdie sesde fase is baie eenvoudig: Oefen die model van nuuts af. Hiervoor sal die vorige LLM argitektuur gebruik word met 'n paar lusse wat oor die datastelle gaan met die gedefinieerde verliesfunksies en optimizer om al die parameters van die model op te lei.

6. Pre-training & Loading models

7.0. LoRA Verbeterings in fyn-afstemming

tip

Die gebruik van LoRA verminder baie die berekening wat nodig is om fyn af te stel reeds opgeleide modelle.

7.0. LoRA Improvements in fine-tuning

7.1. Fyn-Afstemming vir Kategorisering

tip

Die doel van hierdie afdeling is om te wys hoe om 'n reeds vooropgeleide model fyn af te stel sodat in plaas daarvan om nuwe teks te genereer, die LLM die waarskynlikhede van die gegewe teks wat in elkeen van die gegewe kategorieë gekategoriseer word (soos of 'n teks spam is of nie) sal gee.

7.1. Fine-Tuning for Classification

7.2. Fyn-Afstemming om instruksies te volg

tip

Die doel van hierdie afdeling is om te wys hoe om 'n reeds vooropgeleide model fyn af te stel om instruksies te volg eerder as net teks te genereer, byvoorbeeld, om op take te reageer as 'n chat bot.

7.2. Fine-Tuning to follow instructions

tip

Leer en oefen AWS Hacking:HackTricks Training AWS Red Team Expert (ARTE)
Leer en oefen GCP Hacking: HackTricks Training GCP Red Team Expert (GRTE) Leer en oefen Azure Hacking: HackTricks Training Azure Red Team Expert (AzRTE)

Ondersteun HackTricks