Transformers & Diffusers
Juni 2018 | GPT | het eerste vooraf getrainde Transformer-model, gebruikt voor fine-tuning op verschillende NLP-taken |
Oktober 2018 | BERT | een ander groot vooraf getraind model, ontworpen om betere samenvattingen van zinnen te produceren |
Februari 2019 | GPT-2 | een verbeterde (en grotere) versie van GPT die niet onmiddellijk openbaar werd vrijgegeven vanwege ethische zorgen. |
Oktober 2019 | DistilBERT | een gedistilleerde versie van BERT die 60% sneller is, 40% lichter in geheugen, en toch 97% van de prestaties van BERT behoudt. |
Oktober 2019 | BART en T5 | twee grote vooraf getrainde modellen die dezelfde architectuur gebruiken als het oorspronkelijke Transformer-model (de eerste die dat doet). |
Mei 2020 | GPT-3 | een nog grotere versie van GPT-2 die goed presteert op verschillende taken zonder de noodzaak van fine-tuning (genaamd zero-shot learning) |
Voordelen van fine-tuning:
De kennis die het vooraf getrainde model heeft verworven, wordt "overgedragen", vandaar de term transfer learning.
De originele architecture, zoals voorgesteld in Attention is all you need
Encoder-only models: Geschikt voor taken die begrip van de invoer vereisen, zoals zinsclassificatie en herkenning van benoemde entiteiten. Bijv. BERT
Decoder-only models: Geschikt voor generatieve taken zoals tekstgeneratie. Bijv. GPT
Encoder-decoder models of sequence-to-sequence models: Geschikt voor generatieve taken die een invoer vereisen, zoals vertaling of samenvatting.
Bijvoorbeeld, BERT is een architectuur, terwijl bert-base-cased, een set gewichten getraind door het Google-team voor de eerste release van BERT, een checkpoint is. Men kan echter zeggen "het BERT-model" en "het bert-base-cased-mode
Transformers & Diffusers
NLP is een vakgebied van de taalkunde en machine learning gericht op het begrijpen van alles wat met menselijke taal te maken heeft. Het doel van NLP taken is niet alleen om afzonderlijke woorden te begrijpen, maar ook om de context van die woorden te begrijpen.
Encoder taken
Decoder taken
Encoder-Decoder
Sentimentanalyse tagt gegevens als positief, negatief of neutraal en helpt bedrijven bij het analyseren van gegevens, het detecteren van inzichten en het automatiseren van processen.
De zero-shot-classificatiepijplijn geeft de mogelijkheid om
Named Entity Recognition (NER) is een taak waarbij het model moet vinden welke delen van de invoertekst overeenkomen met entiteiten zoals personen, locaties of organisaties.
Het Question-Answering pipeline beantwoordt vragen met behulp van informatie uit een gegeven context.
Summarization is de taak om een tekst in te korten tot een kortere tekst terwijl alle (of de meeste) belangrijke aspecten die in de tekst worden genoemd behouden blijven.
Transformers & Diffusers
Diffusion models worden getraind om stap voor stap willekeurig Gaussian Noise te denoisen om iets te genereren zoals een afbeelding of audio. Dit heeft een enorme interesse in generatieve AI aangewakkerd. De Hugging Face diffusers bibliotheek is een bibliotheek die tot doel heeft diffusiemodellen voor iedereen breed toegankelijk te maken.
Inpainting is een proces waar diffusiemodellen ontbrekende of "beschadigde" delen van een afbeelding reconstrueren. Door gebruik te maken van de structuur van afbeeldingen, voorspellen deze modellen en vullen ze de gaten in, met een krachtige oplossing voor beeldherstel, -aanpassing of -verbetering.
Outpainting houdt in dat de inhoud van een bestaande afbeelding wordt uitgebreid. Diffusiemodellen bereiken dit door de contextuele relaties binnen de afbeelding te begrijpen.
Taak | Beschrijving |
---|---|
Unconditional Image Generation | genereert een afbeelding van Gaussian Noise |
Text-Guided Image Generation | genereert een afbeelding met behulp van een tekst prompt |
Text-Guided Image-To-Image Translation | past een afbeelding aan op basis van een tekst prompt |
Text-Guided Image-Impainting | past een gemaskeerd deelt van een afbeelding aan met een tekst prompt |
Text-Guided Depth-to-Image Translation | past een deel van een afbeelding aan via een tekst prompt maar behoudt de structuur en de diepte |