Генеративний ШІ відкриває нові горизонти можливостей, дозволяючи машинам створювати оригінальний контент - від зображень до музики. У цьому курсі ви вивчите ключові архітектури нейронних мереж, такі як трансформатори, GAN та дифузійні моделі, і дізнаєтеся, як вони працюють. Ви отримаєте практичний досвід роботи з найсучаснішими фреймворками для генерації даних у різних модальностях. Цей курс пропонує унікальну можливість поглибити свої знання в одній з найдинамічніших галузей машинного навчання, відкриваючи широкі кар'єрні можливості в розробці штучного інтелекту, креативних технологіях та дослідженнях. Ви не тільки опануєте теоретичні основи, але й набудете навичок, які сьогодні дуже затребувані на ринку технологій.
Результати навчання
Студенти поглиблять свої знання про архітектури нейронних мереж.
Студенти зрозуміють основні концепції відомих генеративних парадигм.
Студенти зможуть ідентифікувати ключові елементи сучасних генеративних моделей.
Студенти зрозуміють подібності та відмінності між моделями для генерації даних у різних модальностях.
Студенти зможуть працювати з сучасними фреймворками для генерації зображень/тексту/аудіо.
Topic 1. Generative paradigms intro and history overview
- Discriminative vs generative AI
- Generative AI boom
- Generative AI evolution
- Generative AI challenges and perspectives
Topic 2. Overview of key neural network architectures (part 1)
- Feedforward neural networks
- Digital image representation
- 2D convolutional neural networks (CNN)
- 1D data types
- 1D convolutional neural networks
- Recurrent neural networks (RNN)
Topic 3. Overview of key neural network architectures (part 2)
- Concept of attention in neural networks
- Vanilla transformer architecture
- Positional embeddings
- Image transformer
Topic 4. Image generation core approaches (part 1)
- Concept of data compression
- Autoencoders (AE)
- Variational autoencoders (VAE)
- Generative adversarial networks (GAN)
- Challenges of GAN training
Topic 5. Image generation core approaches (part 2)
- Autoregressive generative models
- Vector quantized variational autoencoders (VQ-VAE)
- CLIP architecture
- Normalizing flows
Topic 6. Image generation core approaches (part 3)
- Concept of diffusion process
- Denoising Diffusion Probabilistic Models (DDPM)
- Denoising Diffusion Implicit Models (DDIM)
- Score Matching and Langevin Dynamics
- Samplers in diffusion models
- Latent diffusion models
- Diffusion transformers
- Flow Matching
Topic 7. Auxiliary topics on diffusion models
- Acceleration of diffusion models
- Diffusion models conditioning
- Image editing with diffusion models
- Personalization and fine tuning
Topic 8. Text generation
- Digital text interpretation
- Key types of language models
- Core architecture innovations in modern transformer-based models
- Post-training techniques
Topic 9. Audio generation and text-to-speech models
- Audio representations
- Latent representation models
- Classic text-to-speech approaches
- Modern text-to-speech models
- Voice cloning approaches
Topic 10. Music generation
- Symbolic music generation approaches
- Autoregressive generation models
- Diffusion-based generative model