Скачать 

[Яндекс Практикум] Обработка естественного языка — NLP (Антон Моргунов, Даниил Вяжев)

  • Дата начала
Цена: 495 РУБ
Robot
Robot
Складчик
  • #1

[Яндекс Практикум] Обработка естественного языка — NLP (Антон Моргунов, Даниил Вяжев)

Ссылка на картинку
Natural Language Processing позволяет нейросетям понимать человека

В том числе имитировать разговор, выполнять запросы, извлекать пользу из массивов естественной речи
Например, NLP используют чат‑боты, голосовые ассистенты, автопереводчики, сложные аналитические системы

Курс подойдёт тем, у кого есть опыт работы с данными, Machine Learning и Deep Learning:
  • Специалистам в области Data Science
    Разберёте методы извлечения признаков из текста и сможете применять NLP для работы с большими данными и решения бизнес-задач
  • DL- и ML-инженерам
    Изучите способы обработки текстовых данных и современные архитектуры и будете использовать NLP в своих реальных проектах
  • Разработчикам
    Освоите актуальные библиотеки и инструменты, чтобы внедрить технологии NLP в разработку приложений, которые используют текстовые данные
Освойте продвинутые подходы, модели и архитектуры:
  • GPT
  • RoBERTa
  • DeBERTa
  • NER
  • AutoGen
  • STF
  • PEFT
  • RLHF
  • LoRA
  • vLLM
  • TS
  • Seq2Seq
  • RAG
  • ANN
  • FAISS
  • BM25
  • CLIP
  • SigLip
  • Векторные БД
  • Florence
  • LangChain
  • AutoGen
  • smolagents
  • MCP
  • ElasticSearch
Чему научитесь на курсе:
  • Понимать и применять современные NLP-модели: от BERT до LLM
  • Строить RAG и агентные системы
  • Обучать LLM с оптимизацией операций на GPU
  • Создавать модели генерации текста, перевода, NER и мультимодальные решения
  • Работать с поиском: от классического BM25 до векторного по эмбеддингам
Как проходит курс:
  • Сопровождение кураторами
  • Обратная связь от опытных наставников
  • Воркшопы с экспертами
  • Теория на платформе Практикума
  • Практические задания с ревью на готовой инфраструктуре в облаке
Что вас ждёт на курсе:
  • Ключевые NLP-архитектуры: от вариаций BERT до RAG и агентных систем
  • Фокус на актуальные задачи: NER, QA, VQA, машинный перевод и сценарии с RAG
  • Удостоверение о повышении квалификации
Программа:

00 Бесплатная часть. Нейросетевые решения на практике


Практическая работа
  • Научитесь использовать предобученные модели для анализа текста и изображений и интерпретировать результаты их работы
Инструменты и технологии
  • PyTorch
  • CV
  • NLP
Содержание
  1. Знакомство с курсом
    Узнаете, как организован курс: из чего состоит программа, как устроена платформа, какие активности вас ждут
  2. Введение в нейросети и их роль в решении сложных задач
    Поймёте, в каких областях применяются нейросети и какие задачи они решают в реальной жизни
  3. Работа с текстами
    Классифицируете тексты с использованием предобученной модели
  4. Работа с изображениями
    Классифицируете изображения с помощью предобученной модели
  5. Нейросети на практике
    Научитесь использовать нейросети в повседневной практике и для решения профессиональных задач
01 Современные модели: обучение и ключевые механизмы

Проект
  • Решите задачу NER, выявив все сущности, и предскажете, сколько их в тексте, через регрессию по CLS
Инструменты и технологии
  • RoBERTa
  • XLM-RoBERTa
  • DeBERTa
  • NER
  • PyTorch Lightning
  • DP
  • DDP
  • FSDP
Содержание
  1. Multi-Head Attention и BERT
    Разберёте трансформер на уровне тензоров, attention-механизм, позиционные эмбеддинги и skip connections. Напишете полный encoder с нуля. Изучите архитектуру BERT, задачи MLM и NSP, CLS-токен, ограничения attention и такие решения, как flash/sparse attention
  2. Эволюция моделей в NLP
    Сравните токенизаторы (BPE, WordPiece и другие) по стабильности и размеру словаря. Рассмотрите развитие моделей: RoBERTa, XLM-R, DeBERTa, e5, включая мультиязычные и облегчённые версии для продакшна. Изучите NER: BIO-разметку, entity spans, лоссы
  3. Эффективная тренировка моделей
    Освоите float16, bfloat16, mixed precision, включите AMP в PyTorch. Изучите квантизацию (PTQ, QAT) и распределённую тренировку (DataParallel, DDP, FSDP). Разберёте torch.compile и научитесь работать с PyTorch Lightning
02 Большие языковые модели

Проект
  • Дообучите языковую модель, чтобы управлять генерацией текстов на разных этапах — pretrain, SFT, alignment
Инструменты и технологии
  • LoRA
  • QLoRA
  • SFT
  • TRL
  • vLLM
  • FlashAttention
  • Triton
  • ALiBi
  • RoPE
Содержание
  1. Введение в большие языковые модели
    Изучите фундаментальные концепции LLM. Рассмотрите архитектуры для генерации текста: decoder-only, encoder-decoder, диффузионные модели. Разберётесь с устройством attention-масок, их влиянием на генерацию. Реализуете вызов API через OpenRouter. Исследуете ограничения LLM
  2. Архитектура и принципы работы LLM
    Узнаете принципы обучения декодера. Реализуете цикл генерации текста с чат-шаблонами Jinja. Рассмотрите методы улучшения генерации: In-Context Learning, reasoning, CoT. Изучите стратегии генерации текста: beam search, sampling, temperature, top-k, top-p, repetition penalty. Поймёте причины их выбора
  3. Оптимизации в LLM
    Попробуете методы обучения и оптимизации LLM: LoRA, QLoRA, адаптеры, PEFT и Unsloth. Поймёте проблему длинного контекста. Освоите методы расширения контекста: KV cache, paged attention, speculative decoding, continuous batching. Проведёте оптимизацию на GPU с использованием Triton, fused layers и FlashAttention. Примените gradient checkpointing и выберете стратегии обучения под ресурсы и скорость
03 Путь генеративного NLP: от Seq2Seq к RAG

Проект
  • Разработаете retrieval-систему по статьям из arXiv, с поиском по документам и генерацией ответов на естественном языке
Инструменты и технологии
  • T5
  • LoRA
  • Seq2Seq
  • BLEU
  • ROUGE
  • chrF
  • COMET
  • RAG
  • Векторные базы данных
  • LangChain
Содержание
  1. Архитектуры Seq2Seq в трансформерах
    На примере T5 и русскоязычных аналогов разберёте архитектуру encoder-decoder. Поймёте принципы cross-attention и teacher forcing. Изучите метрики BLEU и ROUGE. Примените T5 к разным NLP-задачам. Освоите предобучение T5 с помощью span corruption. Рассмотрите ключевые бенчмарки
  2. Генерация текста для практических задач
    Изучите модели машинного перевода mT5 и NLLB. Освоите их дообучение для доменов. Разберёте методы улучшения параллельных корпусов: выравнивание, фильтрацию, back-translation и paraphrasing. Решите NER-задачу в формате генерации с промптингом и constrained decoding. Дообучите Seq2Seq-модели и оцените качество перевода
  3. Retrieval-Augmented Generation — RAG
    Узнаете причины галлюцинаций и как RAG снижает риск ошибок. Изучите bi-encoder и cross-encoder, гибридный поиск и векторные базы (FAISS, Chroma, Qdrant). Рассмотрите методы снижения размерности и индексации. Построите RAG-пайплайн: от подготовки документов до генерации ответа. Освоите LangChain и оценку качества поиска
04 Современный NLP: поиск, агенты и мультимодальность

Проект
  • Разработаете модель, которая будет искать изображения по описанию, проверять их на релевантность и отвечать на вопросы по содержанию
Инструменты и технологии
  • rapidfuzz
  • OpenSearch
  • datasketch
  • LangChain
  • AutoGen
  • smolagents
  • MCP
  • CLIP
  • SigLIP
  • BLIP
  • LLaVA
  • Florence
Содержание
  1. Полнотекстовый поиск
    Рассмотрите нечёткий поиск и алгоритм Левенштейна. Освоите rapidfuzz и BM25. Поработаете с индексами в OpenSearch. Разберёте расширенные техники поиска. Изучите LSH с datasketch. Сравните подходы через хэши и эмбеддинги. Реализуете гибридный поиск с опечатками, а также индексацию и дедупликацию коллекций
  2. Агенты
    Изучите function calling, structured output, а также интеграцию функций через LangChain. Разберёте агентные системы: ReAct, LLM-as-judge и современные фреймворки (AutoGen, smolagents), а также протокол MCP. Создадите агента для работы с интернетом и веб-страницами. Рассмотрите архитектуры Perplexity и Deep Research
  3. Мультимодальные архитектуры
    Узнаете, как создаются мультимодальные датасеты и бенчмарки. Разберёте CLIP и его варианты (SigLIP, ViT-L/14), а также модели BLIP, Florence и LLaVA для VQA. Научитесь выявлять ошибки аннотаций с помощью CLIP и применять его для поиска, очистки датасетов и VQA-задач
Авторы — инженеры с большим опытом обучения нейросетей:

Они собрали и систематизировали свои знания, чтобы вы учились на реальных кейсах, с которыми сталкиваются специалисты на практике
  • Антон Моргунов
    Программный эксперт курса. Senior ML-инженер в Базис Центре
  • Даниил Важев
    Исследователь в Научно-учебной лаборатории моделей и методов вычислительной прагматики в ВШЭ. Мидл DL/ML-инженер в НБКИ. PhD Student в Сколтехе
  • Кирилл Бобылев
    Senior Data Scientist в Ozon Tech. Специализируется в Moderation, Anti-fraud, QC
  • Станислав Жбанников
    NLP-инженер в GigaChat Pretrain. Занимается оптимизацией обучения крупных MoE-моделей. Был Lead Data Scientist в Ecom.tech, руководил DS-командой разработки умного ассистента для поиска товаров
Показать больше
 
Зарегистрируйтесь , чтобы посмотреть скрытый контент.
Поиск по тегу:
Теги
антон моргунов даниил вяжев кирилл бобылев обработка естественного языка nlp станислав жбанников яндекс практикум
Похожие складчины

Войдите или зарегистрируйтесь!

Учетная запись позволит вам участвовать в складчинах и оставлять комментарии

Регистрация

Создайте аккаунт. Это просто!

Вход

Вы уже зарегистрированы? Войдите.

Сверху