Складчик
- #1
[Udemy] Стратегии кибербезопасности систем ИИ: от GenAI до агентного ИИ [Derek Fisher]
- Ссылка на картинку
Чему вы научитесь:
Готовы ли вы защититься от угроз нового поколения, связанных с искусственным интеллектом? Поверхность атаки коренным образом изменилась, и традиционных мер безопасности уже недостаточно.
В эпоху, когда системы искусственного интеллекта автономно принимают решения, генерируют контент и взаимодействуют с критически важной инфраструктурой, возникла новая парадигма уязвимостей. Добро пожаловать в «семантический сдвиг» , где злоумышленники больше не используют синтаксис кода, а манипулируют самим смыслом и намерениями.
Почему этот курс необходим для вашей карьеры
Для специалистов по безопасности: Традиционная безопасность приложений фокусировалась на SQL-инъекциях и переполнении буфера. Современные угрозы? Атаки с использованием «быстрой инъекции», которые перехватывают логические действия ИИ, отравление данных, которое искажает поведение моделей, и каскадные сбои в многоагентных системах. Этот курс устраняет разрыв между классической безопасностью приложений и новой картиной угроз в области ИИ.
Для инженеров в области ИИ/машинного обучения: Создание передовых систем ИИ бессмысленно, если их можно скомпрометировать с помощью семантических манипуляций. Научитесь проектировать безопасные по своей сути приложения ИИ, способные противостоять реальным враждебным тактикам, описанным в MITRE ATLAS™.
Для руководителей отделов соответствия и управления рисками: Разберитесь в сложной сети нормативных актов в области ИИ — от уровней риска, установленных Законом ЕС об ИИ, до Указа Президента США № 14110 и планов управления изменениями, разработанных FDA. Преобразуйте нормативные требования в действенные меры безопасности.
Чем отличается этот курс?
Интегрированные передовые отраслевые решения:
Оценивайте риски как никогда раньше: изучите новаторскую систему оценки AIVSS , которая сочетает традиционные метрики CVSS с оценкой рисков Agentic AI (AARS), предоставляя вам стандартизированный способ информирования заинтересованных сторон о рисках, связанных с ИИ, и расчета рентабельности инвестиций в безопасность.
Освоение технологий повышения конфиденциальности (PET): Внедрение передовых методов защиты с использованием дифференциальной конфиденциальности, федеративного обучения, гомоморфного шифрования и доверенных сред выполнения — обеспечение безопасности конфиденциальных обучающих данных без ущерба для производительности модели.
Применение в реальных условиях: пример использования системы PHAIMIS.
Завершите обучение углубленным изучением критически важной системы учета запасов в аптеке. Примените стандарты NIST, MITRE и OWASP к реальной ситуации, где сбои в системе безопасности ИИ имеют прямые последствия для безопасности пациентов.
По завершении обучения вы сможете:
Традиционные методы кибербезопасности готовили вас к защите кода. Этот курс готовит вас к защите интеллекта, автономности и смысла — новой поверхности атаки в эпоху искусственного интеллекта.
Семантический сдвиг уже произошёл. Вы готовы?
Запишитесь прямо сейчас и станьте экспертом по безопасности с использованием ИИ, в котором так нуждается ваша организация.
Для кого этот курс:
4 разделf • 30 лекций • Общая продолжительность 5 ч 28 мин
- Объясните фундаментальный семантический сдвиг в сфере безопасности ИИ и почему традиционные инструменты и подходы к обеспечению безопасности имеют существенные недостатки при применении к системам ИИ.
- Распознавать и классифицировать типы архитектур GenAI и оценивать относительный уровень риска для их безопасности.
- Примените структуру управления рисками в области ИИ от NIST для структурирования мероприятий по управлению рисками в сфере ИИ.
- Сравните и сопоставьте основные фреймворки обеспечения безопасности ИИ, а также определите, когда следует применять каждый из них.
- Выявление новых уязвимостей, характерных для систем искусственного интеллекта, включая внедрение вредоносного кода, отравление моделей, утечку данных посредством рассуждений и эксплуатацию уязвимостей агентов.
- Оцените системы искусственного интеллекта на соответствие нормативным требованиям, включая классификацию рисков в соответствии с Законом ЕС об искусственном интеллекте и федеральные/штатные требования США.
- Включите специфические аспекты безопасности ИИ в существующие программы кибербезопасности.
Готовы ли вы защититься от угроз нового поколения, связанных с искусственным интеллектом? Поверхность атаки коренным образом изменилась, и традиционных мер безопасности уже недостаточно.
В эпоху, когда системы искусственного интеллекта автономно принимают решения, генерируют контент и взаимодействуют с критически важной инфраструктурой, возникла новая парадигма уязвимостей. Добро пожаловать в «семантический сдвиг» , где злоумышленники больше не используют синтаксис кода, а манипулируют самим смыслом и намерениями.
Почему этот курс необходим для вашей карьеры
Для специалистов по безопасности: Традиционная безопасность приложений фокусировалась на SQL-инъекциях и переполнении буфера. Современные угрозы? Атаки с использованием «быстрой инъекции», которые перехватывают логические действия ИИ, отравление данных, которое искажает поведение моделей, и каскадные сбои в многоагентных системах. Этот курс устраняет разрыв между классической безопасностью приложений и новой картиной угроз в области ИИ.
Для инженеров в области ИИ/машинного обучения: Создание передовых систем ИИ бессмысленно, если их можно скомпрометировать с помощью семантических манипуляций. Научитесь проектировать безопасные по своей сути приложения ИИ, способные противостоять реальным враждебным тактикам, описанным в MITRE ATLAS™.
Для руководителей отделов соответствия и управления рисками: Разберитесь в сложной сети нормативных актов в области ИИ — от уровней риска, установленных Законом ЕС об ИИ, до Указа Президента США № 14110 и планов управления изменениями, разработанных FDA. Преобразуйте нормативные требования в действенные меры безопасности.
Чем отличается этот курс?
Интегрированные передовые отраслевые решения:
- OWASP Top 10 для приложений LLM (2025) – Освойте новейшие уязвимости, от внедрения запросов до атак на цепочки поставок.
- OWASP Top 10 для агентного ИИ (ASI) – Узнайте об уникальных рисках в автономных системах: перехват целей агента, неправильное использование инструментов, злоупотребление идентификацией.
- NIST AI RMF – Внедрение функций GOVERN, MAP, MEASURE, MANAGE для управления рисками в области ИИ в масштабах предприятия.
- MITRE ATLAS™ – Изучите реальные тактики и методы атак на системы машинного обучения, используемые противниками.
Оценивайте риски как никогда раньше: изучите новаторскую систему оценки AIVSS , которая сочетает традиционные метрики CVSS с оценкой рисков Agentic AI (AARS), предоставляя вам стандартизированный способ информирования заинтересованных сторон о рисках, связанных с ИИ, и расчета рентабельности инвестиций в безопасность.
Освоение технологий повышения конфиденциальности (PET): Внедрение передовых методов защиты с использованием дифференциальной конфиденциальности, федеративного обучения, гомоморфного шифрования и доверенных сред выполнения — обеспечение безопасности конфиденциальных обучающих данных без ущерба для производительности модели.
Применение в реальных условиях: пример использования системы PHAIMIS.
Завершите обучение углубленным изучением критически важной системы учета запасов в аптеке. Примените стандарты NIST, MITRE и OWASP к реальной ситуации, где сбои в системе безопасности ИИ имеют прямые последствия для безопасности пациентов.
По завершении обучения вы сможете:
- Выявление и устранение 10 наиболее распространенных ошибок OWASP для приложений LLM и агентного ИИ.
- Внедрить комплексную систему тестирования на проникновение в области ИИ на всех уровнях: модель, реализация, система и среда выполнения.
- Разберитесь в глобальных нормативных актах в области ИИ (Закон ЕС об ИИ, Указ США № 14110, отраслевые требования).
- Создайте структуру управления ИИ с использованием рамок назначения директоров по ИИ и допустимого уровня риска.
- Внедрите методы LLMSecOps для обеспечения безопасности жизненных циклов разработки ИИ.
- Оцените риски, связанные с ИИ, используя AIVSS, и сообщите руководству о рентабельности инвестиций.
- Разрабатывайте защищенные многоагентные системы, устойчивые к каскадным сбоям.
- Защита мультимодальных систем (VLM, дипфейки) от кросс-модальных атак
- Поддерживайте документацию, готовую к аудиту, используя AIBOM, SBOM и типовые карточки.
Традиционные методы кибербезопасности готовили вас к защите кода. Этот курс готовит вас к защите интеллекта, автономности и смысла — новой поверхности атаки в эпоху искусственного интеллекта.
Семантический сдвиг уже произошёл. Вы готовы?
Запишитесь прямо сейчас и станьте экспертом по безопасности с использованием ИИ, в котором так нуждается ваша организация.
Для кого этот курс:
- Специалисты по безопасности приложений расширяют свою деятельность в область безопасности искусственного интеллекта.
- Разработчики программного обеспечения, работающие с системами искусственного интеллекта или интегрирующие их в свою деятельность.
- Инженеры и архитекторы по безопасности, ответственные за внедрение ИИ.
- Специалисты по ИТ-рискам и соблюдению нормативных требований, курирующие инициативы в области искусственного интеллекта.
- Менеджеры по продуктам и технические руководители, внедряющие решения на основе искусственного интеллекта.
- Понимание основных концепций кибербезопасности
- Знание концепций безопасности приложений и жизненного цикла разработки программного обеспечения.
- Ознакомление с концепциями искусственного интеллекта и понимание принципов работы систем ИИ.
4 разделf • 30 лекций • Общая продолжительность 5 ч 28 мин
- Часть 1. Введение в безопасность ИИ
- Часть 2: Риски в сфере искусственного интеллекта
- Часть 3: Управление и соблюдение нормативных требований
- Часть 4: Безопасная разработка и эксплуатация
Показать больше
Зарегистрируйтесь
, чтобы посмотреть скрытый контент.