Технический курс по безопасности генеративных моделей (GenAI) и больших языковых моделей (LLM). Обучение сфокусировано на методах проведения пентестов, Red Teaming и защите приложений, использующих LLM в своей архитектуре. Материал будет полезен специалистам по кибербезопасности, разработчикам ИИ-решений и этичным хакерам.
Курс охватывает критические уязвимости современных моделей: от инъекций и галлюцинаций до утечек данных и небезопасной работы плагинов. Участники изучают применение фреймворка MITRE ATT&CK для моделирования угроз и разработки тактик противодействия. Программа включает практические кейсы, где демонстрируются атаки типа «отказ в обслуживании» (DoS), кража моделей и манипуляция поведением агентов. Итогом обучения становится навык проведения комплексной оценки рисков, выявления векторов атак и подготовки профессиональных отчетов по безопасности ИИ-приложений.
Отзывов пока нет. Будьте первым!