Скачать [Udemy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей [Start Tech Academy]

Информация
Цена: 90 РУБ
Организатор: Kail Kail
Ссылки для скачивания
Kail
Kail
Организатор
Организатор
Регистрация
09.04.2020
Сообщения
394 428
Реакции
38 718
Монеты
1 191
Оплачено
0
Баллы
0
  • #SkladchinaVip
  • #1
[Udemy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей [Start Tech Academy]
Ссылка на картинку
Pentesting GenAI LLM models:
Securing Large Language Models


Освойте безопасность LLM: тестирование на проникновение, Red Teaming и MITRE ATT&CK для защищенных больших языковых моделей.

Чему вы научитесь:
  • Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
  • Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
  • Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
  • Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
  • Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
  • Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
  • Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
  • Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
Учебная программа курса:

9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин

1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение

Описание:

Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.

На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.

К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.

Язык курса - Английский с русской аудиодорожкой.
Показать больше
 
Зарегистрируйтесь , чтобы посмотреть скрытый контент.
Поиск по тегу:
Теги
pentesting genai llm models securing large language models start tech academy udemy защита больших языковых моделей тестирование на проникновение моделей genai llm

Войдите или зарегистрируйтесь

Вы должны быть авторизованны для просмотра материала

Создать аккаунт

Создать учетную запись займет не больше минуты!

Войти

Уже зарегистрированы? Просто войдите.