Нейронные сети

Освой метод машинного обучения Deep Learning и начни карьеру в IT.
31 занятие, 100 ак.часов
Хочу учиться
Что дает курс

Студенты научатся применять методы, основанные на искусственных нейронных сетях, овладеют основами математического аппарата и программных библиотек, рассмотрят решения проблем, связанных с процессом обучения моделей.

Какие знания нужны

Понимание задач машинного обучения. Базовые знания линейной алгебры, математического анализа и статистики. Знание основ Python. Приветствуется опыт работы с библиотекой Numpy.

Как проходят занятия

Лекции и семинары проходят в вечернее время. В программе – четыре домашних задания, соревнование Kaggle и исследовательский проект, предполагающий командную работу на выбранную тему в течение семестра.

Как поступить?

Регистрация
Заполни заявку и регистрируйся на курс до 25-го февраля включительно
Тестирование
Ссылка на тест придет на почту до 18:00 26-го февраля. Пройди тест до 18:00 28-го февраля
Зачисление
Письмо о зачислении придет на почту каждому студенту 3-го марта включительно
Начало обучения
Обучение начнется на неделе с 4-го марта по расписанию

Вопросы по обучению

Отборочный тест

Вопросы на знание Python, принципы объектно-ориентированного программирования, основы машинного обучения.

Требования к поступающим

Поступить могут студенты и аспиранты всех курсов и факультетов МФТИ.

Оборудование для обучения

Компьютер, возможность подключиться к беспроводной сети для выхода в сеть Internet.

Нагрузка в неделю

4 ак. часа в неделю без учета времени на выполнение домашнего задания.

Место проведения

Онлайн.

Стоимость обучения

Обучение бесплатно.

Моего вопроса тут нет :(

Другие вопросы можно посмотреть здесь.

Программа

Лекция № 1. Вероятностные основы линейных моделей.

1. Задачи машинного обучения.
2. Линейные модели.
3. Обучение линейных моделей, метод максимизации правдоподобия.

Семинар № 1. Практика 1

-

Лекция № 2. От линейных моделей к нейронным сетям.

1. Обобщенные линейные модели, обобщенные аддитивные модели.
2. Перцептрон.
3. Метод обратного распространения ошибки.

Семинар № 2. Практика 2

-

Лекция № 3. Обучение глубоких нейронных сетей. Часть 1

1. Метод стохастического градиентного спуска и его вариации.
2. Возможные проблемы при обучении глубоких нейронных сетей и пути их решения.
3. Инициализация параметров глубоких нейронных сетей.

Семинар № 3. Практика 3

-

Лекция № 4. Обучение глубоких нейронных сетей. Часть 2

Стабилизация обучения глубоких нейронных сетей:
1. Специальные функции активации.
2. Подходы регуляризации.
3. Batch normalization.

Семинар № 4. Практика 4

-

Лекция № 5. Обучение глубоких нейронных сетей. Часть 3

1. Недостатки полносвязных сетей в задаче анализа изображений
2. Операция свертки
3. Сверточные нейронные сети, основные понятия.

Семинар № 5. Практика 5

-

Лекция № 6. Сверточные нейронные сети. Часть 1.

-

Семинар № 6. Практика - реализация свёрточной операции

-

Лекция № 7. Свёрточные нейронные сети. Часть 2.

-

Семинар № 7. Практика 7

-

Лекция № 8. Сверточные нейронные сети. Часть 3

1. Операция субдискретизации (Pooling)
2. Варианты операции свертки: transposed convolution, dilated convolution, etc.
3. Основные архитектуры сверточных нейронных сетей в задаче классификации изображений

Семинар № 8. Практика 8

-

Лекция № 9. Визуализация и интерпретация сверточных нейронных сетей

-

Семинар № 9. Практика 9

-

Лекция № 10. Задачи типа "Обучение без учителя": снижение размерности, автокодировщики.

-

Семинар № 10. Практика 10

-

Лекция № 11. Задачи типа "Обучение без учителя": выучивание расстояний (Metric learning)

-

Семинар № 11. Практика 11

-

Лекция № 12. Порождающие состязательные сети: Часть 1

-

Семинар № 12. Практика 12

-

Лекция № 13. Порождающие состязательные сети: Часть 2

-

Семинар № 13. Практика 13

-

Лекция № 14. Порождающие состязательные сети: Часть 3

-

Семинар № 14. Практика 14

-

Лекция № 15. Обработка текстов на естественном языке. Часть 1

-

Смешанное занятие № 1. Обработка текстов на естественном языке. Часть 2

-

Экзамен № 1. Защита проектов

-