Малая школа анализа данных
Обновлено: 07.07.2024
Кстати, похожие задачи будут в этом году на вступительном экзамене в ШАД, где для людей с опытом в ИТ мы придумали новый трек, который поможет им улучшить свои знания математики.
1. В ряд выложены пять красных, пять синих и пять зеленых шаров. С какой вероятностью никакие два синих шара не лежат рядом?
Например, так: сначала расположим красные и зелёные шары (надо выбрать из десяти пять мест, в которых будут красные), после чего пять синих шаров надо положить не более, чем по одному, в одиннадцать промежутков между красными и зелёными шарами, а также слева и справа (то есть выбрать пять мест из одиннадцати).
Задачи по алгоритмам очень хороши тем, что они проверяют не только умение понятно описать некую процедуру, но и объяснить, почему она работает.
Если граф — дерево, то бракованное реле находится перед первой (от источника тока) не горящей лампочкой. Если есть циклы, то можно выключить все рёбра и запустить аналог поиска в глубину.
3. Докажите, что среди шести человек обязательно найдутся трое попарно знакомых или трое попарно незнакомых.
Задачи на графы, особенно если количество вершин небольшое, чаще всего стараются свести к разбору случаев. Важно, чтобы вы смогли внимательно разобрать их и при этом не запутаться.
- четное число, гласная буква;
- нечетное число, что угодно.
И не подходят карточки вида:
5. Докажите, что равносторонний треугольник нельзя покрыть двумя меньшими равносторонними треугольниками.
Задачка на геометрическую интуицию: надо понять, что ни один из меньших треугольников не может покрыть сразу две вершины. После этого становится ясно: чтобы покрыть все три вершины, нужно хотя бы три треугольника. А вообще тут зарыто непростое утверждение о диаметре треугольника, но его можно не доказывать.
6. Квадратная матрица такова, что след tr(AX) = 0 для любой матрицы X того же размера, имеющей нулевой след (след матрицы — сумма элементов на главной диагонали).
Докажите, что матрица является скалярной (т. е. имеет вид λE для некоторого λ, где E — единичная матрица).
Таким образом, встретив подобную задачу, стоит сначала взять какие-нибудь конкретные (и желательно очень простые) матрицы X с нулевым следом и попробовать понять, что же нам дает условие tr(AX) = 0. В качестве таких матриц удобно взять матричные единицы (и матрицы, у которых на диагонали все нули, кроме двух элементов, равных 1 и (-1).
Собственно говоря, на этом задача и закончится: из условий tr(AX) = 0, которые вы распишете для таких матриц, сразу будет следовать ответ.
Наша цель : подготовить конкурентоспособных молодых специалистов в области машинного обучения и анализа данных, готовых к решению профессиональных задач.
Малая школа машинного обучения и анализа данных — образовательный проект на базе Сибирского федерального университета, реализующийся в партнерстве с компаниями Яндекс и Ингосстрах.
Такая кооперация позволяет объединить лучшее от университетского образования, онлайн-обучения и реальной бизнес-практики в уникальный образовательный продукт — сетевую программу переподготовки кадров.
Реализация обучения в таком формате позволяет выпускникам программы не только прокачать свои навыки работы с данными, но и получить дополнительную специальность, которая ложится на базу основного образования.
Наша цель : подготовить конкурентоспособных молодых специалистов в области машинного обучения и анализа данных, готовых к решению профессиональных задач.
Малая школа машинного обучения и анализа данных — образовательный проект на базе Сибирского федерального университета, реализующийся в партнерстве с компаниями Яндекс и Ингосстрах.
Такая кооперация позволяет объединить лучшее от университетского образования, онлайн-обучения и реальной бизнес-практики в уникальный образовательный продукт — сетевую программу переподготовки кадров.
Реализация обучения в таком формате позволяет выпускникам программы не только прокачать свои навыки работы с данными, но и получить дополнительную специальность, которая ложится на базу основного образования.
В проект на конкурсной основе отбирается 30 кандидатов для дальнейшего обучения на программе.
Набор на программу осуществляется на конкурсной основе — контест на платформе Яндекс.Контест с предварительным анкетированием.
В проект на конкурсной основе отбирается 30 кандидатов для дальнейшего обучения на программе.
Набор на программу осуществляется на конкурсной основе — контест на платформе Яндекс.Контест с предварительным анкетированием.
*Документы об обучении выдаются при условии успешного прохождения промежуточной и итоговой аттестации
Диплом СФУ о профессиональной переподготовке.
Сертификат Coursera об освоении специализации “Машинное обучение и анализ данных”
О современных тенденциях в мире искусственного интеллекта
Дата: 16:00 07.10.2021
Онлайн-подключение: ссылка, идентификатор: 991 9977 7636, код доступа: 614957
Поступить и учиться в ШАД от Яндекс – мечта многих начинающих специалистов по Data Science. Рассказываем, как это можно сделать, пройдя пять простых шагов.
Набор проходит в три этапа:
- Онлайн-тестирование: решение заданий теста за 5 часов;
- Для поступающих в московское отделение второй этап состоит из двух частей: первая – математика и алгоритмы, вторая – программирование и основы анализа данных;
- Заключительный этап – очное собеседование, во время которого придется решать задачи по математике, алгоритмам и программированию.
Шаг 1: Выясните, каких знаний вам не хватает
При поступлении в ШАД проверяются знания по общей программе , включающей базовые разделы высшей алгебры, математического анализа, комбинаторики, теории вероятностей, а также основы программирования и анализа данных. Оцените свои знания и начните интенсивную подготовку с практикой по темам, в которых вы еще не сильны. Для упрощения этой задачи в статье мы собрали все необходимые темы и ресурсы для их изучения.
Шаг 2: Математическая подготовка
Алгeбра
- Определение, четность, произведение подстановок. Разложение подстановок в произведение транспозиций и независимых циклов.
- Комплексные числа. Геометрическое изображение, алгебраическая и тригонометрическая форма записи, извлечение корней, корни из единицы.
- Системы линейных уравнений. Прямоугольные матрицы. Приведение матриц и систем линейных уравнений к ступенчатому виду. Метод Гаусса.
- Линейная зависимость и ранг. Линейная зависимость строк (столбцов). Основная лемма о линейной зависимости, базис и ранг системы строк (столбцов). Ранг матрицы. Критерий совместности и определенности системы линейных уравнений в терминах рангов матриц. Фундаментальная система решений однородной системы линейных уравнений.
- Определитель квадратной матрицы, его основные свойства. Критерий равенства определителя нулю. Формула разложения определителя матрицы по строке (столбцу).
- Операции над матрицами и их свойства. Теорема о ранге произведения двух матриц. Определитель произведения квадратных матриц. Обратная матрица, ее явный вид (формула), способ выражения с помощью элементарных преобразований строк.
- Векторное пространство, его базис и размерность. Преобразования координат в векторном пространстве. Подпространства как множества решений систем однородных линейных уравнений. Связь между размерностями суммы и пересечения двух подпространств. Линейная независимость подпространств. Базис и размерность прямой суммы подпространств.
- Линейные отображения, их запись в координатах. Образ и ядро линейного отображения, связь между их размерностями. Сопряженное пространство и сопряженные базисы. Изменение матрицы линейного оператора при переходе к другому базису.
- Билинейные функции, их запись в координатах. Изменение матрицы билинейной функции при переходе к другому базису. Ортогональное дополнение к подпространству относительно симметрической билинейной функции. Связь между симметричными билинейными и квадратичными функциями. Существование ортогонального базиса для симметрической билинейной функции. Нормальный вид вещественной квадратичной функции. Закон инерции.
- Евклидовы пространства. Неравенство Коши-Буняковского. Ортогональные базисы. Ортогонализация Грама-Шмидта. Ортогональные операторы.
- Собственные векторы и собственные значения линейного оператора. Собственные подпространства линейного оператора, их линейная независимость. Условие диагонализируемости оператора.
Математически анализ
- Пределы и непрерывность. Пределы последовательностей и функций. Непрерывные функции.
- Ряды. Числовые и функциональные ряды. Признаки сходимости (Даламбера, Коши, интегральный, Лейбница). Абсолютно и условно сходящиеся ряды.
- Дифференцирование. Дифференцирование функций. Применение производной для нахождения экстремумов функций. Формула Тейлора.
- Функции многих переменных. Частные производные. Градиент и его геометрический смысл. Гессиан. Метод градиентного спуска. Поиск экстремумов функций от многих переменных.
- Интегрирование. Определенный и неопределенный интегралы. Методы интегрирования функций. Первообразные различных элементарных функций. Кратные интегралы (двойные, тройные), замена координат, связь с повторными.
- Элементы функционального анализа: нормированные, метрические пространства, непрерывность, ограниченность.
Комбинаторика
- Основные правила комбинаторики. Правило подсчета количества комбинаторных объектов. Принцип Дирихле. Примеры.
- Множества. Круги Эйлера, операции на множествах. Формула включений и исключений. Примеры.
- Сочетания. Размещения, перестановки и сочетания. Бином Ньютона. Треугольник Паскаля. Сочетания с повторениями.
Теория вероятностей
- Основные понятия теории вероятностей. Определение вероятностного пространства, простейшие дискретные случаи (выборки с порядком и без него, упорядоченные и неупорядоченные), классическая вероятностная модель. Случайная величина, функция распределения.
- Условные вероятности. Определение условной вероятности, формула полной вероятности, формула Байеса.
- Математическое ожидание, дисперсия, корреляция. Определение математического ожидания, дисперсии, ковариации и корреляции, их свойства.
- Независимость событий. Попарная независимость и независимость в совокупности.
- Основные теоремы теории вероятностей. Неравенство Чебышева. Закон больших чисел. Центральная предельная теорема.
- Распределения. Стандартные дискретные и непрерывные распределения, их математические ожидания, дисперсии и свойства: биномиальное; равномерное; нормальное; пуассоновское; показательное; геометрическое.
Шаг 3: Программирование
- Простейшие конструкции языка программирования. Циклы, ветвления, рекурсия.
- Анализ алгоритмов. Понятие о сложности по времени и по памяти. Асимптотика, O-символика. Инварианты, пред- и пост- условия. Доказательство корректности алгоритмов.
- Простейшие структуры данных. Массивы, стеки, очереди, связные списки, Сравнение временных затрат при различных типах операций.
- Строки и операции над ними. Представление строк. Вычисление длины, конкатенация.
- Сортировки. Нижняя теоретико-информационная оценка сложности задачи сортировки. Алгоритмы сортировки вставками, пузырьком, быстрая сортировка, сортировка слиянием. Оценка сложности.
- Указатели.Указатели и динамическое управление памятью.
Курсы для подготовки:
Шаг 4: Анализ данных
Крайне важно понимать, как подготовить базу данных для получения желаемых результатов без потери информации. Далее специалист по Data Science с помощью различных инструментов, методов, методологий и алгоритмов анализирует и оптимизирует информацию для создания эффективных бизнес стратегий.
- Основные машинного обучения: классификация, регрессия, ранжирование, кластеризация. Обучение с учителем и без учителя.
- Предобработка и очистка данных. Работа с пропущенными значениями.
- Feature Engineering. Работа с категориальными признаками.
- Переобучение: как его обнаружить и как с ним бороться. Разделение на обучающую и тестовую выборки. Методы регуляризации.
- Сравнение моделей. Метрики в задачах классификации и регрессии. Методология подборара гиперпараметров.
- Основные модели классификации и регрессии: линейные модели, решающие деревья. Ансамбли алгоритмов.
Курсы для подготовки:
Шаг 5: Практика
После изучения необходимых тем, переходите к практическим занятиям. Это лучший способ закрепить полученные знания и подготовится к интервью, во время которого вам предстоит решать задачи в режиме реального времени.
Примеры упражнений:
Сибирский федеральный университет совместно с Яндексом и Ингосстрахом запустил Малую школу машинного обучения и анализа данных. Теперь все желающие смогут пройти профессиональную переподготовку и получить перспективную специализацию за 1 год.
Проект направлен на подготовку конкурентоспособных молодых специалистов в области машинного обучения и анализа данных. Пройти обучение могут как студенты старших курсов, магистранты, аспиранты, так и выпускники вузов.
Обучение по сетевой программе переподготовки СФУ, Яндекса и Ингосстраха объединяет самостоятельное освоение онлайн–курсов на Coursera и очные занятия с преподавателями СФУ. Также участников программы ожидают интенсивы с приглашёнными специалистами–практиками и групповая работа над решением реальных кейсов от компаний Яндекс и Ингосстрах.
Читайте также: