Channel Avatar

Optimization and Statistics @UCrvfVHCinrQWZPhhzwp6ixw@youtube.com

3.2K subscribers - no pronouns :c

More from this channel (soon)


01:30:21
Гасников А. В. — Что такое переобучение и как с этим борются
01:30:47
Гасников А. В. — Онлайн vs Оффлайн подходы в обучении
01:39:24
Гасников А. В. — Минимизация эмпирического риска
37:48
Телепроба Александра Гасникова с Павлом Тороповым на тему «ИИ и прогноз погоды»
02:50:48
А. Гасников. Стохастическая оптимизация
26:35
Знание ТВ. Интервью с Александром Гасниковым. Выпуск от 02.12.2023.
02:16:47
Н. Пучкин. Неравенство Пуанкаре, логарифмическое неравенство Соболева и концентрация меры
04:00:14
Введение в мультифрактальный анализ
02:09:57
С. Самсонов Многорукие бандиты/Субгауссовские и экспоненциальные величины
01:04:14
Кубическая регуляризация, как ключ к успеху! Ускоренный квазиньютон, стох. методы высокого порядка.
02:05:56
А. Фролов Approximate Support Recovery
01:21:12
А.В. Лобанов "Обзор современных безградиентных алгоритмов для задач выпуклой оптимизации"
01:42:39
Вечер воспоминаний о Вадиме Александровиче Малышеве, 27 апреля 2023 года.
01:22:04
А.Н. Безносиков Обзор современных результатов о сходимости стох. методов для седловых задачи и ВН
01:58:27
Семинар Б.Т. Поляка по оптимизации. Эдуард Горбунов "Стохастическая гладкая оптимизация" 14/03/2023
04:41:00
Вечер воспоминаний о Борисе Теодоровиче Поляке 17 февраля
01:01:37
Ф.С.Стонякин "Правила остановки методов градиентного типа при аддитивных ошибках градиента"
01:32:20
О.Н. Граничин Распред. рандомизированный алгоритм стох. аппрокс. при произвольных внешних помехах
01:22:36
А. Коротин Параметрические методы вычисления оптимальных транспортных отображений, расстояний
01:37:44
Дмитрий Камзолов Дэмпфированный Метод Ньютона с глобальной сходимостью O(1/k^2)
01:07:43
Р. Хильдебранд Гибридный метод решения конических задач с линейными ограничениями типа неравенства
01:28:07
И.В. Оселедец, Методы обучения глубоких нейронных сетей больших размерностей. Сириус 2022
01:37:41
А.А. Шананин В круге идей Л.В. Канторовича. Сириус 2022
56:19
О.И. Криворотько, Математические модели эпидемиологии
38:45
Сириус 2022. Двинских Д.М. Безградиентные методы для негладких задач. Федеративное обучение
01:10:23
Ю. В. Авербух "Игры среднего поля с конечным числом состояний. Подход на основе теории управления"
01:12:44
Д. Тяпкин "Рандомизированный оптимизм в обучении с подкреплением"
01:22:42
А.Н.Безносиков "Распределенные методы для решения вариационных неравенств"
01:26:43
А.А.Шананин "Анализ спроса на потребительский кредит в России в условиях санкций"
01:32:35
Gesualdo Scutari "Bringing Statistical Thinking in Distributed Optimization"
01:38:30
Гасников А.В. "Сравнение онлайн и офлайн подходов к задачам стохастической выпуклой оптимизации"
01:39:34
A. Taylor. A few constructive approaches to optimal first-order optimization methods in cvx. opt.
02:19:00
А. В. Гасников. Распределенные алгоритмы решения задач оптимизации, приходящих из анализа данных.
01:24:25
P. Richtárik "Distributed Second Order Methods with Fast Rates and Compressed Communication"
01:58:13
Ю. Малицкий "Методы с редукцией дисперсии для вариационных неравенств"
01:13:18
O.O.Khamisov "Distributed optimization with linear inequality constraints via problem reformulation"
01:19:44
Гасников А.В. Мини-курс по оптимизации в Сириусе. "УМ и его приложения", лекция 3.
47:42
Н. Тупица "Методы решения задач, допускающих альтернированную минимизацию"
01:33:23
Гасников А.В. Мини-курс по оптимизации в Сириусе. "УМ и его приложения", лекция 2.
02:07:24
Лекция 13. Адаптивные методы. Структурная невыпуклость. Распределённая оптимизация.
02:28:48
Лекция 11. Over-parameterized модели. Оптимальные методы для поиска стационарных точек
02:21:06
Лекция 10. Over-parameterized модели, условия сильного и слабого роста
02:15:47
Лекция 9. Проксимальный SGD. Методы редукции дисперсии
02:06:13
Лекция 8. Задачи с регуляризацией, проксимальный градиентный спуск
01:33:08
Лекция 7. Метод Ньютона. Квазиньютоновские методы
01:51:05
Д. Н. Тяпкин: Ускорение сведением к седловым задачам с приложением к поиску барицентров Вассерштейна
01:31:22
Гасников А.В. Мини-курс по оптимизации в Сириусе. "УМ и его приложения", лекция 1.
01:39:28
Лекция 6. Методы сопряжённых градиентов. Ускоренные методы
01:47:55
Лекция 5. Методы одномерной минимизации. Градиентный спуск
02:06:32
Лекция 4. Субдифференциал и его свойства. Дифференциальные критерии выпуклости
01:21:36
А. А. Наумов: "Finite Time Analysis of Linear Two-timescale Stochastic Approximation"
02:19:56
Лекция 2. Горбунов Э.А. Введение в численные методы оптимизации. Выпуклость и гладкость.
02:37:16
Лекция 1. Гасников А.В. Связь оптимизации, статистики и машинного обучения. 17 сентября, 2020
01:01:31
G. Lan: "Projection-free methods and their applications"
01:36:09
A.Nedic: "Distributed Algorithms for Optimization in Networks"
01:30:47
K. Scheinberg: "Complexity analysis framework of adaptive optimization methods via martingales"
02:13:44
Э. Горбунов: О сходимости методов типа стох. градиента для выпуклых и невыпуклых задач оптимизации
01:24:15
А. Колоскова: Обобщение децентрализованного стох градиента с меняющейся топологией, локальным шагом
01:33:45
К.Мищенко: Стох.град.спуск со случайными перестановками: простой анализ со значительными следствиями
01:42:30
А. О. Родоманов "Новые результаты о сверхлинейной сходимости квазиньютоновских методов"