Поддержать канал можно оформив подписку на
🎉 https://boosty.to/machine_learrrning
🎉 https://vk.com/machine_learrrning
🎉 А можете скидывать монеты на https://www.donationalerts.com/r/machine_learrrning
Канал в TG https://t.me/machine_learrrning
Группа в VK https://vk.com/machine_learrrning
Преподаю на курсах в онлайн-университете на программах, связанных с ИИ и Data Science:
https://go.redav.online/13d10800fd8342c0 (Нетология)
Приходите ко мне на занятия!
Курсы на платформе Stepik:
1. Библиотеки Python для Data Science https://stepik.org/a/129105
2. Введение в нейронные сети (Keras/Tensorflow) https://stepik.org/a/127274
❓ Вопросы, на которые найдем ответы в этом видео:
- Чем отличается линейная регрессия от логистической регрессии
- Что такое правдоподобие
- Как из правдоподобия получить функцию потерь logloss
- Как обучить с нуля логистическую регрессию
- Как визуализировать предсказания логистической регрессии
🌟 Логистическая регрессия. Теория https://youtu.be/9BoVCdedvW8
🌟 Линейная регрессия https://youtu.be/KJA9A1q9l7E
🤖 Ноутбук из видео https://colab.research.google.com/drive/1fXRYdwpzfme0p5fcWRDka9FdkrR_gK-6
0:00 Введение
0:07 План занятия
0:28 Что нужно знать для занятия
0:46 Поддержка https://boosty.to/machine_learrrning
0:46 Поддержка https://vk.com/machine_learrrning
1:11 Вспоминаем линейную регрессию
1:45 Переход к линейной классификации
3:26 Одномерная логистическая регрессия
5:25 Обучение LogisticRegression из sklearn на одном признаке
6:23 Как из линейной регрессии перейти к логистической регрессии
7:46 Предсказание вероятности через predict_proba у LogisticRegression
8:44 Сигмоида в логистической регрессии
9:02 Логистическая регрессия простыми словами
9:29 Сравнение моделей логистической регрессии
11:54 Правдоподобие
12:27 Простой пример подсчета правдоподобия
13:50 Пример расчета правдоподобия
15:12 Логарифмирование правдоподобия
15:27 log_loss из sklearn
16:48 Вывод logloss из правдоподобия
19:53 Реализация логистической регрессия с нуля для одного признака
20:05 Визуализация функции потерь logloss
20:42 Добавление фиктивного единичного признака
21:22 Реализация функции для подсчета logloss
22:51 Реализация функции для подсчета градиента logloss
23:46 Значение inf, nan при подсчете logloss
24:54 Реализация логистической регрессии через градиентный спуск
27:08 Визуализация обучения логистической регрессии для одного признака
29:36 Многомерная логистическая регрессия
30:01 Обучение LogisticRegression для двух признаков
31:14 Визуализация предсказаний логистической регрессии
32:31 Реализация логистической регрессии с нуля для двух признаков (это работает и на огромное кол-ве признаков)
34:33 Визуализация обучения логистической регрессии
35:42 Резюме занятия
36:26 ♡