Добавить в цитаты Настройки чтения

Страница 1 из 11

Джейд Картер

Машинное обучение

1. МО – машинное обучение

2. ИИ – искусственный интеллект

3. СЗ – супервизированное обучение

4. БЗ – безнадзорное обучение

5. ПЗ – полузаданные обучение

6. НС – нейронная сеть

7. SVM – метод опорных векторов

8. RF – случайный лес

9. CNN – сверточная нейронная сеть

10. RNN – рекуррентная нейронная сеть

11. MLP – многослойный персептрон

12. SGD – стохастический градиентный спуск

13. NLP – обработка естественного языка

14. CV – компьютерное зрение

15. DL – глубокое обучение

16. ROI – возврат инвестиций

17. KPI – ключевые показатели эффективности

18. CRM – управление взаимоотношениями с клиентами

19. ERP – система планирования ресурсов предприятия

20. BI – бизнес-аналитика

Глава 1: Введение в машинное обучение и его роль в бизнесе

Обучение с учителем – форма машинного обучения, где системе предоставляется обучающая выборка с входными данными и соответствующими выходными значениями.

Признаки – характеристики или свойства объектов, которые описывают данные.

Метки (выходные значения, целевые переменные) – значения, которые система должна предсказывать или классифицировать на основе входных данных.

Модель – математическая функция, которая принимает входные данные и выдает предсказания или классификации.

Обучение – процесс, в ходе которого модель настраивается на основе обучающей выборки для минимизации ошибки предсказания.

Тестирование – процесс оценки производительности модели на новых данных, не участвующих в обучении, с целью оценки ее обобщающей способности.

Переобучение – состояние модели, когда она становится слишком сложной и настраивается на шум в данных, в результате чего ее способность обобщения страдает.





Недообучение – состояние модели, когда она слишком проста и не способна выявить сложные закономерности в данных, что приводит к низкой производительности на новых данных.

Гиперпараметры – параметры модели, которые задаются вручную перед началом обучения и влияют на ее поведение и производительность, например, скорость обучения, количество эпох и размер скрытых слоев в нейронной сети.

Алгоритмы обучения – методы и процедуры, используемые для обучения моделей на основе обучающих данных, например, линейная регрессия, метод опорных векторов (SVM), деревья решений, нейронные сети и другие.

Регуляризация – техника, используемая для предотвращения переобучения модели путем добавления штрафов или ограничений на значения параметров модели.

Кросс-валидация – метод оценки производительности модели, который заключается в разделении обучающей выборки на несколько подмножеств (фолдов) для обучения и тестирования модели, с последующим усреднением результатов.

Метрики оценки – числовые значения, используемые для измерения качества предсказаний модели, например, точность, полнота, F-мера, среднеквадратическая ошибка (MSE) и другие.

Разделение выборки – процесс разбиения общего набора данных на обучающую, тестовую и, иногда, валидационную выборки для обучения, тестирования и настройки модели соответственно.

Размер выборки – количество образцов данных, доступных для обучения модели.

Препроцессинг данных – этап подготовки данных перед обучением модели, включающий операции, такие как нормализация, масштабирование, заполнение пропущенных значений, кодирование категориальных признаков и другие.

Распределение данных – статистическая характеристика данных, которая описывает их вероятностные свойства, такие как среднее значение, дисперсия и форма распределения.

Ансамбли моделей – методы, которые объединяют предсказания нескольких моделей для получения более точного и устойчивого результата, например, бэггинг, случайный лес и градиентный бустинг.

Большие данные – наборы данных, которые характеризуются объемом, разнообразием и скоростью обновления, требующие специальных подходов и инструментов для их анализа и обработки.

Параметры модели – внутренние настраиваемые переменные, которые определяют ее поведение и способность предсказывать выходные значения. При обучении модели параметры настраиваются таким образом, чтобы минимизировать ошибку предсказания.

Функция потерь – математическая функция, которая измеряет расхождение между предсказанными и фактическими значениями модели. Цель обучения заключается в минимизации значения функции потерь.

Градиентный спуск – метод оптимизации, используемый для настройки параметров модели путем поиска оптимальных значений, исходя из градиента функции потерь. Градиентный спуск позволяет модели постепенно приближаться к минимуму функции потерь.

Регрессия – задача машинного обучения, которая связана с предсказанием непрерывных выходных значений на основе входных данных. Например, регрессионная модель может прогнозировать цену недвижимости на основе ее характеристик.

Классификация – задача машинного обучения, которая заключается в присвоении входным данным определенных категорий или классов. Классификационная модель может, например, определять, является ли электронное письмо спамом или не спамом.

Нейронные сети – модели машинного обучения, которые состоят из искусственных нейронов, объединенных в слои. Нейронные сети способны обрабатывать сложные входные данные и выявлять скрытые закономерности. Они широко используются в различных областях, таких как компьютерное зрение и естественный язык.

Сверточные нейронные сети – специализированный тип нейронных сетей, которые эффективно работают с входными данными в виде изображений. Они используют операцию свертки для извлечения локальных признаков из изображений и позволяют достигать высокой точности в задачах компьютерного зрения.

Рекуррентные нейронные сети – тип нейронных сетей, которые обладают памятью и могут обрабатывать последовательные данные, сохраняя информацию о предыдущих состояниях. Они часто применяются в задачах обработки естественного языка и временных рядов.

Безопасность и этика в машинном обучении – область, которая изучает вопросы связанные с надежностью, прозрачностью и справедливостью моделей машинного обучения. Включает в себя вопросы конфиденциальности данных, предвзятости моделей и этического использования искусственного интеллекта.

Андерсемплинг – метод сокращения преобладающего класса в несбалансированных данных путем удаления части образцов этого класса.

Оверсемплинг – метод увеличения меньшего класса в несбалансированных данных путем добавления дубликатов или синтетических образцов этого класса.

Автоэнкодеры – тип нейронных сетей, используемых для обучения представлений данных путем кодирования и декодирования входных сигналов. Они могут быть использованы для извлечения скрытых признаков или снижения размерности данных.

Алгоритмы кластеризации – методы, используемые для разделения множества данных на группы или кластеры на основе их сходства. Примеры включают k-средних, иерархическую кластеризацию и DBSCAN.

Обратное распространение ошибки – алгоритм, используемый для обучения нейронных сетей путем вычисления и корректировки градиента функции потерь от выхода к входу сети.

Метод главных компонент (PCA) – метод снижения размерности данных путем преобразования их в новое пространство признаков, состоящее из линейных комбинаций исходных признаков с наибольшей дисперсией.

Рекомендательные системы – системы, используемые для предоставления рекомендаций пользователю на основе его предпочтений и поведения. Они широко применяются в электронной коммерции, музыкальных стриминговых сервисах и социальных сетях.

Генеративные модели – модели, которые могут генерировать новые данные, имитируя вероятностные распределения исходных данных. Примеры включают генеративные состязательные сети (GAN) и вариационные автоэнкодеры.