lecture_1_Обучениwwwwwwwwwwwwwwwе_с_учителем.pptx

helpmanmy 0 views 31 slides Sep 26, 2025
Slide 1
Slide 1 of 31
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31

About This Presentation

Обучение_с_учителем


Slide Content

Основы машинного обучения с учителем. Методы машинного обучения. Лекция 1

Литература А.В. Кугаевских , Д.И. Муромцев, О.В. Кирсанова. Классические методы машинного обучения. – СПб: Университет ИТМО, 2022. – 53 с. 2 Методы машинного обучения. Лекция 1

Содержание Классификация методов машинного обучения . Обучение с учителем . Наивный байесовский классификатор. Обучение с учителем. Деревья решений. Обучение с учителем. Метод опорных векторов. Обучение с учителем. Линейная регрессия. Структурная схема обучения с учителем. Контрольные вопросы и задачи. 3 Методы машинного обучения. Лекция 1

Классификация методов машинного обучения - 1 4 Машинное обучение – процесс улучшения качества решения заданного класса задач T , которое определяется критерием J и происходит за счет накопления опыта на некотором наборе данных D . Существует два основных класса решаемых задач – классификация и регрессия . Задача классификации заключается в том, что необходимо отнести S предъявленный пример к определенному классу из конечного множества C{C1, C2, …, Cn} . Говорят, что пример является помеченным, т.е. отнесенным к определенному классу Ci . Задача регрессии сводится к восстановлению некоторой зависимости Методы машинного обучения. Лекция 1 ( 1 )   по предъявленному набору данных, представляющих собой пары входных и выходных данных {xi, yi } . В регрессии всегда присутствует ошибка e . Различают несколько видов обучения. Наиболее распространенные из них: 1 . Обучение с учителем ( supervised learning , imitation learning ); 2 . С частичным привлечением учителя ( semi-supervised learning ); 3 . Обучение без учителя ( unsupervised learning ); 4 . Обучение с подкреплением ( reinforcement learning ); 5 . Активное обучение ( active learning ) . Охарактеризуем далее три базовых вида обучения: обучение с учителем, обучение без учителя, обучение с подкреплением.

5 Обучение с учителем Обучение без учителя Обучение с подкреплением Обучение с подкреплением это обучение действиям, направленным на максимизацию вознаграждения в текущей ситуации и в последующих ситуациях. Отличительные черты обучения с подкреплением – поиск решения опытным путем и возможное отложенное вознаграждение. Обучающийся агент должен воспринимать среду и воздействовать на нее в процессе обучения с целью максимизации вознаграждения. Обучение с учителем это обучение на наборе помеченных примеров, подготовленных квалифицированным учителем. Каждый пример – описание ситуации и метка правильного действия. Цель обучения с учителем – правильная реакция на все ситуации, в том числе, которые не предъявлялись при обучении. Обучение без учителя направлено на обнаружение структуры, скрытой в наборе непомеченных данных. В результате обучения без учителя могут решаться задачи кластеризации (группировка данных по общим признакам), обнаружения аномалий , ассоциации (предсказание по одним признакам других), автоэнкодеры (воссоздание признаков из закодированных данных). Методы машинного обучения. Лекция 1 Классификация методов машинного обучения - 2

6 При обучении с учителем для решения задач классификации используют наивный байесовский классификатор , деревья решений , метод опорных векторов и метод регрессии . Рассмотрим наивный байесовский классификатор . Задано множество объектов X{xi} , i =1,2,..,Nob и множество классов Y{ yj } , j=1,2,..,Nc . Каждый объект xi описан набором признаков prik , k=1,2,..,Npr . В наивном байесовском классификаторе предполагается, что вероятности признаков являются независимыми величинами . Требуется найти наиболее вероятный класс yopt , которому принадлежит объект xi : Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 1 (2)   В данном подходе наиболее вероятный класс yopt вычисляется в соответствии с теоремой Байеса : ( 3 )   Здесь: – вероятность того, что объект xi принадлежит классу ( апостериорная вероятность ); – вероятность встретить объект xi среди всех объектов класса ; – безусловная вероятность встретить объект класса (априорная вероятность класса); – безусловная вероятность объекта .  

7 Наивный байесовский классификатор использовался для классификации на 2 класса. В этом случае классификация описывается выражением: Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 2 (4)   или: (5)   Основной недостаток наивного байеса : предположение о том, что вероятности признаков не зависят друг от друга. Однако такое предположение позволяет упростить расчеты. Для независимых вероятностей можно записать: (6)   Тогда наивный байесовский классификатор описывается выражением: (7)   или: (8)  

8 Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 3 Оценка вероятностей, входящих в выражения (7) , (8) , осуществляется по обучающей выборке: (9) ,   где Nyj – количество объектов в выборке, принадлежащих классу yj ; N – общее количество объектов в обучающей выборке ; - общее число элементов с заданным значением признака в классе ; a >0 – положительный параметр. Пример классификации ( спам ). Пусть даны письма, для которых известен их класс ( 1 – спам , 2 – не спам ): * Высылаю текст – 2 ; * Предоставляю банковские услуги – 1 ; * Скидки на товар – 1 ; * Осталось мало товаров – 1 ; * До вылета осталось два часа – 2 . В данном примере рассматривается 2 класса, j=1,2 . Общий объем выборки составляет 5 примеров. Три примера относится к классу 1 , а два примера к классу 2 . Частота классов составляет:  1=3/5=0.6 ;  2=2/5=0.4 .   (10)  

9 Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 4 Составим теперь таблицу с вычисленными условными вероятностями (10) ( =1 ).   Слово Класс 1 Класс 2 Высылаю 1 (0+1)/(9+14) (1+1)/(7+14) Текст 1 (0+1)/(9+14) (1+1)/(7+14) Предоставляю 1 (1+1)/(9+14) (0+1)/(7+14) Банковские 1 (1+1)/(9+14) (0+1)/(7+14) Услуги 1 (1+1)/(9+14) (0+1)/(7+14) Скидки 1 (1+1)/(9+14) (0+1)/(7+14) На 1 (1+1)/(9+14) (0+1)/(7+14) Осталось 1 1 (1+1)/(9+14) (1+1)/(7+14) Мало 1 (1+1)/(9+14) (0+1)/(7+14) Товар 2 (2+1)/(9+14) (0+1)/(7+14) До 1 (0+1)/(9+14) (1+1)/(7+14) Вылета 1 (0+1)/(9+14) (1+1)/(7+14) Два 1 (0+1)/(9+14) (1+1)/(7+14) Часа 1 (0+1)/(9+14) (1+1)/(7+14) Слово Класс 1 Класс 2 Высылаю 1 (0+1)/(9+14) (1+1)/(7+14) Текст 1 (0+1)/(9+14) (1+1)/(7+14) Предоставляю 1 (1+1)/(9+14) (0+1)/(7+14) Банковские 1 (1+1)/(9+14) (0+1)/(7+14) Услуги 1 (1+1)/(9+14) (0+1)/(7+14) Скидки 1 (1+1)/(9+14) (0+1)/(7+14) На 1 (1+1)/(9+14) (0+1)/(7+14) Осталось 1 1 (1+1)/(9+14) (1+1)/(7+14) Мало 1 (1+1)/(9+14) (0+1)/(7+14) Товар 2 (2+1)/(9+14) (0+1)/(7+14) До 1 (0+1)/(9+14) (1+1)/(7+14) Вылета 1 (0+1)/(9+14) (1+1)/(7+14) Два 1 (0+1)/(9+14) (1+1)/(7+14) Часа 1 (0+1)/(9+14) (1+1)/(7+14) (      

10 Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 5 Пусть задано выражение « Высылаю каталог товаров со скидкой ». Для класса 1 – спам , и класса 2 – не спам , получаем:     Вывод: Выражение « Высылаю каталог товаров со скидкой » является спамом.

11 Дерево решений – способ представления правил в виде иерархической структуры, в которой объединяются логические правила (УСЛОВИЕ 1) И (УСЛОВИЕ 2) … И (УСЛОВИЕ N ) . Общая структура дерева решений, включающая узлы и листы, представлен на рис.1 . Узел , включая корневой узел – это УСЛОВИЕ , а Лист – это РЕШЕНИЕ . В корневом узле находится вся исходная выборка. В ходе проверки условий происходит разделение исходной выборки на отдельные подвыборки . Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 1 Корневой узел Узел1 Узел2 Лист 1 Лист 2 Узел3 Лист 3 Лист 4 Лист 5 Рис . 1 . Структура дерева решений

12 Деревья решений часто используются в банковской сфере, в сфере обслуживания клиентов, при автоматической обработке запросов. Пример дерева решений представлен на рис. 2 . В данном примере в каждом узле осуществляется бинарная классификация текущей ситуации. При бинарной классификации в каждом узле производится классификация текущего примера на 2 класса. Деревья решений используются для: 1) классификации входных данных на разные классы; 2) определения важности частного критерия, по которому осуществляется классификация; 3) прогнозирования на основе имеющихся данных. Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 2 Впереди есть препятствие ? Движение вперед Рис . 2 . Пример дерева решений ДА НЕТ Препятствие близко ? ДА НЕТ Движение вперед Маневр

13 Рассмотрим пример. Пусть необходимо построить дерево для принятия решения о том, выезжать на регулируемый перекресток или нет. Перекресток показан на рис.3 . Автомобиль находится на одной из полос ( 1, 2, 3 ). Данные для построения дерева решений, представлены в таблице 1 . Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 3 1 2 3 Рис . 3 . Регулируемый перекресток № Свет Машина Полоса ПешПр ПешЛв Решение 1 Красный Есть 1 Есть Есть Нет 2 Зеленый Есть 2 Нет Есть Да 3 Желтый Есть 2 Нет Нет Нет 4 Желтый Нет 1 Нет Есть Нет 5 Зеленый Есть 3 Есть Есть Нет 6 Зеленый Нет 3 Есть Нет Да 7 Зеленый Нет 3 Нет Нет Да 8 Красный Нет 2 Есть Есть Нет 9 Зеленый Есть 1 Нет Есть Нет 10 Красный Есть 1 Нет Есть Нет 11 Красный Нет 2 Нет Нет Нет 12 Зеленый Есть 2 Нет Нет Да 13 Желтый Есть 3 Есть Есть Нет 14 Зеленый Есть 3 Нет Есть Да 15 Зеленый Нет 3 Нет Есть Да 16 Желтый Есть 3 Есть Нет Нет 17 Зеленый Нет 2 Нет Есть Да 18 Красный Нет 2 Есть Есть Нет 19 Красный Есть 1 Нет Есть Нет 20 Зеленый Есть 1 Есть Есть Нет Таблица 1. Данные для построения дерева решений: Свет – свет светофора; Машина – наличие машины на полосе впереди; Полоса – номер полосы; ПешПр – пешеход справа; ПешЛв – пешеход слева.

14 Шаг 1 . Вычислим энтропию решений, используя столбец 7 табл. 1 . В этом столбце 20 решений, из которых 7 решений Да и 13 решений Нет : Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 4 (11)   Шаг 2 . Вычислим энтропию по отношению к каждому признаку (столбцы 2 – 6 табл.1 ). Шаг 2.1 . Признак Свет . В столбце 2 табл. 1 всего 3 значения признака: Зеленый , Желтый , Красный . Значение Зеленый встречается 10 раз. При этом для данного значений имеется 7 решений Да и 3 решения Нет . Эти данные вносятся в строку Зеленый табл. 2 . Вычисляем энтропию по признаку Свет : Таблица 2. Данные для вычисления энтропии по признаку Свет Решение Да Нет  Свет Зеленый 7 3 10 Желтый 6 6 Красный 4 4 (12)     В (12) использовано :    

15 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 5 Шаг 2. 2 . Признак Машина . В столбце 3 табл. 1 всего 2 значения признака: Есть , Нет . Значение Есть встречается 12 раз. При этом для данного значений имеется 3 решения Да и 9 решений Нет . Эти данный вносятся в строку Есть табл. 3 . Аналогично заполняется строка Нет . Вычисляем энтропию по признаку Машина : Таблица 3. Данные для вычисления энтропии по признаку Машина Решение Да Нет  Машина Есть 3 9 12 Нет 4 4 8 (13)     Таблица 4. Данные для вычисления энтропии по признаку Полоса Решение Да Нет  Полоса 1 6 6 2 3 4 7 3 4 3 7 Шаг 2.3 . Признак Полоса . Аналогично по столбцу 4 табл. 1 получаем табл. 4 и вычисляем энтропию по признаку Полоса : (14)   45  

16 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 6 Шаг 2.4 . Признак ПешПр . Аналогично по столбцу 5 табл. 1 получаем табл. 5 и вычисляем энтропию по признаку ПешПр : Таблица 5. Данные для вычисления энтропии по признаку ПешПр Решение Да Нет  ПешПр Есть 1 7 8 Нет 6 6 12 (15) 174     Таблица 6. Данные для вычисления энтропии по признаку ПешЛв Решение Да Нет  ПешЛв Есть 4 10 14 Нет 3 3 6 Шаг 2.5 . Признак ПешЛв . Аналогично по столбцу 6 табл. 1 получаем табл. 6 и вычисляем энтропию по признаку ПешЛв : (16) 9042     Шаг 3 . По максимальному значению величины , выбираем самый информативный признак Свет :   1  

17 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 7 Шаг 4 . Получаем начальное Дерево 1 , представленное на рис. 4 . Начальным узлом в нем является признак Свет . Подмножества Зеленый , Желтый и Красный содержат 10 , 6 и 4 элемента соответственно. Энтропия подмножеств Желтый и Красный – второе и третье слагаемые в выражении (12) , равны . Так как энтропия подмножеств Желтый и Красный равна 0, то они являются листьями и выделены зеленым цветом. Шаг 5 . Рассмотрим узел Зеленый, включающий 10 элементов (табл. 7) . Табл. 7 содержит данные для второй итерации построения дерева решений. Она содержит 10 решений, 7 из который Да , 3 – Нет . Энтропия узла Зеленый равна: Свет Желтый Рис . 4 . Начальное Дерево 1 Красный Зеленый         № Машина Полоса ПешПр ПешЛв Решение 1 Есть 2 Нет Есть Да 2 Есть 3 Есть Есть Нет 3 Нет 3 Есть Нет Да 4 Нет 3 Нет Нет Да 5 Есть 1 Нет Есть Нет 6 Есть 2 Нет Нет Да 7 Есть 3 Нет Есть Да 8 Нет 3 Нет Есть Да 9 Нет 2 Нет Есть Да 10 Есть 1 Есть Есть Нет Таблица 7. Данные для итерации 2   (17)

18 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 8 Шаг 6 . Вычислим энтропии по оставшимся признакам. Шаг 6.1 . Признак Машина . Составляем табл. 8 и вычисляем энтропию: (18)     Таблица 8. Итерация 2 - признак Машина Решение Да Нет  Машина Есть 3 3 6 Нет 4 4 Шаг 6.2 . Признак Полоса . Составляет табл. 9 и вычисляем: Таблица 9. Итерация 2 – признак Полоса Решение Да Нет  Полоса 1 2 2 2 3 3 3 4 1 5 (19)     Шаг 6.3 . Признак ПешПр . Составляет табл. 10 и вычисляем: (20)    

19 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 9 Таблица 10. Итерация 2 - признак ПешПр Решение Да Нет  ПешПр Есть 1 2 3 Нет 6 1 7 Шаг 6.4 . Признак ПешЛв . Составляем табл. 11 и вычисляем: (21)     Таблица 11. Итерация 2 - признак ПешЛв Решение Да Нет  ПешЛв Есть 4 3 7 Нет 3 3 Шаг 7 . Максимальная разность энтропий имеет место для признака Полоса . В это связи следующий узел – Полоса . Дерево решений на итерации 2 показано на рис. 5 .   Свет Желтый Красный Зеленый НЕТ НЕТ Рис . 5 . Дерево на итерации 2 Полоса 1 2 3 НЕТ ДА        

20 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 10 Шаг 8 . Согласно рис. 5 , если признак Полоса равен 1 или 2 , то энтропия равна нулю, т.е. это листья. В этой связи узлом является признак Полоса , равный 3 . Таблица 12 данных для итерации 3 получается из табл. 7 путем оставления строк, в которых признак Полоса равен 3 . Определим энтропию (22)   № Машина ПешПр ПешЛв Решение 2 Есть Есть Есть Нет 3 Нет Есть Нет Да 4 Нет Нет Нет Да 7 Есть Нет Есть Да 8 Нет Нет Есть Да Таблица 12. Данные для итерации 3 Шаг 9 . Теперь вычислим энтропии по оставшимся трем признакам. Шаг 9.1 . Признак Машина . Составляем табл. 13 и вычисляем: Таблица 13. Итерация 3 - признак Машина Решение Да Нет  Машина Есть 1 1 2 Нет 3 5 (23)    

21 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 11 Шаг 9.2 . Признак ПешПр . Составляем табл. 14 и вычисляем: (24)     Таблица 14. Итерация 3 - признак ПешПр Решение Да Нет  ПешПр Есть 1 1 2 Нет 3 3 Шаг 9.3 . Признак ПешЛв . Составляем табл. 15 и вычисляем: Таблица 15. Итерация 3 - признак ПешЛв Решение Да Нет  ПешПр Есть 2 1 3 Нет 2 2 (25)     Шаг 10 . Признаки Машина и ПешПр имеют одинаковое значение энтропии, большее, чем у признака ПешЛв , поэтому можно выбрать любой из них в качестве узла. Выберем признак Машина .

22 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 12 Полученное на итерации 3 дерево решений представлено на рис. 6 . Свет Желтый Красный Зеленый НЕТ НЕТ Рис . 6 . Дерево на итерации 3 Полоса 1 2 3 НЕТ ДА         Машина Есть Нет ДА           Шаг 11 . Составим таблицу 16 , удалив из табл. 12 строки, в которых признак Машина равен Нет . Вычислим энтропию узла Машина : № ПешПр ПешЛв Решение 2 Есть Есть Нет 7 Нет Есть Да Таблица 16. Данные для итерации 4

23 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 13 Шаг 12 . Вычислим энтропии оставшихся признаков. Шаг 12.1 . Для признака ПешПр составляет табл. 17 и вычисляем: Таблица 17. Итерация 4 - признак ПешПр Решение Да Нет  ПешПр Есть 1 1 Нет 1 1 Таблица 18. Итерация 4 - признак ПешЛв Решение Да Нет  ПешПр Есть 1 1 2 Нет (26)     Шаг 12.2 . Для признака ПешЛв составляет табл. 18 и вычисляем: (27)     Шаг 13 . Выбираем признак ПешПр , так как он дает максимальную разность энтропий.

24 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 14 Вычислим энтропии оставшихся признаков. Полученное дерево решений представлено на рис. 7 . Свет Желтый Красный Зеленый НЕТ НЕТ Рис . 7 . Дерево на итерации 4 Полоса 1 2 3 НЕТ ДА         Машина Есть Нет ДА         Есть Нет     ДА НЕТ

25 Методы машинного обучения. Лекция 1 Обучение с учителем. Метод опорных векторов - 1 Метод опорных векторов решает задачу классификации . Рассмотрим бинарную задачу, когда задано всего 2 класса. Пусть необходимо разделить зеленые и красные точки на плоскости OX1X2 (см. рис. 8 ). Каждая точка описывается вектором xi=[x i1 , x i2 ] . Множество векторов {xi} и соответствующих им чисел { yi } представляет собой обучающую выборку. Если yi =1 , то соответствующий вектор xi принадлежит классу красных точек. Если yi = - 1 , то соответствующий вектор xi принадлежит классу зеленых точек. Необходимо найти вектор w таким образом, чтобы выполнялись неравенства: Рис . 8 . Проблема бинарной классификации X1 X 2 (28)         Такую разделяющую линию L можно построить различным образом. Ее строят таким образом, чтобы разделяющий зазор e был максимален. При этом, вектора обучающей выборки, расположенные наиболее близко к линии L , называют опорными векторами . e Опорные вектора

26 Методы машинного обучения. Лекция 1 Обучение с учителем. Метод опорных векторов - 2 Известно, что ширина зазора e равна: (29)   Тогда задача оптимизации формулируется следующим образом.   (30)   при условии (31) Задача (30) , (31) является задачей квадратичной оптимизации. Бывают ситуации, когда два класса являются линейно не сепарабельными или линейно не разделимыми , т.е. нельзя построить разделяющую их линию. X1 X 2        1  2 Рис . 9 . Линейно не сепарабельный случай Тогда оптимизационная задача (30) , (31) формулируется так.   (3 2 )   (3 3 ) Здесь C – коэффициент, регулирующий отношение между максимизацией ширины разделяющей полосы и минимизацией суммарной ошибки.

27 Методы машинного обучения. Лекция 1 Обучение с учителем. Метод опорных векторов - 3 Бывают сложные случаи, когда построить разделительную линию не представляется возможным ( рис. 10 ). В этом случае применяется переход от исходного пространства в другое, более высокой размерности. Такое пространство называется спрямляющим . Основная проблема данного подхода – найти соответствующее преобразование  , которое позволяет отделить классы. Преимущества метода опорных векторов: 1) на тестах превосходит другие методы; 2) позволяет имитировать различные подходы, в том числе нейронные сети; 3) используется строгая оптимизационная процедура, а не эвристики. Недостатки метода опорных векторов: 1) нет методов преобразования для перехода к спрямляющему пространству; 2) единственным варьируемым параметром является коэффициент ошибки C ; 3) медленное обучение. X1 X 2 Рис . 10 . Переход к пространству более высокой размерности X1 X 2 X 3

28 Методы машинного обучения. Лекция 1 Обучение с учителем. Линейная регрессия - 1 Задача линейной регрессии заключается в построении линейной функции, наилучшим образом аппроксимирующую заданный набор данных ( xi, yi ) ( рис. 11 ) линейной функцией X1 X 2 Рис . 11 . Пояснение задачи линейной регрессии xi yi   (3 4 ) Требуется выбрать параметры a и b так, чтобы минимизировать функцию ошибки     (35) Процесс выбора параметров a и b называется обучением . Для обучения обычно используется градиентный метод     (3 6 ) (3 7 ) Из ( 36 ), ( 37 ) находятся параметры a и b .

29 Методы машинного обучения. Лекция 1 Структурная схема обучения с учителем Схема обучения с учителем представлена на рис. 12 . На данной схеме вход x поступает на вход обучаемого алгоритма, вход учителя и вход алгоритма обучения. Выход y обучаемого алгоритма сравнивается с выходом учителя, который генерирует эталонный выход y* . Входами алгоритма обучения являются вход всей системы, ошибка и выход обучаемого алгоритма. В данной схеме и требуется иметь алгоритм вычисления эталонного решения y* . Однако эти эталонные решения нужно вычислять не для всех возможных значений входа x , а только для некоторой его части. Рис . 12 . Схема обучения с учителем Обучаемый алгоритм Вход x y Учитель  - + Алгоритм обучения y* e Выход

Контрольные вопросы и задачи 30 1) Объясните смысл выражения, в котором P – вероятность, yi – класс объекта; xi – класс. Методы машинного обучения. Лекция 1   2 ) Объясните смысл выражения, в котором P – вероятность, yi – класс объекта; xi – класс.   3 ) Дана выборка: зеленый; олово; паук; овес; думать; кислый; апельсин . Разбейте выборку на 2 класса: 1 – слова, начинающиеся с гласной; 2 – слова, начинающиеся с согласной. Вычислите частоты класса 1 и класса 2 . 4) В чем заключается задача классификации ? 5) Опишите процесс обучение с учителем. 6) Имеется дерево решений, представленное ниже. Назовите узлы и листья дерева. Впереди есть препятствие ? Движение прямо Нет Препятствие далеко ? Есть Да Нет Движение прямо Маневр

Контрольные вопросы и задачи 31 7 ) Задана таблица. Вычислите энтропию признака Цвет товара . Методы машинного обучения. Лекция 1 Решение Да Нет  Цвет товара Белый 4 2 6 Синий 1 3 4 8 ) Укажите на рисунке ниже опорные вектора. X1 X 2       e 9 ) Приведите структурную схему обучения с учителем.
Tags