Основы машинного обучения с учителем. Методы машинного обучения. Лекция 1
Литература А.В. Кугаевских , Д.И. Муромцев, О.В. Кирсанова. Классические методы машинного обучения. – СПб: Университет ИТМО, 2022. – 53 с. 2 Методы машинного обучения. Лекция 1
Содержание Классификация методов машинного обучения . Обучение с учителем . Наивный байесовский классификатор. Обучение с учителем. Деревья решений. Обучение с учителем. Метод опорных векторов. Обучение с учителем. Линейная регрессия. Структурная схема обучения с учителем. Контрольные вопросы и задачи. 3 Методы машинного обучения. Лекция 1
Классификация методов машинного обучения - 1 4 Машинное обучение – процесс улучшения качества решения заданного класса задач T , которое определяется критерием J и происходит за счет накопления опыта на некотором наборе данных D . Существует два основных класса решаемых задач – классификация и регрессия . Задача классификации заключается в том, что необходимо отнести S предъявленный пример к определенному классу из конечного множества C{C1, C2, …, Cn} . Говорят, что пример является помеченным, т.е. отнесенным к определенному классу Ci . Задача регрессии сводится к восстановлению некоторой зависимости Методы машинного обучения. Лекция 1 ( 1 ) по предъявленному набору данных, представляющих собой пары входных и выходных данных {xi, yi } . В регрессии всегда присутствует ошибка e . Различают несколько видов обучения. Наиболее распространенные из них: 1 . Обучение с учителем ( supervised learning , imitation learning ); 2 . С частичным привлечением учителя ( semi-supervised learning ); 3 . Обучение без учителя ( unsupervised learning ); 4 . Обучение с подкреплением ( reinforcement learning ); 5 . Активное обучение ( active learning ) . Охарактеризуем далее три базовых вида обучения: обучение с учителем, обучение без учителя, обучение с подкреплением.
5 Обучение с учителем Обучение без учителя Обучение с подкреплением Обучение с подкреплением это обучение действиям, направленным на максимизацию вознаграждения в текущей ситуации и в последующих ситуациях. Отличительные черты обучения с подкреплением – поиск решения опытным путем и возможное отложенное вознаграждение. Обучающийся агент должен воспринимать среду и воздействовать на нее в процессе обучения с целью максимизации вознаграждения. Обучение с учителем это обучение на наборе помеченных примеров, подготовленных квалифицированным учителем. Каждый пример – описание ситуации и метка правильного действия. Цель обучения с учителем – правильная реакция на все ситуации, в том числе, которые не предъявлялись при обучении. Обучение без учителя направлено на обнаружение структуры, скрытой в наборе непомеченных данных. В результате обучения без учителя могут решаться задачи кластеризации (группировка данных по общим признакам), обнаружения аномалий , ассоциации (предсказание по одним признакам других), автоэнкодеры (воссоздание признаков из закодированных данных). Методы машинного обучения. Лекция 1 Классификация методов машинного обучения - 2
6 При обучении с учителем для решения задач классификации используют наивный байесовский классификатор , деревья решений , метод опорных векторов и метод регрессии . Рассмотрим наивный байесовский классификатор . Задано множество объектов X{xi} , i =1,2,..,Nob и множество классов Y{ yj } , j=1,2,..,Nc . Каждый объект xi описан набором признаков prik , k=1,2,..,Npr . В наивном байесовском классификаторе предполагается, что вероятности признаков являются независимыми величинами . Требуется найти наиболее вероятный класс yopt , которому принадлежит объект xi : Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 1 (2) В данном подходе наиболее вероятный класс yopt вычисляется в соответствии с теоремой Байеса : ( 3 ) Здесь: – вероятность того, что объект xi принадлежит классу ( апостериорная вероятность ); – вероятность встретить объект xi среди всех объектов класса ; – безусловная вероятность встретить объект класса (априорная вероятность класса); – безусловная вероятность объекта .
7 Наивный байесовский классификатор использовался для классификации на 2 класса. В этом случае классификация описывается выражением: Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 2 (4) или: (5) Основной недостаток наивного байеса : предположение о том, что вероятности признаков не зависят друг от друга. Однако такое предположение позволяет упростить расчеты. Для независимых вероятностей можно записать: (6) Тогда наивный байесовский классификатор описывается выражением: (7) или: (8)
8 Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 3 Оценка вероятностей, входящих в выражения (7) , (8) , осуществляется по обучающей выборке: (9) , где Nyj – количество объектов в выборке, принадлежащих классу yj ; N – общее количество объектов в обучающей выборке ; - общее число элементов с заданным значением признака в классе ; a >0 – положительный параметр. Пример классификации ( спам ). Пусть даны письма, для которых известен их класс ( 1 – спам , 2 – не спам ): * Высылаю текст – 2 ; * Предоставляю банковские услуги – 1 ; * Скидки на товар – 1 ; * Осталось мало товаров – 1 ; * До вылета осталось два часа – 2 . В данном примере рассматривается 2 класса, j=1,2 . Общий объем выборки составляет 5 примеров. Три примера относится к классу 1 , а два примера к классу 2 . Частота классов составляет: 1=3/5=0.6 ; 2=2/5=0.4 . (10)
9 Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 4 Составим теперь таблицу с вычисленными условными вероятностями (10) ( =1 ). Слово Класс 1 Класс 2 Высылаю 1 (0+1)/(9+14) (1+1)/(7+14) Текст 1 (0+1)/(9+14) (1+1)/(7+14) Предоставляю 1 (1+1)/(9+14) (0+1)/(7+14) Банковские 1 (1+1)/(9+14) (0+1)/(7+14) Услуги 1 (1+1)/(9+14) (0+1)/(7+14) Скидки 1 (1+1)/(9+14) (0+1)/(7+14) На 1 (1+1)/(9+14) (0+1)/(7+14) Осталось 1 1 (1+1)/(9+14) (1+1)/(7+14) Мало 1 (1+1)/(9+14) (0+1)/(7+14) Товар 2 (2+1)/(9+14) (0+1)/(7+14) До 1 (0+1)/(9+14) (1+1)/(7+14) Вылета 1 (0+1)/(9+14) (1+1)/(7+14) Два 1 (0+1)/(9+14) (1+1)/(7+14) Часа 1 (0+1)/(9+14) (1+1)/(7+14) Слово Класс 1 Класс 2 Высылаю 1 (0+1)/(9+14) (1+1)/(7+14) Текст 1 (0+1)/(9+14) (1+1)/(7+14) Предоставляю 1 (1+1)/(9+14) (0+1)/(7+14) Банковские 1 (1+1)/(9+14) (0+1)/(7+14) Услуги 1 (1+1)/(9+14) (0+1)/(7+14) Скидки 1 (1+1)/(9+14) (0+1)/(7+14) На 1 (1+1)/(9+14) (0+1)/(7+14) Осталось 1 1 (1+1)/(9+14) (1+1)/(7+14) Мало 1 (1+1)/(9+14) (0+1)/(7+14) Товар 2 (2+1)/(9+14) (0+1)/(7+14) До 1 (0+1)/(9+14) (1+1)/(7+14) Вылета 1 (0+1)/(9+14) (1+1)/(7+14) Два 1 (0+1)/(9+14) (1+1)/(7+14) Часа 1 (0+1)/(9+14) (1+1)/(7+14) (
10 Методы машинного обучения. Лекция 1 Обучение с учителем. Наивный байесовский классификатор 5 Пусть задано выражение « Высылаю каталог товаров со скидкой ». Для класса 1 – спам , и класса 2 – не спам , получаем: Вывод: Выражение « Высылаю каталог товаров со скидкой » является спамом.
11 Дерево решений – способ представления правил в виде иерархической структуры, в которой объединяются логические правила (УСЛОВИЕ 1) И (УСЛОВИЕ 2) … И (УСЛОВИЕ N ) . Общая структура дерева решений, включающая узлы и листы, представлен на рис.1 . Узел , включая корневой узел – это УСЛОВИЕ , а Лист – это РЕШЕНИЕ . В корневом узле находится вся исходная выборка. В ходе проверки условий происходит разделение исходной выборки на отдельные подвыборки . Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 1 Корневой узел Узел1 Узел2 Лист 1 Лист 2 Узел3 Лист 3 Лист 4 Лист 5 Рис . 1 . Структура дерева решений
12 Деревья решений часто используются в банковской сфере, в сфере обслуживания клиентов, при автоматической обработке запросов. Пример дерева решений представлен на рис. 2 . В данном примере в каждом узле осуществляется бинарная классификация текущей ситуации. При бинарной классификации в каждом узле производится классификация текущего примера на 2 класса. Деревья решений используются для: 1) классификации входных данных на разные классы; 2) определения важности частного критерия, по которому осуществляется классификация; 3) прогнозирования на основе имеющихся данных. Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 2 Впереди есть препятствие ? Движение вперед Рис . 2 . Пример дерева решений ДА НЕТ Препятствие близко ? ДА НЕТ Движение вперед Маневр
13 Рассмотрим пример. Пусть необходимо построить дерево для принятия решения о том, выезжать на регулируемый перекресток или нет. Перекресток показан на рис.3 . Автомобиль находится на одной из полос ( 1, 2, 3 ). Данные для построения дерева решений, представлены в таблице 1 . Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 3 1 2 3 Рис . 3 . Регулируемый перекресток № Свет Машина Полоса ПешПр ПешЛв Решение 1 Красный Есть 1 Есть Есть Нет 2 Зеленый Есть 2 Нет Есть Да 3 Желтый Есть 2 Нет Нет Нет 4 Желтый Нет 1 Нет Есть Нет 5 Зеленый Есть 3 Есть Есть Нет 6 Зеленый Нет 3 Есть Нет Да 7 Зеленый Нет 3 Нет Нет Да 8 Красный Нет 2 Есть Есть Нет 9 Зеленый Есть 1 Нет Есть Нет 10 Красный Есть 1 Нет Есть Нет 11 Красный Нет 2 Нет Нет Нет 12 Зеленый Есть 2 Нет Нет Да 13 Желтый Есть 3 Есть Есть Нет 14 Зеленый Есть 3 Нет Есть Да 15 Зеленый Нет 3 Нет Есть Да 16 Желтый Есть 3 Есть Нет Нет 17 Зеленый Нет 2 Нет Есть Да 18 Красный Нет 2 Есть Есть Нет 19 Красный Есть 1 Нет Есть Нет 20 Зеленый Есть 1 Есть Есть Нет Таблица 1. Данные для построения дерева решений: Свет – свет светофора; Машина – наличие машины на полосе впереди; Полоса – номер полосы; ПешПр – пешеход справа; ПешЛв – пешеход слева.
14 Шаг 1 . Вычислим энтропию решений, используя столбец 7 табл. 1 . В этом столбце 20 решений, из которых 7 решений Да и 13 решений Нет : Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 4 (11) Шаг 2 . Вычислим энтропию по отношению к каждому признаку (столбцы 2 – 6 табл.1 ). Шаг 2.1 . Признак Свет . В столбце 2 табл. 1 всего 3 значения признака: Зеленый , Желтый , Красный . Значение Зеленый встречается 10 раз. При этом для данного значений имеется 7 решений Да и 3 решения Нет . Эти данные вносятся в строку Зеленый табл. 2 . Вычисляем энтропию по признаку Свет : Таблица 2. Данные для вычисления энтропии по признаку Свет Решение Да Нет Свет Зеленый 7 3 10 Желтый 6 6 Красный 4 4 (12) В (12) использовано :
15 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 5 Шаг 2. 2 . Признак Машина . В столбце 3 табл. 1 всего 2 значения признака: Есть , Нет . Значение Есть встречается 12 раз. При этом для данного значений имеется 3 решения Да и 9 решений Нет . Эти данный вносятся в строку Есть табл. 3 . Аналогично заполняется строка Нет . Вычисляем энтропию по признаку Машина : Таблица 3. Данные для вычисления энтропии по признаку Машина Решение Да Нет Машина Есть 3 9 12 Нет 4 4 8 (13) Таблица 4. Данные для вычисления энтропии по признаку Полоса Решение Да Нет Полоса 1 6 6 2 3 4 7 3 4 3 7 Шаг 2.3 . Признак Полоса . Аналогично по столбцу 4 табл. 1 получаем табл. 4 и вычисляем энтропию по признаку Полоса : (14) 45
16 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 6 Шаг 2.4 . Признак ПешПр . Аналогично по столбцу 5 табл. 1 получаем табл. 5 и вычисляем энтропию по признаку ПешПр : Таблица 5. Данные для вычисления энтропии по признаку ПешПр Решение Да Нет ПешПр Есть 1 7 8 Нет 6 6 12 (15) 174 Таблица 6. Данные для вычисления энтропии по признаку ПешЛв Решение Да Нет ПешЛв Есть 4 10 14 Нет 3 3 6 Шаг 2.5 . Признак ПешЛв . Аналогично по столбцу 6 табл. 1 получаем табл. 6 и вычисляем энтропию по признаку ПешЛв : (16) 9042 Шаг 3 . По максимальному значению величины , выбираем самый информативный признак Свет : 1
17 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 7 Шаг 4 . Получаем начальное Дерево 1 , представленное на рис. 4 . Начальным узлом в нем является признак Свет . Подмножества Зеленый , Желтый и Красный содержат 10 , 6 и 4 элемента соответственно. Энтропия подмножеств Желтый и Красный – второе и третье слагаемые в выражении (12) , равны . Так как энтропия подмножеств Желтый и Красный равна 0, то они являются листьями и выделены зеленым цветом. Шаг 5 . Рассмотрим узел Зеленый, включающий 10 элементов (табл. 7) . Табл. 7 содержит данные для второй итерации построения дерева решений. Она содержит 10 решений, 7 из который Да , 3 – Нет . Энтропия узла Зеленый равна: Свет Желтый Рис . 4 . Начальное Дерево 1 Красный Зеленый № Машина Полоса ПешПр ПешЛв Решение 1 Есть 2 Нет Есть Да 2 Есть 3 Есть Есть Нет 3 Нет 3 Есть Нет Да 4 Нет 3 Нет Нет Да 5 Есть 1 Нет Есть Нет 6 Есть 2 Нет Нет Да 7 Есть 3 Нет Есть Да 8 Нет 3 Нет Есть Да 9 Нет 2 Нет Есть Да 10 Есть 1 Есть Есть Нет Таблица 7. Данные для итерации 2 (17)
18 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 8 Шаг 6 . Вычислим энтропии по оставшимся признакам. Шаг 6.1 . Признак Машина . Составляем табл. 8 и вычисляем энтропию: (18) Таблица 8. Итерация 2 - признак Машина Решение Да Нет Машина Есть 3 3 6 Нет 4 4 Шаг 6.2 . Признак Полоса . Составляет табл. 9 и вычисляем: Таблица 9. Итерация 2 – признак Полоса Решение Да Нет Полоса 1 2 2 2 3 3 3 4 1 5 (19) Шаг 6.3 . Признак ПешПр . Составляет табл. 10 и вычисляем: (20)
19 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 9 Таблица 10. Итерация 2 - признак ПешПр Решение Да Нет ПешПр Есть 1 2 3 Нет 6 1 7 Шаг 6.4 . Признак ПешЛв . Составляем табл. 11 и вычисляем: (21) Таблица 11. Итерация 2 - признак ПешЛв Решение Да Нет ПешЛв Есть 4 3 7 Нет 3 3 Шаг 7 . Максимальная разность энтропий имеет место для признака Полоса . В это связи следующий узел – Полоса . Дерево решений на итерации 2 показано на рис. 5 . Свет Желтый Красный Зеленый НЕТ НЕТ Рис . 5 . Дерево на итерации 2 Полоса 1 2 3 НЕТ ДА
20 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 10 Шаг 8 . Согласно рис. 5 , если признак Полоса равен 1 или 2 , то энтропия равна нулю, т.е. это листья. В этой связи узлом является признак Полоса , равный 3 . Таблица 12 данных для итерации 3 получается из табл. 7 путем оставления строк, в которых признак Полоса равен 3 . Определим энтропию (22) № Машина ПешПр ПешЛв Решение 2 Есть Есть Есть Нет 3 Нет Есть Нет Да 4 Нет Нет Нет Да 7 Есть Нет Есть Да 8 Нет Нет Есть Да Таблица 12. Данные для итерации 3 Шаг 9 . Теперь вычислим энтропии по оставшимся трем признакам. Шаг 9.1 . Признак Машина . Составляем табл. 13 и вычисляем: Таблица 13. Итерация 3 - признак Машина Решение Да Нет Машина Есть 1 1 2 Нет 3 5 (23)
21 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 11 Шаг 9.2 . Признак ПешПр . Составляем табл. 14 и вычисляем: (24) Таблица 14. Итерация 3 - признак ПешПр Решение Да Нет ПешПр Есть 1 1 2 Нет 3 3 Шаг 9.3 . Признак ПешЛв . Составляем табл. 15 и вычисляем: Таблица 15. Итерация 3 - признак ПешЛв Решение Да Нет ПешПр Есть 2 1 3 Нет 2 2 (25) Шаг 10 . Признаки Машина и ПешПр имеют одинаковое значение энтропии, большее, чем у признака ПешЛв , поэтому можно выбрать любой из них в качестве узла. Выберем признак Машина .
22 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 12 Полученное на итерации 3 дерево решений представлено на рис. 6 . Свет Желтый Красный Зеленый НЕТ НЕТ Рис . 6 . Дерево на итерации 3 Полоса 1 2 3 НЕТ ДА Машина Есть Нет ДА Шаг 11 . Составим таблицу 16 , удалив из табл. 12 строки, в которых признак Машина равен Нет . Вычислим энтропию узла Машина : № ПешПр ПешЛв Решение 2 Есть Есть Нет 7 Нет Есть Да Таблица 16. Данные для итерации 4
23 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 13 Шаг 12 . Вычислим энтропии оставшихся признаков. Шаг 12.1 . Для признака ПешПр составляет табл. 17 и вычисляем: Таблица 17. Итерация 4 - признак ПешПр Решение Да Нет ПешПр Есть 1 1 Нет 1 1 Таблица 18. Итерация 4 - признак ПешЛв Решение Да Нет ПешПр Есть 1 1 2 Нет (26) Шаг 12.2 . Для признака ПешЛв составляет табл. 18 и вычисляем: (27) Шаг 13 . Выбираем признак ПешПр , так как он дает максимальную разность энтропий.
24 Методы машинного обучения. Лекция 1 Обучение с учителем. Деревья решений - 14 Вычислим энтропии оставшихся признаков. Полученное дерево решений представлено на рис. 7 . Свет Желтый Красный Зеленый НЕТ НЕТ Рис . 7 . Дерево на итерации 4 Полоса 1 2 3 НЕТ ДА Машина Есть Нет ДА Есть Нет ДА НЕТ
25 Методы машинного обучения. Лекция 1 Обучение с учителем. Метод опорных векторов - 1 Метод опорных векторов решает задачу классификации . Рассмотрим бинарную задачу, когда задано всего 2 класса. Пусть необходимо разделить зеленые и красные точки на плоскости OX1X2 (см. рис. 8 ). Каждая точка описывается вектором xi=[x i1 , x i2 ] . Множество векторов {xi} и соответствующих им чисел { yi } представляет собой обучающую выборку. Если yi =1 , то соответствующий вектор xi принадлежит классу красных точек. Если yi = - 1 , то соответствующий вектор xi принадлежит классу зеленых точек. Необходимо найти вектор w таким образом, чтобы выполнялись неравенства: Рис . 8 . Проблема бинарной классификации X1 X 2 (28) Такую разделяющую линию L можно построить различным образом. Ее строят таким образом, чтобы разделяющий зазор e был максимален. При этом, вектора обучающей выборки, расположенные наиболее близко к линии L , называют опорными векторами . e Опорные вектора
26 Методы машинного обучения. Лекция 1 Обучение с учителем. Метод опорных векторов - 2 Известно, что ширина зазора e равна: (29) Тогда задача оптимизации формулируется следующим образом. (30) при условии (31) Задача (30) , (31) является задачей квадратичной оптимизации. Бывают ситуации, когда два класса являются линейно не сепарабельными или линейно не разделимыми , т.е. нельзя построить разделяющую их линию. X1 X 2 1 2 Рис . 9 . Линейно не сепарабельный случай Тогда оптимизационная задача (30) , (31) формулируется так. (3 2 ) (3 3 ) Здесь C – коэффициент, регулирующий отношение между максимизацией ширины разделяющей полосы и минимизацией суммарной ошибки.
27 Методы машинного обучения. Лекция 1 Обучение с учителем. Метод опорных векторов - 3 Бывают сложные случаи, когда построить разделительную линию не представляется возможным ( рис. 10 ). В этом случае применяется переход от исходного пространства в другое, более высокой размерности. Такое пространство называется спрямляющим . Основная проблема данного подхода – найти соответствующее преобразование , которое позволяет отделить классы. Преимущества метода опорных векторов: 1) на тестах превосходит другие методы; 2) позволяет имитировать различные подходы, в том числе нейронные сети; 3) используется строгая оптимизационная процедура, а не эвристики. Недостатки метода опорных векторов: 1) нет методов преобразования для перехода к спрямляющему пространству; 2) единственным варьируемым параметром является коэффициент ошибки C ; 3) медленное обучение. X1 X 2 Рис . 10 . Переход к пространству более высокой размерности X1 X 2 X 3
28 Методы машинного обучения. Лекция 1 Обучение с учителем. Линейная регрессия - 1 Задача линейной регрессии заключается в построении линейной функции, наилучшим образом аппроксимирующую заданный набор данных ( xi, yi ) ( рис. 11 ) линейной функцией X1 X 2 Рис . 11 . Пояснение задачи линейной регрессии xi yi (3 4 ) Требуется выбрать параметры a и b так, чтобы минимизировать функцию ошибки (35) Процесс выбора параметров a и b называется обучением . Для обучения обычно используется градиентный метод (3 6 ) (3 7 ) Из ( 36 ), ( 37 ) находятся параметры a и b .
29 Методы машинного обучения. Лекция 1 Структурная схема обучения с учителем Схема обучения с учителем представлена на рис. 12 . На данной схеме вход x поступает на вход обучаемого алгоритма, вход учителя и вход алгоритма обучения. Выход y обучаемого алгоритма сравнивается с выходом учителя, который генерирует эталонный выход y* . Входами алгоритма обучения являются вход всей системы, ошибка и выход обучаемого алгоритма. В данной схеме и требуется иметь алгоритм вычисления эталонного решения y* . Однако эти эталонные решения нужно вычислять не для всех возможных значений входа x , а только для некоторой его части. Рис . 12 . Схема обучения с учителем Обучаемый алгоритм Вход x y Учитель - + Алгоритм обучения y* e Выход
Контрольные вопросы и задачи 30 1) Объясните смысл выражения, в котором P – вероятность, yi – класс объекта; xi – класс. Методы машинного обучения. Лекция 1 2 ) Объясните смысл выражения, в котором P – вероятность, yi – класс объекта; xi – класс. 3 ) Дана выборка: зеленый; олово; паук; овес; думать; кислый; апельсин . Разбейте выборку на 2 класса: 1 – слова, начинающиеся с гласной; 2 – слова, начинающиеся с согласной. Вычислите частоты класса 1 и класса 2 . 4) В чем заключается задача классификации ? 5) Опишите процесс обучение с учителем. 6) Имеется дерево решений, представленное ниже. Назовите узлы и листья дерева. Впереди есть препятствие ? Движение прямо Нет Препятствие далеко ? Есть Да Нет Движение прямо Маневр
Контрольные вопросы и задачи 31 7 ) Задана таблица. Вычислите энтропию признака Цвет товара . Методы машинного обучения. Лекция 1 Решение Да Нет Цвет товара Белый 4 2 6 Синий 1 3 4 8 ) Укажите на рисунке ниже опорные вектора. X1 X 2 e 9 ) Приведите структурную схему обучения с учителем.