Кузовной ремонт автомобиля

 Покраска в камере, полировка

 Автозапчасти на заказ

Какой подойдет двигатель на приору


Лада Приора какие двигатели устанавливались: Технические характеристики

Вступление

Лада Приора является довольно распространенным автомобилем в странах СНГ, да и не только, Приору можно заметить на улицах Германии и других заграничных стран, конечно в меньших количествах, чем в нашей стране.

Чем мощнее двигатель, тем дороже его процесс производства. Большинство автомобилей премиум класса имеют мощные двигатели. Такой двигатель потребляет больше топлива и обслуживания его обходится намного дороже.

Бюджетные же автомобили имеют небольшой объем ДВС, не превышающий двух литров. Приора же оснащается силовой установкой объемом от 1,6 до 1,8 литра и мощностью до 123 л.с.

На Ладу Приору с завода устанавливалось несколько типов двигателей. Все они схожи по конструкции, но имеют существенные отличия, которые могут повлиять на выбор автомобиля. В данной статье рассказывается, какие двигателя устанавливались на Ладу Приору.

Различия

ДВС приоры изначально был 16 клапанный скопированный еще с ВАЗ 2112 имеющий индекс 2112 (120 мотор). В скором времени из-за некоторых недостатков потребитель начал отказываться от такого двигателя в пользу старого и неприхотливого 8-ми клапанного мотора.

Конечно, все эти перемены сказывались на мощности силовой установки, так как 8-ми клапанный ДВС намного слабее 16-ти клапанного.

Двигателя

Лада Приора несколько раз подвергалась изменениям, как внешне, так и технически. Менялся внешний облик, силовая установка и трансмиссия.

Ниже приведены пример двигателей, которые устанавливались ВАЗ 2170-72.

Двигатель 21116 (8 клапанов)

Данный двигатель устанавливался на ВАЗ 2114 и Ладу Калину, позже по наследству достался и Приоре. Мощность данного ДВС составляет 80 л.с. при объеме в 1,6 литра, что весьма мала. Такой двигатель не обладает хорошей динамикой, и «тащить» кузов Приоры ему тяжеловато.

Плюсы:

  • Не загибает клапана;
  • Прост в обслуживании;
  • Более дешевые запчасти;

Минусы:

  • Низкая мощность;
  • Шумность;

Установка такого двигателя продолжалась до 2018 года.

Двигатель 21126 (16 клапанов)

16 клапанный мотор обладающей большей мощностью и крутящим моментом по сравнению с 116. Является доработанной моделью 124 мотора. Его мощность составляет 98 л.с. при объеме 1,6 литра.

Плюсы:

  • Большая мощность;
  • Не шумная работа;

Минусы:

  • Загиб клапанов при обрыве ремня;
  • Дорогие запчасти;

Двигатель 21127 (16 клапанов)

Доработанный 126 мотор получил индекс 21127, в данном двигателе изменился впуск тем самым повысилась мощность до 106 л.с. при том же объеме в 1,6 литра. К данному двигателю стали устанавливать новую тросиковую кпп.

Плюсы:

  • Высокая мощность;
  • Не шумная работа;

Минусы:

  • Загиб клапанов;
  • Дорогие запчасти;

Двигатель 21128 (16 клапанов)

Данный двигатель был специально разработан для более мощных автомобилей Лада с шильдиком «Супер Авто». Мощность данного двигателя увеличилась, как и его объем.  Количество лошадиных сил в моторе супер авто увеличилось до 123, а объем до 1,8 литра, что кардинально повлияло на динамику автомобиля.

Плюсы:

  • Хорошая динамика и высокая мощность;

Минусы:

  • Загиб клапанов;
  • Более дороге запчасти;

Таблицы и графики испытаний двигателей

Сравнение двигателей Приоры 1,8 и 1,6 литра

Как можно заметить по таблице, мощность двигателя 1,8 литра положительно влияет на его динамику и даже на расход. Казалось бы что именно расход топлива и должен увеличиться, но результаты испытаний доказывают обратное.

Мощность двигателей

На данном графике фаворит виден сразу, равных двигателю с объем 1,8 литра практически нет.

Сравнение 126 и 128 мотора

← Кондиционеры Приора Замена свечей зажигания на Лада Приора →

Наивная байесовская классификация с использованием Scikit-learn

Предположим, вы менеджер по продукту, вы хотите классифицировать отзывы клиентов по положительным и отрицательным категориям. Или, как управляющий кредитами, вы хотите определить, кто из претендентов на кредит безопасен или рискован? Как аналитик здравоохранения, вы хотите предсказать, какие пациенты могут страдать от диабета. Все примеры имеют одинаковую проблему для классификации отзывов, соискателей и пациентов.

Наивный байесовский алгоритм - это самый простой и быстрый алгоритм классификации, который подходит для большого объема данных.Наивный байесовский классификатор успешно используется в различных приложениях, таких как фильтрация спама, классификация текста, анализ настроений и системы рекомендаций. Используется теорема Байеса о вероятности для предсказания неизвестного класса.

В этом уроке вы узнаете обо всем следующем:

  • Классификация рабочего процесса
  • Что такое наивный байесовский классификатор?
  • Как работает наивный байесовский классификатор?
  • Здание классификатора в Скикит-учите
  • Проблема нулевой вероятности
  • Это достоинства и недостатки

Классификация рабочего процесса

Каждый раз, когда вы выполняете классификацию, первым делом необходимо понять проблему и определить потенциальные особенности и маркировку.Особенности - это те характеристики или атрибуты, которые влияют на результаты метки. Например, в случае выдачи кредита управляющий банком идентифицирует род деятельности клиента, доход, возраст, местоположение, предыдущую историю кредита, историю транзакций и кредитный рейтинг. Эти характеристики известны как функции, которые помогают модели классифицировать клиентов.

Классификация состоит из двух фаз: фазы обучения и фазы оценки. На этапе обучения классификатор обучает свою модель заданному набору данных, а на этапе оценки он проверяет производительность классификатора.Производительность оценивается на основе различных параметров, таких как точность, ошибка, точность и отзыв.

Что такое наивный байесовский классификатор?

Наивный байесовский метод - метод статистической классификации, основанный на теореме Байеса. Это один из самых простых контролируемых алгоритмов обучения. Наивный байесовский классификатор - это быстрый, точный и надежный алгоритм. Наивные байесовские классификаторы имеют высокую точность и скорость на больших наборах данных.

Наивный байесовский классификатор

предполагает, что влияние определенной функции в классе не зависит от других характеристик.Например, заявитель на получение кредита желателен или нет в зависимости от его / ее дохода, предыдущего кредита и истории транзакций, возраста и местоположения. Даже если эти функции взаимозависимы, эти функции все равно рассматриваются независимо. Это предположение упрощает вычисления, и поэтому оно считается наивным. Это предположение называется классом условной независимости.

  • P (h): вероятность того, что гипотеза h верна (независимо от данных). Это известно как априорная вероятность h.
  • P (D): вероятность данных (независимо от гипотезы). Это известно как априорная вероятность.
  • P (h | D): вероятность гипотезы h с учетом данных D. Это известно как апостериорная вероятность.
  • P (D | h): вероятность данных d, учитывая, что гипотеза h была верной. Это известно как апостериорная вероятность.

Как работает наивный байесовский классификатор?

Давайте разберемся в работе Наивного Байеса на примере. Приведен пример погодных условий и занятий спортом.Вам нужно рассчитать вероятность занятия спортом. Теперь вам нужно определить, будут ли игроки играть или нет, исходя из погодных условий.

Первый подход (в случае одной функции)

Наивный байесовский классификатор вычисляет вероятность события в следующих шагах:

  • Шаг 1: Рассчитайте априорную вероятность для заданных меток классов
  • Шаг 2: Найти вероятность вероятности с каждым атрибутом для каждого класса
  • Шаг 3: Поместите это значение в формулу Байеса и рассчитайте апостериорную вероятность.
  • Шаг 4. Посмотрите, какой класс имеет более высокую вероятность, учитывая, что входные данные принадлежат к классу с более высокой вероятностью.

Для упрощения предварительного и последующего расчета вероятности вы можете использовать две таблицы частот и таблиц вероятности. Обе эти таблицы помогут вам рассчитать предварительную и последующую вероятность. Таблица частоты содержит вхождения меток для всех функций. Есть две таблицы вероятности. Таблица 1 правдоподобия показывает предыдущие вероятности меток, а таблица 2 правдоподобия показывает апостериорную вероятность.

Теперь предположим, что вы хотите вычислить вероятность игры в пасмурную погоду.

Вероятность игры:

P (да | облачно) = P (облачно | да) P (да) / P (облачно) ..................... (1)

  1. Рассчитать априорные вероятности:

    P (облачно) = 4/14 = 0,29

    P (Да) = 9/14 = 0,64

  1. Рассчитать апостериорные вероятности:

    P (Overcast | Yes) = 4/9 = 0.44

  1. Поместите априорные и апостериорные вероятности в уравнение (1)

    P (Да | Пасмурно) = 0,44 * 0,64 / 0,29 = 0,98 (выше)

Точно так же можно рассчитать вероятность не играть:

Вероятность не играть:

P (нет | облачно) = P (облачно | нет) P (нет) / P (облачно) ..................... (2)

  1. Рассчитать априорные вероятности:

    P (облачно) = 4/14 = 0.29

    P (Нет) = 5/14 = 0,36

  1. Рассчитать апостериорные вероятности:

    P (облачно | нет) = 0/9 = 0

  1. Поместите априорные и апостериорные вероятности в уравнение (2)

    P (Нет | Пасмурно) = 0 * 0,36 / 0,29 = 0

Вероятность «Да» класса выше. Таким образом, вы можете определить здесь, если погода пасмурная, чем игроки будут заниматься спортом.

Второй подход (в случае нескольких функций)

Теперь предположим, что вы хотите вычислить вероятность игры, когда погода пасмурная, а температура умеренная.

Вероятность игры:

P (Воспроизвести = Да | Погода = Пасмурно, Темп = Легко) = P (Погода = Пасмурно, Темп = Мягко | Воспроизвести = Да) P (Воспроизвести = Да) .......... (1 )

P (Погода = Пасмурно, Темп = Легко | Воспроизвести = Да) = P (Пасмурно | Да) P (Легко | Да) ……… .. (2)

  1. Рассчитать априорные вероятности: P (Да) = 9/14 = 0,64

  2. Рассчитать апостериорные вероятности: P (облачно | да) = 4/9 = 0,44 P (Мягкий | Да) = 4/9 = 0.44

  3. Поместить апостериорные вероятности в уравнение (2) P (Погода = Пасмурно, Темп = Легко | Игра = Да) = 0,44 * 0,44 = 0,1936 (выше)

  4. Поместите априорные и апостериорные вероятности в уравнение (1) P (Воспроизвести = Да | Погода = Пасмурно, Темп = Мягкий) = 0,1936 * 0,64 = 0,124

Точно так же можно рассчитать вероятность не играть:

Вероятность не играть:

P (Воспроизвести = Нет | Погода = Пасмурно, Темп = Легко) = P (Погода = Пасмурно, Темп = Мягко | Воспроизвести = Нет) P (Воспроизвести = Нет).......... (3)

P (Погода = Пасмурно, Темп = Мягкий | Играть = Нет) = P (Погода = Пасмурно | Играть = Нет) P (Темп = Мягкий | Играть = Нет) ……… .. (4)

  1. Рассчитать априорные вероятности: P (Нет) = 5/14 = 0,36

  2. Рассчитать апостериорные вероятности: P (погода = пасмурно | игра = нет) = 0/9 = 0 P (Temp = Mild | Play = No) = 2/5 = 0,4

  3. Поместить апостериорные вероятности в уравнение (4) P (Погода = Пасмурно, Темп = Легко | Играть = Нет) = 0 * 0.4 = 0

  4. Поместите априорные и апостериорные вероятности в уравнение (3) P (Play = Нет | Погода = Пасмурно, Temp = Мягко) = 0 * 0.36 = 0

Вероятность «Да» класса выше. Таким образом, вы можете сказать здесь, что если погода пасмурная, то игроки будут заниматься спортом.

Здание классификатора в Scikit-Learn

Наивный байесовский классификатор

Определение набора данных

В этом примере вы можете использовать фиктивный набор данных с тремя столбцами: погода, температура и игра. Первые две - это особенности (погода, температура), а другая - это метка.

  # Назначение объектов и переменных меток Погода = [ 'Солнечный', 'Солнечный', 'Ясно', 'Дождливый', 'Дождливый', 'Дождливый', 'Ясно', 'Солнечный', 'Солнечный', «Дождливый», «Солнечный», «Ясно», «Ясно», «Дождливый»] Темп = [ 'Горячий', 'Горячий', 'Горячие', 'Умеренная', 'холодный', 'Cool', 'Cool', 'Мягкий', 'Cool', 'Умеренная', 'Умеренная', 'Умеренная' 'Горячая', 'Мягкий'] игра = [ «Нет», «Нет», «Да», «Да», «Да», «Нет», «Да», «Нет», «Да», «Да», «Да», «Да» ,'Да нет']  
Особенности кодирования

Во-первых, вам нужно преобразовать эти строковые метки в числа.например: «Overcast», «Rainy», «Sunny» как 0, 1, 2. Это называется кодированием метки. Scikit-learn предоставляет библиотеку LabelEncoder для кодирования меток со значением от 0 до одного меньше, чем число дискретных классов.

  # Импорт LabelEncoder от предварительной обработки импорта sklearn #creating labelEncoder le = preprocessing.LabelEncoder () # Преобразование строковых меток в числа. wheather_encoded = le.fit_transform (погода) печать Wheater_encoded  
  [2 2 0 1 1 1 0 2 2 1 2 0 0 1]  

Аналогично, вы также можете кодировать темп и воспроизводить столбцы.

  # Преобразование строковых меток в числа temp_encoded = le.fit_transform (температура) метка = le.fit_transform (игра) вывести «Temp:», temp_encoded печать "Play:", этикетка  
  Temp: [1 1 1 2 0 0 0 2 0 2 2 2 1 2] Играть: [0 0 1 1 1 0 1 0 1 1 1 1 1 0]  

Теперь объедините обе функции (погода и температура) в одну переменную (список кортежей).

  # Комбинировать погоду и температуру в одном списке кортежей Характеристика = ZIP (weather_encoded, temp_encoded) особенности печати  
  [(2, 1), (2, 1), (0, 1), (1, 2), (1, 0), (1, 0), (0, 0), (2, 2) , (2, 0), (1, 2), (2, 2), (0, 2), (0, 1), (1, 2)]  
Генерация Модель

Создайте модель с использованием наивного байесовского классификатора, выполнив следующие действия:

  • Создать наивный байесовский классификатор
  • Установить набор данных по классификатору
  • Выполнить прогноз
  # Импорт гауссовских наивных байесовских моделей от склеарн.naive_bayes import GaussianNB # Создать гауссовский классификатор модель = GaussianNB () # Тренируй модель, используя тренировочные наборы model.fit (характеристики, этикетка) # Прогнозировать вывод прогнозируемый = model.predict ([[0,2]]) # 0: пасмурно, 2: слабый печать «Предсказанное значение:», прогнозируемое  
  Прогнозируемая стоимость: [1]  

Здесь 1 указывает, что игроки могут «играть».

Наивный Байес с несколькими метками

До сих пор вы выучили наивную байесовскую классификацию с бинарными метками.Теперь вы узнаете о классификации нескольких классов в Наив Байеса. Который известен как полиномиальная наивная байесовская классификация. Например, если вы хотите классифицировать новостную статью о технологиях, развлечениях, политике или спорте.

В части построения модели вы можете использовать набор данных вина, который является очень известной проблемой классификации нескольких классов. «Этот набор данных является результатом химического анализа вин, выращенных в том же регионе Италии, но полученных из трех разных сортов». (UC Irvine)

Набор данных

содержит 13 признаков (алкоголь, яблочная кислота, зола, алкалическая кислота, магний, общее количество фенолов, флаваноиды, нефлаваноидные фенолы, проантоцианины, color_intensity, hue, od280 / od315_of_diluted_wines, пролин) и тип вина.Эти данные имеют три типа вина Class_0, Class_1 и Class_3. Здесь вы можете построить модель для классификации типа вина.

Набор данных доступен в библиотеке scikit-learn.

Загрузка данных

Давайте сначала загрузим необходимый набор данных вина из наборов данных scikit-learn.

  # Библиотека набора данных scikit-learn из наборов импортных данных sklearn # Загрузка данных wine = datasets.load_wine ()  
Изучение данных

Вы можете напечатать имена целей и объектов, чтобы убедиться, что у вас есть правильный набор данных, например:

  # распечатать названия 13 функций печать «Особенности:», вино.feature_names # распечатать этикетку типа вина (class_0, class_1, class_2) выведите "Labels:", wine.target_names  
  Особенности: ['cohol ',' malic_acid ',' ash ',' alcalinity_of_ash ',' магния ',' total_phenols ',' flavanoids ',' nonflavanoid_phenols ',' proanthocyanins ',' color_intensity ',' hue ',' ' od280 / od315_of_diluted_wines ',' proline '] Метки: ['class_0' 'class_1' 'class_2']  

Это хорошая идея, чтобы всегда немного изучить ваши данные, чтобы вы знали, с чем работаете.Здесь вы можете увидеть первые пять строк набора данных, а также целевую переменную для всего набора данных.

  # форма для печати данных (функция) wine.data.shape  
  (178л, 13л)  
  # распечатать данные о винах (5 лучших записей) печать wine.data [0: 5]  
  [[1.42300000e + 01 1.71000000e + 00 2.43000000e + 00 1.56000000e + 01 1.27000000e + 02 2.80000000e + 00 3.06000000e + 00 2.80000000e-01 2.2

00e + 00 5.64000000e + 00 1.04000000e + 00 3.92000000e + 00 1.06500000e + 03] [1.32000000e + 01 1.78000000e + 00 2.14000000e + 00 1.12000000e + 01 1,00000000e + 02 2,65000000e + 00 2,76000000e + 00 2,60000000e-01 1.28000000e + 00 4.38000000e + 00 1.05000000e + 00 3.40000000e + 00 1.05000000e + 03] [1.31600000e + 01 2.36000000e + 00 2.67000000e + 00 1.86000000e + 01 1.01000000e + 02 2.80000000e + 00 3.24000000e + 00 3.00000000e-01 2.81000000e + 00 5.68000000e + 00 1.03000000e + 00 3.17000000e + 00 1.18500000e + 03] [1.43700000e + 01 1.95000000e + 00 2.50000000e + 00 1.68000000e + 01 1.13000000e + 02 3.85000000e + 00 3.4

00e + 00 2.40000000e-01 2.18000000e + 00 7.80000000e + 00 8.60000000e-01 3.45000000e + 00 1.48000000e + 03] [1.32400000e + 01 2.5

00e + 00 2.87000000e + 00 2.10000000e + 01 1.18000000e + 02 2.80000000e + 00 2.6

00e + 00 3.

000e-01 1.82000000e + 00 4.32000000e + 00 1.04000000e + 00 2.93000000e + 00 7.35000000e + 02]]

  # распечатать винные этикетки (0: Class_0, 1: class_2, 2: class_2) печать вина.цель  
  [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2]  
Данные расщепления

Сначала вы разделяете столбцы на зависимые и независимые переменные (или функции и метки).Затем вы разделяете эти переменные на поезд и набор тестов.

  # Импортировать функцию train_test_split из sklearn.cross_validation import train_test_split # Разделить набор данных на тренировочный набор и тестовый набор X_train, X_test, y_train, y_test = train_test_split (wine.data, wine.target, test_size = 0.3, random_state = 109) # 70% обучения и 30% теста  
Поколение модели

После разделения вы сгенерируете случайную модель леса в обучающем наборе и выполните прогнозирование функций набора тестов.

  # Импорт модели Гаусса-Наивного Байеса из sklearn.naive_bayes import GaussianNB # Создать гауссовский классификатор gnb = GaussianNB () # Тренируйте модель, используя тренировочные наборы gnb.fit (X_train, y_train) # Прогнозировать ответ для тестового набора данных y_pred = gnb.predict (X_test)  
Оценка модели

После генерации модели проверьте точность, используя фактические и прогнозные значения.

  # Импортировать модуль scikit-learn метрики для расчета точности из показателей импорта sklearn # Точность модели, как часто правильный классификатор? печать ( «Точность:» метрики.точность_счета (у_тест, у_пред))  
  («Точность:», 0,90740740740740744)  

Проблема нулевой вероятности

Предположим, что в наборе данных нет кортежа для рискованного ссуды, в этом сценарии апостериорная вероятность будет равна нулю, и модель не сможет сделать прогноз. Эта проблема известна как нулевая вероятность, потому что вхождение определенного класса равно нулю.

Решением для такой проблемы является поправка Лапласа или преобразование Лапласа.Лапласовская коррекция является одним из методов сглаживания. Здесь вы можете предположить, что набор данных достаточно большой, чтобы добавление одной строки каждого класса не повлияло на оценку вероятности. Это позволит преодолеть проблему значений вероятности до нуля.

Например: Предположим, что для рискованного кредитного класса в базе данных имеется 1000 обучающих кортежей. В этой базе данных столбец дохода содержит 0 кортежей для низкого дохода, 990 кортежей для среднего дохода и 10 кортежей для высокого дохода. Вероятности этих событий без поправки Лапласа равны 0, 0.990 (от 990/1000) и 0,010 (от 10/1000)

Теперь примените поправку Лапласа к данному набору данных. Давайте добавим еще 1 кортеж для каждой пары доход-ценность. Вероятности этих событий:

Преимущества

  • Это не только простой подход, но также быстрый и точный метод прогнозирования.
  • Наивный Байес имеет очень низкую стоимость вычислений.
  • Может эффективно работать с большим набором данных.
  • Хорошо работает в случае дискретной переменной отклика по сравнению с непрерывной переменной.
  • Может использоваться с несколькими задачами прогнозирования классов.
  • Это также хорошо работает в случае проблем анализа текста.
  • Когда предположение о независимости сохраняется, наивный байесовский классификатор работает лучше по сравнению с другими моделями, такими как логистическая регрессия.

Недостатки

  • Предположение о независимых особенностях. На практике почти невозможно, чтобы модель получала набор предикторов, которые полностью независимы.
  • Если в определенном классе нет обучающего кортежа, это приводит к нулевой апостериорной вероятности.В этом случае модель не может делать прогнозы. Эта проблема известна как проблема нулевой вероятности / частоты.

Заключение

Поздравляем, вы дошли до конца этого урока!

В этом руководстве вы узнали о наивном байесовском алгоритме, его работе, наивном байесовском предположении, проблемах, реализации, преимуществах и недостатках. Кроме того, вы также научились строить и оценивать модели в scikit-learn для бинарных и полиномиальных классов.

Наивный Байес - это самый простой и мощный алгоритм. Несмотря на значительные успехи машинного обучения за последние пару лет, он доказал свою ценность. Он был успешно развернут во многих приложениях от анализа текста до механизмов рекомендаций.

Я с нетерпением жду каких-либо отзывов или вопросов. Вы можете задать свои вопросы, оставив комментарий, и я постараюсь ответить на него.

Если вы хотите больше узнать о scikit-learn в Python, пройдите курс DataCamp Supervised Learning с scikit-learn.

,

Смотрите также


avtovalik.ru © 2013-2020
Карта сайта, XML.