Проходжу курс на coursera.
Для виконання завдання потрібно нормалізувати вибірку для завдання класифікації, з двох ознак і однієї цільової змінної. Коли я просто завантажую вибірку:
І доходжу до наступного коду:
Також виводиться попередження:
Але reshape (1, -1) перетворює мій вектор ознак з shape (300, 2) в вектор з shape (1, 600).
Чи залишиться завдання після таких перетворень завданням класифікації? (Судячи по виключенню, радять використовувати метод оцінки для лінійної регресії - немає)
Яким чином я можу нормалізувати ознаки для цього завдання?
reshape - змінює розмірність масиву, але не змінює самі дані. Нормалізація даних (або ознак) - приведення їх до одного й того ж масштабу. Наприклад, вік і зарплата - вік від 0 до 100, зарплата від 0 до <много> - нормалізовані занчение будуть лежати в межах [0; 1]. Що ви, власне, хочете зробити - змінити розмірність масиву або нормалізувати ознаки? Операції один з одним ніяк не пов'язані - нормалізовані дані будуть мати ту ж саму розмірність. - m9_psy 3 квіт в 0:42
@ M9_psy Це так. Але для того, щоб нормалізувати вибірку за допомогою sklearn, слідуючи попередження, потрібно зробити reshape вектора, створивши з 300 об'єктів з двома ознаками 600 об'єктів з одним. Мене саме це бентежить. Також там потрібно подавати однакові вектори, а в цільовому векторі тільки 300 значень - по одному на об'єкт, і як отримати з них 600 - теж незрозуміло. У будь-якому разі дякую. - justpainm8 3 Квітня о 15:00
Мені StandardScaler потрібен саме для нормалізації. У завданні навчається sklearn.linear_model.Perceptron. Проблема основна в тому, що scaler.transform () вимагає reshape робити, якщо кількість фіч не збігається з кількістю цільових змінних (300x2 vs 300 в моєму випадку), і тоді руйнується вибірка - виходить, що 300 об'єктів з двома ознаками перетворюються в 600 з одним. - justpainm8 4 Квітня о 19:51
@ Justpainm8, тоді я не розумію в чому полягає питання - x_train_scaled = scaler.fit_transform (x_train) дає вам нормалізований "data set" - просто працюйте з ним і все. y_train - нормалізувати не треба. - MaxU 4 Квітня о 20:05