vkantor / MIPT_Data_Mining_In_Action_2016

"Data Mining in Action Course", Moscow Institute of Physics and Technologies
209 stars 175 forks source link

Как работать с loss? #25

Closed grishasobol closed 7 years ago

grishasobol commented 7 years ago

Добрый вечер, пара вопросов насчет вот этой функции, вопросы помечены в комментах: def loss(self, X_batch, y_batch, reg): """Logistic Regression loss function Inputs:

    pred = self.predict(X_batch)
    loss = hl(y_batch , pred) #hamming function
    dw = X_batch.transpose() * (pred - y_batch).transpose()
    dw /= X_batch.shape[0]

    # Right now the loss is a sum over all training examples, but we want it
    # to be an average instead so we divide by num_train.
    # Note that the same thing must be done with gradient.

<-----Что здесь вообще надо сделать и зачем это??? Почему моя ошибка - это сумма по всем выборкам?

    # Add regularization to the loss and gradient.
    # Note that you have to exclude bias term in regularization.
    <--------------Как исключить "термин смещения"?

    loss *= reg
    dw *= reg

    return loss, dw
senya-ashukha commented 7 years ago

я не понял Ваши вопросы, пожалуйста сформулируйте нормально и да, оформляйте пожалуйста вопросы, у Вас половина кода это текст и прочече