КРОСС ЭНТРОПИЯ PYTHON

Кросс-энтропия (cross-entropy) — это мера расстояния между двумя вероятностными распределениями. В машинном обучении эта мера часто используется как функция потерь (loss function) для задач классификации и регрессии.

В Python для вычисления кросс-энтропии можно воспользоваться функцией cross_entropy из библиотеки scipy:

from scipy.stats import entropydistribution1 = [0.25, 0.25, 0.25, 0.25]distribution2 = [0.1, 0.4, 0.1, 0.4]cross_entropy = entropy(distribution1, distribution2)print(cross_entropy)

Можно также воспользоваться функцией keras.losses.categorical_crossentropy из библиотеки keras, которая предназначена для задач классификации:

import kerasimport numpy as npy_true = np.array([[0, 1, 0], [0, 0, 1]])y_pred = np.array([[0.05, 0.95, 0], [0.1, 0.8, 0.1]])cross_entropy = keras.losses.categorical_crossentropy(y_true, y_pred)print(cross_entropy)

Здесь y_true представляет собой истинные значения целевой переменной (one-hot encoded), а y_pred — предсказанные значения. Функция вычисляет кросс-энтропию между y_true и y_pred.

Нейронные сети и компьютерное зрение - 46 урок. Бинарная классификация. Бинарная кросс-энтропия.

Нейронные сети и компьютерное зрение - 48 урок. Бинарная классификация. Бинарная кросс-энтропия.

Machine Learning. Урок №2. Кросс - валидация/Сross-validation

Лекция 2.2: LogLoss.

Логистическая функция потерь и кросс-энтропия

Информационная энтропия (видео 14) - Теория информации - Программирование

Cross Entropy Loss Error Function - ML for beginners!

4Нейронные сети и компьютерное зрение - 49 урок. Бинарная классификация. Бинарная кросс-энтропия.

BLGPG-6C14509D004C-24-11-23-22

Новые материалы: