Deepfake можно распознать по неправильному отражению в глазах людей
Исследователи из Университета Буффало разработали инструмент для почти безошибочного определения дипфейков (Deepfake) на цифровых изображениях людей. Новый алгоритм ошибается всего в шести случаях из ста. Это может помочь в борьбе с ложной информацией, но алгоритм имеет ряд ограничений.
Предложенный исследователями алгоритм исследует отражения в глазах людей на цифровых фотографиях. На настоящих изображениях отражения в глазах, как правило, одинаковые, тогда как нейросети в процессе создания дипфейка оперируют множеством цифровых изображений людей из обширной базы данных, что ведёт к синтезу разных отражений на одной и другой роговице глаза.
В частности, анализ базы данных сгенерированных нейросетью StyleGAN2 изображений ненастоящих людей показал, что алгоритм способен выявить дипфейк в 94 % случаев портретных изображений людей, сделанных с хорошим освещением и с достаточно большим разрешением. В то же время точность стремительно падала, если разрешение снижалось или освещения было недостаточно для формирования отражения от роговицы.
Также следует признать, что при определённом освещении отражения в глазах могут отличаться, как и нельзя данный алгоритм применить для случаев, когда второй глаз не виден или находится в тени. Тем не менее, любое продвижение по пути разоблачения дипфейков можно только приветствовать. Со временем распространение поддельной цифровой аудиовизуальной информацией обещает стать серьёзной проблемой.