Старые семейные фотографии часто становятся свидетелями времени: пожелтевшая бумага, царапины, пятна, потеря контраста и размытость лиц делают их почти неузнаваемыми. Десятилетиями люди вручную ретушировали такие снимки в фотолабораториях, но этот процесс был трудоёмким и дорогим. С появлением глубокого обучения ситуация радикально изменилась — нейросети теперь способны восстанавливать лица на снимках 1940–1980-х годов за считанные секунды.
Современные модели слепого восстановления лиц (blind face restoration) ориентированы именно на реальные деградации: шум, низкое разрешение, артефакты сжатия, потерю деталей. Три наиболее известные и часто сравниваемые архитектуры — GFPGAN, CodeFormer и GPEN — стали стандартом де-факто в этой области. Каждая из них использует генеративные приоры (priors), но делает это по-разному, что приводит к заметным различиям в результатах.

Как работают нейросети для восстановления лиц
Все три модели опираются на идею, что лицо человека имеет предсказуемую структуру. Нейросеть сначала извлекает ключевые черты (глаза, нос, рот, овал лица), а затем использует их для реконструкции недостающих или повреждённых участков. Важно, что модели обучаются на огромных датасетах пар «деградированное лицо — чистое высококачественное лицо», что позволяет им «додумывать» детали правдоподобно.
GFPGAN (2021) первой широко популяризировала подход с GAN-пrior из StyleGAN. CodeFormer (2022, NeurIPS) ввела кодбуки и трансформер для более точного поиска соответствий. GPEN (Generative Facia l Prior-Enhanced Network) акцентирует внимание на высоком разрешении и сохранении идентичности через сильный генеративный приор.
Сравнение трёх ключевых моделей
- GFPGAN Эта модель вышла в 2021 году и быстро стала популярной благодаря интеграции в множество интерфейсов (включая веб-сервисы и плагины для Stable Diffusion). GFPGAN использует генеративный приор из предобученной StyleGAN2, чтобы «внедрять» реалистичные черты лица в повреждённое изображение. Сила модели — в естественном восстановлении глаз, бровей и текстуры кожи. При сильных повреждениях у кадра будет более гладкая, почти «отфотошопленная» кожа, что иногда выглядит слишком идеально для старой фотографии. GFPGAN хорошо справляется с размытием и шумом, но может менять черты лица при очень низком качестве входного изображения — нос становится уже, глаза крупнее. Пользователи отмечают, что результат часто выглядит «живым», но иногда теряет историческую аутентичность.
- CodeFormer Разработана в 2022 году и представлена на конференции NeurIPS. Главное нововведение — использование Codebook Lookup Transformer, который разбивает задачу на поиск ближайших кодов из словаря качественных лиц. Это позволяет модели лучше контролировать баланс между верностью оригиналу и качеством восстановления. Параметр fidelity weight (обычно от 0 до 1) даёт пользователю возможность регулировать степень вмешательства: при значении близком к 0 нейросеть почти не меняет оригинал, при 0.7–1 получается очень чёткое лицо. CodeFormer особенно сильна на сильно повреждённых старых фото — царапины, крупные пятна и потеря половины лица восстанавливаются с сохранением индивидуальности. Многие считают её лучшей по балансу «реализм vs точность» среди трёх рассматриваемых моделей.
- GPEN GPEN (2021–2022) фокусируется на генерации высокого разрешения (до 1024×1024 и выше) с акцентом на сохранение идентичности человека. Модель использует сильный facia l prior из GAN, что делает её особенно эффективной при восстановлении очень низкоразрешённых лиц (например, 64×64 пикселей и меньше). GPEN часто даёт наиболее резкие и детализированные результаты — поры кожи, мелкие морщины и блеск в глазах прорисовываются очень чётко. При этом модель иногда переусердствует с детализацией, из-за чего кожа может выглядеть слишком пластиковой или искусственной. GPEN реже меняет форму лица по сравнению с GFPGAN, но уступает CodeFormer в сложных случаях с комбинацией дефектов (шум + царапины + размытие).
Практические рекомендации по выбору модели
Выбор между тремя архитектурами зависит от конкретной фотографии и желаемого результата. Если снимок просто размыт и имеет низкий контраст, но лицо относительно целое — чаще всего достаточно GFPGAN. Когда фотография сильно повреждена (половина лица отсутствует, глубокие царапины через глаза) — CodeFormer обычно показывает наилучший баланс. Для крошечных лиц на групповых снимках 1950–1960-х годов GPEN часто даёт самый чёткий и детальный результат.
Многие современные инструменты (например, веб-интерфейсы на базе Replicate, Hugging Face или локальные сборки Automatic1111) позволяют запускать все три модели и даже комбинировать их. Популярный приём — сначала применить GPEN или CodeFormer для общей чёткости, а затем GFPGAN с низким весом для финальной «оживляющей» обработки глаз и губ.
Заключение
Нейросети CodeFormer, GFPGAN и GPEN превратили восстановление старых фотографий из сложной ретуши в доступный процесс. То, что раньше требовало часов работы профессионального ретушёра, теперь занимает минуты. Каждая модель имеет свои сильные стороны: GFPGAN — естественность и скорость, CodeFormer — контроль и точность на тяжёлых случаях, GPEN — экстремальная чёткость и разрешение.
Благодаря этим инструментам миллионы семейных архивов обретают вторую жизнь. Достаточно загрузить пожелтевший снимок в подходящий сервис — и через несколько секунд лица предков снова смотрят ясно и отчётливо, словно фотография была сделана вчера.
Вопрос-ответ
1. Почему старые фотографии так часто плохо сохраняют лица предков? На старых аналоговых снимках лица страдают от целого комплекса деградаций, которые накладываются друг на друга десятилетиями. Во-первых, это химическое выцветание эмульсии: цвета сдвигаются в сторону жёлтого или синего, контраст падает, а мелкие детали кожи и волос просто растворяются. Во-вторых, механические повреждения — царапины от неправильного хранения, отпечатки пальцев, плесень, трещины на эмульсионном слое, особенно заметные именно в области лиц, потому что человек инстинктивно смотрит туда первым. В-третьих, изначально низкое качество съёмки: дешёвые объективы 1950–1970-х годов давали сильное виньетирование и мягкость по краям кадра, а плёнка часто была чувствительностью 100–400 ISO с заметным зерном, которое со временем только усиливалось. Всё это вместе делает классическую ретушь в Photoshop крайне трудоёмкой — приходится вручную рисовать глаза, губы, текстуру кожи, а результат всё равно выглядит «нарисованным». Именно поэтому нейросети, обученные на миллионах пар деградированное/чистое лицо, стали настоящим прорывом — они не рисуют с нуля, а достраивают наиболее вероятные черты, опираясь на статистику миллионов реальных человеческих лиц.
2. В чём главное отличие CodeFormer от GFPGAN? CodeFormer радикально изменила подход к слепому восстановлению лиц за счёт введения кодбуков и трансформерной архитектуры поиска ближайших качественных представлений. Если GFPGAN в основном полагается на промежуточные признаки предобученной StyleGAN2 и пытается «внедрить» их в повреждённое изображение через несколько этапов свёрточного кодирования и декодирования, то CodeFormer разбивает всё высококачественное лицо на дискретные коды (как в VQ-VAE), а потом ищет для повреждённого лица наиболее близкие коды из этого словаря. Благодаря этому появляется возможность очень точно регулировать степень вмешательства нейросети через параметр fidelity weight: при значении 0.0 модель почти не меняет оригинал, при 0.5–0.7 выдаёт сбалансированный результат, а при 0.9–1.0 максимально «вылизывает» лицо. Это делает CodeFormer гораздо более гибкой в реставрации исторически ценных снимков, где важно не потерять индивидуальность предка, даже если фото очень плохое. GFPGAN же чаще склонна к чрезмерной идеализации — кожа становится слишком гладкой, глаза слишком большими и яркими, что иногда превращает пожилого человека 1940-х в «молодую модель».
3. GPEN лучше всех справляется с крошечными лицами — правда ли это? Да, GPEN действительно остаётся одной из сильнейших моделей именно на экстремально низком разрешении лица — 64×64, 48×48 и даже меньше. Это связано с тем, что архитектура изначально проектировалась с упором на мощный генеративный приор высокого разрешения и использует многослойное внедрение facia l prior на разных стадиях декодирования. Когда обычные модели (включая GFPGAN) на таких крошечных лицах начинают «придумывать» совершенно чужие черты или выдавать кашу вместо глаз и рта, GPEN чаще всего сохраняет хотя бы общую геометрию и пропорции. При этом она способна поднять крошечное лицо до 512×512 или 1024×1024 с очень высокой детализацией пор, ресниц, мелких морщин. Однако обратная сторона медали — при сильной деградации (шум + царапины + потеря контраста) GPEN иногда переусердствует с детализацией и кожа выглядит пластиковой или кукольной. Поэтому многие опытные пользователи применяют её именно как первый этап для групповых снимков с дальними планами, а потом дорабатывают CodeFormer или GFPGAN с низким весом, чтобы смягчить излишнюю искусственность.
4. Можно ли полностью доверять нейросети при восстановлении исторических фотографий? Полностью доверять нельзя ни одной модели, потому что все они — это статистические машины, которые выдают наиболее вероятное лицо по обучающим данным. Если у предка было очень редкое сочетание черт (например, чрезвычайно широкий нос, асимметрия, необычная форма ушей), нейросеть с большой вероятностью усреднит их к более типичному варианту из датасета. Особенно сильно это заметно на CodeFormer и GFPGAN при fidelity weight выше 0.7–0.8 — модель начинает «красифицировать» и молодить человека. GPEN в этом плане чуть честнее, потому что её приор сильнее привязан к сохранению идентичности, но и она не застрахована от галлюцинаций. Поэтому профессиональные реставраторы и генеалоги рекомендуют всегда сохранять оригинал и несколько промежуточных вариантов с разными весами, а потом выбирать тот, который больше похож на другие сохранившиеся фотографии этого же человека. Нейросеть — это мощный инструмент помощи, но не замена критическому взгляду и знанию семейной истории.
5. Какие параметры fidelity weight считаются оптимальными для старых фото 1950–1970-х годов? Для большинства любительских реставраций старых семейных снимков 1950–1970-х оптимальный диапазон fidelity weight в CodeFormer лежит между 0.55 и 0.75. При значении ниже 0.5 лицо остаётся слишком размытым и шумным — нейросеть боится вмешиваться и оставляет почти весь оригинальный мусор. При значении выше 0.8 модель уже слишком сильно вмешивается, кожа становится идеально гладкой, глаза неестественно крупными и блестящими, а пожилые люди часто выглядят на 20–30 лет моложе. Диапазон 0.6–0.7 обычно даёт самый сбалансированный результат: лицо становится чётким и узнаваемым, но сохраняет возрастные особенности, морщины, характерную текстуру кожи того времени. В GFPGAN аналогичный контроль осуществляется через параметр weight (обычно 0.8–1.2), но там он работает чуть менее предсказуемо. Многие пользователи делают несколько прогонов с шагом 0.1 и потом выбирают лучший вариант вручную — это самый надёжный способ не потерять аутентичность.
6. Почему после нейросети глаза иногда получаются неестественно яркими и большими? Глаза — это самая заметная и самая сложная часть лица для нейросетей, потому что именно на них человек обращает внимание в первую очередь. Все три модели (особенно GFPGAN и CodeFormer) обучены на современных высококачественных датасетах, где глаза почти всегда большие, чёткие, с яркими бликами и выраженными склерами. Когда сеть видит размытое или зашумлённое старое фото, она тянется именно к этому «среднему» современному приору глаз — отсюда и характерные эффекты «анимешных» или «модельных» глаз на фотографиях 1940–1960-х. GPEN в этом плане чуть сдержаннее, потому что её приор сильнее ориентирован на высокое разрешение и сохранение пропорций, но и она не полностью свободна от проблемы. Чтобы уменьшить эффект, опытные пользователи либо понижают вес вмешательства, либо используют маскирование — оставляют область глаз от оригинала и применяют нейросеть только к остальной части лица. Это требует дополнительных инструментов (например, масок в Photoshop или в ComfyUI), но даёт гораздо более естественный результат.
7. Стоит ли использовать сразу несколько моделей последовательно? Последовательное применение нескольких моделей — один из самых популярных и эффективных приёмов среди опытных пользователей. Самая частая цепочка выглядит так: сначала GPEN или CodeFormer с высоким весом для поднятия резкости и общей структуры лица, затем GFPGAN с низким весом (0.4–0.7) для финальной «оживляющей» обработки глаз, губ и текстуры кожи. Такой подход позволяет взять лучшее от каждой архитектуры: GPEN даёт отличную детализацию на низком разрешении, CodeFormer хорошо справляется с тяжёлыми повреждениями, а GFPGAN добавляет естественный блеск и живость взгляда. Иногда добавляют третий этап — лёгкое размытие или шум в Photoshop, чтобы убрать излишнюю «пластиковость». Главное — не переусердствовать: после трёх-четырёх прогонов лицо может начать терять индивидуальность и превращаться в усреднённый «нейросетевой портрет». Поэтому всегда полезно держать оригинал рядом и сравнивать на большом экране.
8. Как сильно нейросети меняют возраст человека на фото? Нейросети почти всегда немного молодят человека, особенно если вес вмешательства высокий. Это происходит потому, что в обучающих датасетах подавляющее большинство лиц — молодые или среднего возраста, с хорошей кожей и минимальным количеством глубоких морщин. Когда сеть видит пожилое лицо с сильной деградацией, она тянется к более молодому и гладкому приору. GFPGAN молодит сильнее всех — кожа часто становится почти детской, морщины исчезают, щёки наполняются. CodeFormer при fidelity weight 0.5–0.7 сохраняет возраст лучше, но всё равно сглаживает глубокие складки. GPEN обычно оставляет возраст ближе к оригиналу, особенно если лицо было уже достаточно чётким. Чтобы минимизировать омоложение, рекомендуется использовать низкие веса, маскировать проблемные зоны и иногда специально добавлять лёгкий шум или зерно плёнки после обработки — это визуально возвращает фото в эпоху аналоговой фотографии.
9. Какой из трёх инструментов — CodeFormer, GFPGAN или GPEN — лучше всего подходит для реставрации фотографий военных лет (1940-е годы)? Фотографии 1940-х годов обычно отличаются крайней степенью деградации: очень сильное выцветание, глубокие царапины, пятна от воды или огня, а также крайне низкое исходное качество съёмки из-за военных условий и дешёвых плёнок. CodeFormer в таких случаях чаще всего показывает наилучший результат, потому что её кодбук-трансформерная архитектура позволяет очень аккуратно искать соответствия даже при потере больше половины информации о лице. При fidelity weight в диапазоне 0.6–0.75 она сохраняет характерные черты военного времени — усталый взгляд, резкие морщины от недосыпа, естественную асимметрию, — и при этом успешно убирает самые тяжёлые повреждения вроде сквозных трещин через глаза или рот. GFPGAN в таких экстремальных условиях часто «перемалывает» лицо в слишком гладкую современную маску, а GPEN, хотя и даёт высокую чёткость, может начать придумывать несуществующие детали (например, идеально ровные зубы там, где их не видно на оригинале). Поэтому для фронтовых снимков, портретов солдат или фотографий из концлагерей большинство опытных реставраторов начинают именно с CodeFormer, а GPEN или GFPGAN используют только как финальный штрих с минимальным весом.
10. Правда ли, что GFPGAN делает всех людей похожими на «инфлюенсеров»? Да, это одна из самых частых претензий к GFPGAN — особенно заметна тенденция к «инфлюенсерскому» виду при весе выше 0.8–1.0. Модель очень сильно опирается на StyleGAN2, который изначально обучался на огромном количестве глянцевых портретов знаменитостей и моделей 2018–2020 годов, поэтому при сильной деградации она тянется именно к этому эстетическому канону: идеально симметричное лицо, большие блестящие глаза с чёткими бликами, полные губы, абсолютно гладкая кожа без пор и морщин. На старых фотографиях 1960–1980-х это особенно бросается в глаза — бабушка 70 лет после обработки может выглядеть как 35-летняя блогерша с фильтром. CodeFormer и GPEN в этом плане гораздо честнее: первая благодаря кодбукам лучше сохраняет оригинальную геометрию и текстуру, вторая — возрастные особенности и пропорции. Чтобы избежать эффекта «инфлюенсера» в GFPGAN, пользователи специально ставят вес 0.4–0.6 и часто маскируют глаза и губы, оставляя их ближе к оригиналу, — только тогда результат выглядит как отреставрированная старая фотография, а не как современный deepfake.
11. Можно ли восстановить лицо, если на фотографии осталась только половина лица? Да, современные модели способны восстановить лицо даже при потере 40–60 % площади, но результат будет сильно зависеть от того, какая именно часть сохранилась. CodeFormer здесь вне конкуренции — её механизм поиска по кодбукам позволяет «додумать» недостающую половину, опираясь на видимую часть и общий приор лица, с довольно высокой степенью правдоподобия. Если сохранился хотя бы один глаз, нос и часть рта, идентичность обычно остаётся узнаваемой. GFPGAN тоже справляется, но чаще всего симметрично зеркалит видимую половину и немного искажает пропорции, из-за чего вторая половина выглядит «приклеенной». GPEN в таких случаях даёт наиболее резкую и детализированную реконструкцию, но риск галлюцинаций выше — она может нарисовать совершенно чужие черты, если видимая часть слишком мала. Важно понимать, что при потере больше половины лица это уже не реставрация в строгом смысле, а скорее генерация правдоподобного лица на основе частичной информации — поэтому всегда стоит сравнивать с другими фотографиями человека и быть готовым к тому, что 100 %-ной точности не будет.
12. Как нейросети влияют на историческую достоверность фотографии? Нейросети неизбежно вносят элемент субъективной интерпретации, потому что они не восстанавливают то, что физически исчезло, а предсказывают наиболее вероятный вариант на основе миллионов примеров. Это означает, что историческая достоверность страдает в двух главных аспектах: во-первых, усреднение редких черт (очень большой нос, сильная асимметрия, необычная форма подбородка часто сглаживаются к «среднему» лицу из датасета), во-вторых, привнесение современных эстетических стандартов (гладкая кожа, яркие глаза, белые зубы). CodeFormer при низком весе (0.4–0.6) наименее агрессивна в этом плане и лучше всех сохраняет аутентичность, GPEN держит пропорции и возраст, а GFPGAN сильнее всего «осовременивает». Для генеалогических и музейных проектов рекомендуется комбинированный подход: основная работа делается нейросетью с низким весом, а потом вручную в фоторедакторе возвращаются ключевые исторические детали (шрамы, родинки, специфическая мимика), которые сеть могла убрать. Только так можно говорить о приемлемой достоверности.
13. Почему после восстановления кожа часто выглядит слишком гладкой и пластиковой? Пластиковый эффект возникает из-за того, что все три модели в той или иной степени используют генеративные приоры, обученные на современных фотографиях с отличным освещением, высоким разрешением и минимальным шумом. Когда сеть видит старое зернистое фото с потерей текстуры, она заменяет отсутствующие поры, мелкие морщины и неровности кожи на гладкую «идеальную» поверхность из своего латентного пространства. GFPGAN делает это наиболее заметно — кожа часто становится похожа на фарфор. CodeFormer при весе 0.5–0.7 оставляет больше естественной текстуры, особенно если в видимой части лица ещё сохранились поры. GPEN генерирует самую детализированную кожу (поры, волоски, мелкие сосуды), но если вес высокий, то и она может выглядеть искусственно отполированной. Чтобы бороться с пластиковостью, многие добавляют после нейросети лёгкий плёночный шум (grain) в Lightroom или Photoshop, либо используют специальные пост-обработки (например, Topaz DeNoise с сохранением текстуры), которые возвращают ощущение аналоговой фотографии и убирают «цифровой глянец».
14. Есть ли бесплатные онлайн-сервисы, где можно попробовать все три модели сразу? Да, существует несколько популярных платформ, которые дают доступ ко всем трём моделям без установки софта. Самый известный — это Hugging Face Spaces, где есть демо-страницы для GFPGAN, CodeFormer и GPEN с возможностью загрузки фото и регулировки параметров. Ещё один удобный вариант — Replicate.com, где модели запускаются по API, но есть бесплатный кредит для новых пользователей, достаточный на 20–50 обработок. Также очень популярен Automatic1111 (Stable Diffusion WebUI) с установленными расширениями Face Restoration — там можно переключаться между GFPGAN, CodeFormer и GPEN одним кликом и даже комбинировать их в пайплайне. Для совсем простого теста подойдёт сайт insightface (их Face Restoration demo) или китайские сервисы вроде waifu2x.рф и remini.ai — хотя последние чаще используют свои собственные модели, похожие на GFPGAN. Главное преимущество онлайн-сервисов — не нужно мощное железо, но минус в том, что самые свежие версии моделей и тонкая настройка fidelity weight доступны только в локальных установках.
15. Как правильно подготовить старую фотографию перед загрузкой в нейросеть? Подготовка сильно влияет на конечный результат, потому что нейросети чувствительны к контрасту, ориентации и общему уровню шума. Сначала стоит отсканировать фото в максимальном разрешении (минимум 300–600 dpi), без сильной компрессии JPEG — лучше TIFF или PNG. Затем в любом редакторе (даже в бесплатном GIMP) нужно слегка поднять контраст и яркость, убрать явный жёлтый/синий оттенок выцветания через кривые или баланс цвета — это помогает сети лучше понять структуру лица. Очень важно обрезать фото так, чтобы лицо занимало большую часть кадра и было примерно по центру — многие модели автоматически детектируют лицо, но чем точнее кроп, тем лучше качество. Если на снимке несколько лиц, лучше сначала вырезать каждое отдельно и обработать по одному. Наконец, не стоит заранее сильно повышать резкость или убирать шум вручную — современные модели сами справляются с этим лучше, а чрезмерная предобработка может ввести артефакты, которые сеть потом усилит.
16. Влияет ли освещение на старом фото на качество восстановления? Освещение играет огромную роль, потому что нейросети учатся на сбалансированных портретах с мягким фронтальным светом, а старые фотографии часто имеют жёсткий боковой или контровой свет, глубокие тени и пересветы. При жёстком освещении слева или справа сеть может неправильно интерпретировать тени как повреждения и начать их «выравнивать», из-за чего лицо становится плоским и теряет объём. CodeFormer лучше всех справляется с неравномерным освещением благодаря трансформеру, который смотрит на глобальный контекст. GFPGAN чаще всего пытается сделать свет симметричным и фронтальным — отсюда характерный «студийный» вид после обработки. GPEN сохраняет объём лучше остальных, но при сильных пересветах может начать придумывать детали в тенях. Чтобы минимизировать проблемы, перед загрузкой полезно слегка выровнять освещение через Dodge & Burn или Levels в редакторе — не до идеала, а просто чтобы тени и света не были экстремальными. Это даёт сети более понятную отправную точку.
17. Можно ли использовать эти нейросети для восстановления не только лиц, но и всей фотографии? Сами по себе GFPGAN, CodeFormer и GPEN предназначены исключительно для лиц — они находят область лица, обрабатывают только её, а остальную часть кадра оставляют нетронутой. Поэтому для восстановления всей старой фотографии приходится использовать их в связке с другими инструментами: сначала общая реставрация через модели вроде SwinIR, Real-ESRGAN или BSRGAN (для поднятия резкости и удаления шума по всему кадру), потом — face restoration через одну из трёх рассматриваемых моделей. В Automatic1111 или ComfyUI это делается автоматически в одном пайплайне. Есть и гибридные модели (например, Facehugger или некоторые форки GFPGAN), которые пытаются обрабатывать фон чуть мягче, но пока качество фона у них заметно хуже, чем у специализированных универсальных реставраторов. Идеальный процесс выглядит так: общая чистка и апскейл → детекция и выравнивание лица → применение CodeFormer/GFPGAN/GPEN → лёгкая цветокоррекция и добавление плёночного зерна на весь кадр.
18. Какой объём видеопамяти нужен для локального запуска этих моделей? Для комфортной работы с лицами до 512×512 пикселей достаточно видеокарты с 4–6 ГБ VRAM (например, GTX 1660 Ti или RTX 3050). CodeFormer и GFPGAN в базовых версиях укладываются примерно в 3.5–4.5 ГБ при обработке одного лица. GPEN более требовательна — особенно при генерации 1024×1024, может потребовать 7–8 ГБ. Если запускать через Automatic1111 с batch size 1 и половинной точностью (fp16), то даже на 6 ГБ можно комфортно работать со всеми тремя моделями. Для лиц большего размера или одновременной обработки нескольких лиц на групповом фото уже желательны 8–12 ГБ (RTX 3060/4060 или выше). На 8 ГБ и более можно включить xformers или torch.compile для ускорения в 1.5–2 раза. Если видеокарты нет или она слабая, остаются облачные варианты — Google Colab (бесплатный T4 с 15 ГБ), RunPod или Vast.ai, где можно арендовать RTX 3090/4090 за 0.3–0.6 $ в час.
19. Почему иногда после обработки лицо становится «чужим», хотя оригинал был узнаваем? Это происходит из-за конфликта между fidelity (верностью оригиналу) и quality (качеством результата). При слишком высоком весе вмешательства (0.8–1.0 в CodeFormer или 1.2+ в GFPGAN) сеть начинает сильнее опираться на свой генеративный приор и меньше учитывать мелкие детали оригинала — в результате черты усредняются, а редкие индивидуальные особенности (форма ушных раковин, расстояние между глазами, специфический изгиб губ) исчезают. Особенно сильно это проявляется, если лицо на оригинале сильно размыто или повернуто в профиль — сеть достраивает его к «фронтальному среднему» лицу из датасета. GPEN реже делает лицо совсем чужим, потому что её приор жёстче привязан к геометрии, но и она не застрахована. Чтобы избежать такого эффекта, рекомендуется всегда начинать с низкого веса (0.4–0.6), постепенно повышать и останавливаться на том варианте, где человек всё ещё узнаваем по другим семейным фото. Также помогает маскирование — обработать только повреждённые зоны, оставив неповреждённые части лица нетронутыми.
20. Какие новые модели 2024–2025 годов могут заменить GFPGAN, CodeFormer и GPEN? С 2023–2025 годов появилось несколько заметных преемников: CodeFormer v2 (неофициальные форки с улучшенным трансформером), RestoreFormer++ и VQFR (очень сильные по сохранению идентичности), а также коммерческие модели от Remini, MyHeritage Deep Nostalgia и Topaz Photo AI (их face recovery модуль). Среди открытых проектов выделяется FaceXLib + GPEN-1024 и гибриды на базе Stable Diffusion (Roop, Reactor, FaceID). Но по состоянию на середину 2025 года CodeFormer в версии 2022–2023 всё ещё остаётся одной из лучших по балансу точности и гибкости для тяжёлых случаев, а GPEN держит лидерство по экстремальному апскейлу крошечных лиц. Новые модели чаще всего улучшают скорость и энергопотребление, добавляют поддержку видео и лучше работают с не-фронтальными ракурсами, но радикального скачка в качестве именно для старых чёрно-белых военных и послевоенных фото пока не произошло — трио GFPGAN–CodeFormer–GPEN по-прежнему остаётся золотым стандартом среди бесплатных открытых решений.