Персонализация генерации изображений: новый подход PureCC

Автор: Денис Аветисян


Исследователи предлагают метод PureCC, позволяющий тонко настраивать модели генерации изображений по текстовому описанию, сохраняя при этом их исходные возможности и качество.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
В рамках предложенного подхода, PureCC, предварительно обученная модель потока используется для извлечения признаков, после чего, в фазе чистого обучения, её параметры фиксируются, а выходные данные, представляющие целевое понятие, управляются адаптивным масштабом <span class="katex-eq" data-katex-display="false">\lambda^{\star}</span>, направляя обучение другой, инициализированной модели потока, предсказывающей условный результат на основе базового текста, при этом весь конвейер оптимизируется с использованием функций потерь <span class="katex-eq" data-katex-display="false">\mathcal{L}\_{PureCC}</span> и <span class="katex-eq" data-katex-display="false">\mathcal{L}\_{CC}</span>, что позволяет чистому обучению в пространстве потока скоростей эффективно усваивать целевые концепции.
В рамках предложенного подхода, PureCC, предварительно обученная модель потока используется для извлечения признаков, после чего, в фазе чистого обучения, её параметры фиксируются, а выходные данные, представляющие целевое понятие, управляются адаптивным масштабом \lambda^{\star}, направляя обучение другой, инициализированной модели потока, предсказывающей условный результат на основе базового текста, при этом весь конвейер оптимизируется с использованием функций потерь \mathcal{L}\_{PureCC} и \mathcal{L}\_{CC}, что позволяет чистому обучению в пространстве потока скоростей эффективно усваивать целевые концепции.

PureCC использует разделенный процесс обучения и двухпоточную архитектуру для достижения высокоточной персонализации концепций в задачах преобразования текста в изображение.

Несмотря на значительные успехи в области персонализации генеративных моделей, существующие методы кастомизации концептов часто игнорируют влияние на исходные возможности модели. В данной работе представлена методика PureCC: Pure Learning for Text-to-Image Concept Customization, направленная на решение этой проблемы посредством обучения, сохраняющего исходное поведение модели. PureCC предлагает новый, разделенный подход к обучению, сочетающий неявное руководство целевым концептом с исходным условным предсказанием, и двухканальный конвейер обучения, обеспечивающий высокую точность персонализации без ущерба для базовых возможностей модели. Сможет ли предложенный подход стать основой для создания более гибких и устойчивых систем генерации изображений?


Шёпот Хаоса: Задача Персонализированного Творчества

Современные методы генерации изображений по текстовому описанию часто сталкиваются с трудностями при создании действительно персонализированных концепций. Для достижения желаемого результата, как правило, требуется обширное обучение модели на специализированном наборе данных, что является ресурсоемким процессом. Альтернативой является упрощение задачи, однако это зачастую приводит к потере детализации и снижению качества генерируемых изображений. Существующие подходы, стремящиеся к персонализации, нередко приводят к переобучению модели на конкретных примерах, что негативно сказывается на её способности генерировать разнообразные и реалистичные изображения в целом. Таким образом, создание персонализированного контента становится компромиссом между точностью воспроизведения желаемой концепции и сохранением общей производительности и гибкости модели.

Существующие методы персонализации генерации изображений, такие как DreamBooth и Textual Inversion, зачастую сталкиваются с проблемой переобучения или нежелательных изменений в базовой модели. В процессе адаптации к новым концепциям, эти подходы могут чрезмерно специализироваться на конкретных примерах, теряя способность к обобщению и генерации разнообразных, реалистичных изображений. Более того, они могут невольно искажать или «забывать» ранее усвоенные знания, что приводит к снижению качества генерируемых изображений за пределами целевой концепции. Такое «разрушение» базовой модели ограничивает возможности дальнейшей тонкой настройки и универсальности системы генерации, подчеркивая необходимость разработки методов, обеспечивающих сохранение исходных знаний при изучении новых концепций.

Основная сложность в создании персонализированных изображений заключается в эффективном улавливании тонких концепций, не нарушая при этом уже существующие знания, накопленные моделью преобразования текста в изображение. Существующие методы часто требуют значительных вычислительных ресурсов и приводят к переобучению или нежелательным изменениям в базовых возможностях модели. Успешное внедрение новых концепций требует деликатного подхода, позволяющего модели адаптироваться к новым данным, не забывая при этом обширный набор знаний, приобретенный в процессе предварительного обучения. По сути, задача заключается в расширении словарного запаса и творческих способностей модели, а не в ее полной перестройке, что является ключевым фактором для сохранения качества и универсальности генерируемых изображений.

В контексте генерации изображений по текстовому описанию, сохранение целостности предварительно обученной модели является первостепенной задачей. Существующие подходы, стремящиеся к персонализации, зачастую приводят к нежелательным изменениям в базовых знаниях модели, что снижает ее общую производительность и универсальность. Крайне важно разработать метод, который позволит эффективно внедрять новые концепции, не нарушая при этом существующую структуру знаний и способность модели генерировать разнообразные и качественные изображения. Такой подход обеспечит не только возможность создания персонализированного контента, но и сохранит гибкость и потенциал модели для решения широкого спектра задач, избегая эффекта “переобучения” и гарантируя стабильную и предсказуемую работу.

Оптимальное значение <span class="katex-eq" data-katex-display="false"> \lambda^{\star} </span> позволяет сбалансировать сохранение исходных возможностей модели и адаптацию к целевому концепту, предотвращая как потерю точности при малых λ, так и ухудшение генеративных способностей при чрезмерно больших значениях, что подтверждается более высокими оценками CLIP-T и HPSv2.1.
Оптимальное значение \lambda^{\star} позволяет сбалансировать сохранение исходных возможностей модели и адаптацию к целевому концепту, предотвращая как потерю точности при малых λ, так и ухудшение генеративных способностей при чрезмерно больших значениях, что подтверждается более высокими оценками CLIP-T и HPSv2.1.

Чистый Поток: Новый Взгляд на Обучение Концепциям

PureCC использует модели, основанные на потоках (Flow-Based Models), в отличие от диффузионных моделей. Вместо процесса постепенного добавления шума и последующего его удаления, Flow-Based Models генерируют данные по траектории, определяемой обратимыми преобразованиями. Это обеспечивает более контролируемый процесс обучения концепциям, поскольку позволяет точно отслеживать и манипулировать данными на каждом этапе генерации. Такой подход дает возможность изолировать и изучать конкретные концепции без нежелательных изменений в базовой модели генерации изображений. Потоковые модели предоставляют детерминированный способ генерации, в отличие от стохастической природы диффузионных моделей, что упрощает управление процессом обучения и повышает стабильность результатов.

В основе PureCC лежит двухканальный конвейер обучения, состоящий из замороженного экстрактора признаков (Representation Extractor) и обучаемой потоковой модели. Заморозка экстрактора признаков гарантирует, что его веса не изменяются в процессе обучения, что позволяет изолировать процесс освоения нового концепта. Обучаемая потоковая модель, в свою очередь, преобразует признаки, полученные от экстрактора, для генерации желаемого концепта. Такая архитектура обеспечивает “чистую” изоляцию концепта, минимизируя влияние на исходную предобученную модель преобразования текста в изображение (T2I) и способствуя более эффективному обучению.

Экстрактор представлений, подвергнутый тонкой настройке на целевом концепте, обеспечивает получение очищенного представления, минимизируя влияние на исходную предобученную модель. Этот процесс достигается за счет фокусировки обучения исключительно на выделении признаков, характерных для нового концепта, без изменения весов основной модели преобразования текста в изображение (T2I). В результате, экстрактор формирует представление, которое эффективно кодирует специфические особенности концепта, в то время как исходная модель сохраняет свои существующие возможности и знания, приобретенные в процессе предварительного обучения. Это позволяет избежать нежелательных изменений в поведении T2I модели и гарантирует, что добавление нового концепта не приведет к ухудшению качества генерации изображений для других, уже известных концептов.

Архитектура PureCC способствует эффективному обучению и предотвращает нежелательные изменения в возможностях предварительно обученной T2I-модели благодаря использованию замороженного экстрактора признаков и обучаемой потоковой модели. Замораживание экстрактора признаков гарантирует, что исходные знания, содержащиеся в предварительно обученной модели, не будут изменены в процессе обучения новым концепциям. Обучаемая потоковая модель, в свою очередь, фокусируется исключительно на изучении целевого концепта, не затрагивая параметры экстрактора признаков и, следовательно, сохраняя исходные возможности T2I-модели. Такой подход позволяет изолировать процесс обучения концепта и избежать «катастрофического забывания» или нежелательного смещения в генерации изображений.

В процессе обучения изображения <span class="katex-eq" data-katex-display="false">\widehat{x}_{0}^{PureCC}</span>, <span class="katex-eq" data-katex-display="false">\widehat{x}_{0}^{original}</span> и <span class="katex-eq" data-katex-display="false">\widehat{x}_{0}^{complete}</span> формируются путем интегрирования соответствующих полей скоростей <span class="katex-eq" data-katex-display="false">{\bm{v}_{t}^{PureCC}}[latex], [latex]{\bm{v}_{t}^{original}}</span> и <span class="katex-eq" data-katex-display="false">{\bm{v}_{t}^{complete}}</span> на протяжении итераций обучения.
В процессе обучения изображения \widehat{x}_{0}^{PureCC}, \widehat{x}_{0}^{original} и \widehat{x}_{0}^{complete} формируются путем интегрирования соответствующих полей скоростей {\bm{v}_{t}^{PureCC}}[latex], [latex]{\bm{v}_{t}^{original}} и {\bm{v}_{t}^{complete}} на протяжении итераций обучения.

Адаптивное Управление: Баланс Между Сохранением и Творчеством

Для обеспечения согласованности обучения новым концепциям и сохранения исходных знаний, PureCC использует адаптивный масштаб управления \lambda\star. Этот масштаб динамически корректируется в процессе обучения, регулируя степень влияния сигнала обучения новой концепции на веса модели. Адаптивное изменение \lambda\star позволяет находить оптимальный баланс между соответствием новой концепции и сохранением ранее усвоенных знаний, предотвращая “забывание” и обеспечивая стабильность модели в процессе обучения. Значение \lambda\star определяется на основе анализа расхождений между выходами двух ветвей модели, что позволяет точно настроить процесс обучения и максимизировать эффективность интеграции новых концепций.

Адаптивный масштаб руководства \lambda^{\ast} в PureCC динамически регулирует баланс между выравниванием представлений в двух параллельных ветвях сети. Это обеспечивает как сохранение исходных знаний модели (preservation), так и точное воспроизведение (fidelity) усваиваемых концепций. Регулировка масштаба осуществляется в процессе обучения, позволяя модели находить оптимальное соотношение между сохранением существующих представлений и интеграцией новых, предотвращая как катастрофическое забывание, так и потерю точности при воспроизведении усваиваемых концепций. Эффективное выравнивание достигается за счет минимизации расхождений в пространствах представлений двух ветвей, что способствует более стабильному и эффективному обучению.

Для более точной интеграции концепций PureCC использует механизм неявного управления (Implicit Guidance). В отличие от явного управления, требующего внешних сигналов, неявное управление использует саму генеративную модель в качестве источника условного управления. Это достигается путем использования выходных данных генеративной модели для направления процесса обучения, что позволяет концепциям быть интегрированы более плавно и эффективно, минимизируя отклонения от существующего распределения данных и улучшая качество генерируемых результатов. Фактически, модель сама определяет, как лучше всего интегрировать новые концепции, обеспечивая более адаптивный и гибкий процесс обучения.

Для повышения эффективности обучения и снижения вычислительных затрат в PureCC используется LoRA (Low-Rank Adaptation) в составе Representation Extractor. LoRA позволяет обучать модель с меньшим количеством параметров, замораживая веса предобученной сети и обучая лишь небольшое количество низкоранговых матриц. Это существенно снижает потребность в вычислительных ресурсах и объеме памяти, необходимых для обучения, сохраняя при этом качество извлечения признаков и позволяя быстро адаптировать модель к новым концепциям без полной переподготовки. Данный подход особенно полезен при работе с большими языковыми моделями, где обучение всех параметров требует значительных ресурсов.

Сравнение методов кастомизации стиля и экземпляров, включая CIFC[9], B-LoRA[11] и DreamO[31], демонстрирует, что B-LoRA, будучи методом тонкой настройки, эффективно балансирует адаптацию стиля и содержания при комбинации концепта экземпляра и заданного стиля.
Сравнение методов кастомизации стиля и экземпляров, включая CIFC[9], B-LoRA[11] и DreamO[31], демонстрирует, что B-LoRA, будучи методом тонкой настройки, эффективно балансирует адаптацию стиля и содержания при комбинации концепта экземпляра и заданного стиля.

Влияние на Будущее: Результаты и Перспективы

Оценка с использованием метрик, таких как HPSv2.1 и PickScore, демонстрирует, что PureCC достигает передовых результатов в области кастомизации концепций. Данный подход превосходит существующие методы в тонкой настройке моделей генерации изображений по тексту, обеспечивая более точное и качественное обучение новым концепциям. В ходе экспериментов PureCC показал наивысшие показатели по ключевым метрикам, подтверждая его способность эффективно адаптировать модели к новым требованиям, сохраняя при этом их исходные возможности и обеспечивая превосходное качество генерируемых изображений. Такая высокая производительность делает PureCC перспективным решением для широкого спектра задач, требующих гибкой и контролируемой генерации изображений.

Подход PureCC демонстрирует минимальное воздействие на исходную модель генерации изображений, что позволяет избежать нежелательных изменений в её базовых возможностях. Анализ сходства, выполненный с помощью CLIP, подтверждает этот факт: PureCC достигает наименьших значений ΔCLIP-T, ΔHPSv2.1 и ΔPickScore по сравнению с существующими методами кастомизации концепций. Это означает, что при обучении новым концепциям модель сохраняет большую часть своих первоначальных знаний и навыков, что особенно важно для поддержания высокого качества и разнообразия генерируемых изображений. Подобная избирательность в обучении позволяет пользователям тонко настраивать модель под свои потребности, не рискуя при этом потерять её общую производительность и креативные способности.

Метод PureCC демонстрирует высокую эффективность в обучении новым концепциям благодаря сочетанию оптимизированного процесса обучения и применению Rectified Flow и Conditional Flow Matching. Этот подход позволяет достичь превосходного качества обучения с минимальными вычислительными затратами, что особенно важно для широкого применения в задачах генерации изображений по текстовому описанию. В отличие от других методов, требующих значительных ресурсов, PureCC обеспечивает возможность тонкой настройки моделей без существенного увеличения требуемой мощности, открывая путь к более доступным и масштабируемым решениям в области искусственного интеллекта. Благодаря этому, PureCC позволяет создавать персонализированные и контролируемые модели генерации изображений, не жертвуя при этом скоростью и эффективностью обучения.

Достижение открывает новые перспективы в области персонализированной и управляемой генерации изображений по текстовому описанию. Результаты исследований демонстрируют, что предложенный подход обеспечивает высокую степень сохранения пространственной и структурной согласованности генерируемых изображений, о чем свидетельствует показатель Seg-Cons, достигающий значения 69.37. Более того, пользовательские исследования выявили значительное повышение предпочтений пользователей в отношении сохранения исходных характеристик и возможностей модели, что указывает на способность системы адаптироваться к новым концепциям, не жертвуя при этом своей первоначальной функциональностью и качеством генерируемых изображений. Это позволяет создавать изображения, максимально соответствующие индивидуальным запросам и предпочтениям пользователей, сохраняя при этом высокую степень реалистичности и детализации.

Сравнение методов Multi-Concept Customization и LoRA-S показывает, что оба подхода позволяют эффективно настраивать модели, но демонстрируют различные стратегии адаптации [13, 53].
Сравнение методов Multi-Concept Customization и LoRA-S показывает, что оба подхода позволяют эффективно настраивать модели, но демонстрируют различные стратегии адаптации [13, 53].

Изучение метода PureCC напоминает алхимию цифрового голема. Авторы стремятся не перестроить его сущность, а лишь добавить новые заклинания, позволяющие ему создавать образы, соответствующие желаниям творца. Подход, основанный на разделении обучения и сохранении изначальных возможностей модели, представляется особенно удачным. Как однажды заметил Джеффри Хинтон: «Нейронные сети - это машины, которые учатся на примерах, но их истинная сила заключается в способности к обобщению». PureCC как раз и демонстрирует эту способность, позволяя модели адаптироваться к новым задачам, не теряя при этом своей изначальной магии. Это не просто кастомизация концепций, это призыв к гармонии между творцом и его цифровым созданием.

Что дальше?

Представленная работа, стремясь обуздать хаос генерации изображений по тексту, демонстрирует, что даже самые изящные заклинания имеют свои пределы. PureCC, безусловно, умеет убеждать модель следовать новым командам, но вопрос в том, как долго эта убеждённость продлится. Ведь каждое новое понятие - это лишь временное нарушение равновесия, и рано или поздно модель вернётся к своим изначальным предпочтениям. И всё же, это ещё не повод отказываться от попыток.

Настоящая проблема, как всегда, кроется не в самих числах, а в интерпретации. Можно бесконечно улучшать алгоритмы "чистого обучения", но если мы не понимаем, что именно мы пытаемся заставить модель выучить, все эти усилия окажутся тщетными. Гораздо интереснее исследовать не столько возможность добавления новых понятий, сколько природу тех, что уже существуют - как они взаимодействуют, конфликтуют и трансформируются внутри нейронной сети. Возможно, ключ к истинному контролю над генеративными моделями лежит не в обучении, а в понимании их внутреннего мира.

И, конечно, не стоит забывать о старом правиле: всё, что можно посчитать, не стоит доверия. Каждая идеально сгенерированная картинка - это лишь иллюзия, за которой скрывается бесконечный океан неопределённости. Если гипотеза подтвердилась - значит, мы не искали достаточно глубоко. И в этом, пожалуй, и заключается настоящая магия чисел.


Оригинал статьи: https://arxiv.org/pdf/2603.07561.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-10 12:28