Adobe відкриває двері в “Чорний ліс” ШІ: погляд на партнерства та можливості
У світі генеративного ШІ відбуваються цікаві зміни! Adobe, здається, вирішили трохи відійти від своєї позиції “чистого” та “етичного” ШІ та відкрити двері для експериментів з іншими моделями. Давайте зануримось у цю несподівану новину та розберемось, що це може означати для майбутнього Photoshop, Premiere та й всієї індустрії.
Раніше Adobe активно просувала Firefly як свій власний, етично безпечний генератор зображень. І хоча Firefly має свої переваги, особливо у створенні стокових зображень, багато користувачів відзначали, що їй бракує можливості генерувати справді вражаючі та нестандартні результати. Зрештою, “чистота” іноді обмежує творчість.
І ось, настав момент, коли Adobe, здається, прислухалася до відгуків креативної спільноти. Вони оголосили про партнерство з декількома розробниками моделей генеративного ШІ, зокрема з Black Forest Labs (творці Flux), Google (Imagen 3) та Runway ML (Runway Frames). Це означає, що користувачі Adobe Express та Project Concept (бета-версія мікшера мудбордів) зможуть використовувати ці моделі безпосередньо в своїх творчих робочих процесах.
У своїй заяві Adobe підкреслює, що багато творців експериментують з різними моделями для різних проєктів та на різних етапах. І тепер вони хочуть надати можливість експериментувати безпосередньо в знайомих інструментах, що значно спростить цей процес. Це дійсно важливий крок, адже інтеграція з різними моделями дозволить користувачам знаходити ідеальний інструмент для кожного конкретного завдання, розширюючи їхні творчі можливості.
Важливо зазначити, що Adobe знімає з себе відповідальність за результати, згенеровані за допомогою сторонніх моделей. Якщо ви генеруєте щось поза Firefly, ви несете повну відповідальність за це.
Окремо варто згадати про V2, відеогенератор від Google, який також згадується в анонсі. Це нагадує про минулорічну заяву Adobe про інтеграцію Sora (моделі генерації відео від OpenAI) в Premiere. Хоча цього так і не сталося, сам факт того, що Adobe розглядає інтеграцію з іншими моделями генерації відео, свідчить про їхнє прагнення відкрити користувачам доступ до найсучасніших технологій.
Поки що невідомо, коли саме ці інтеграції стануть доступними та якою буде цінова політика. Але, залежно від підходу Adobe, це може виявитися навіть вигіднішим, ніж жонглювання кількома окремими підписками на різні сервіси.
Hostinger Horizons: веб-додатки без коду, згенеровані ШІ
Останнім часом набуває популярності “вайб кодування” – створення додатків за допомогою природної мови. І сьогодні ми розглянемо чудовий інструмент, який дозволяє створювати власні веб-додатки з нуля без жодних знань кодування!
Hostinger Horizons – це новий сервіс, який Hostinger пропонує для створення кастомних та персоналізованих веб-додатків та їх розгортання без необхідності залучення третіх сторін. Це ідеальне рішення для стартаперів та підприємців-одинаків, яким потрібні специфічні веб-додатки, але у яких немає навичок програмування.
Можливості Hostinger Horizons безмежні. Наприклад, можна створити генератор промптів для відео та зображень зі штучним інтелектом. Звісно, таких інструментів вже багато, але кожен має свої особливості. Створення власного веб-додатку дозволяє налаштувати все на власний смак та потреби.
Процес створення дуже простий. Спочатку ви описуєте, який додаток хочете створити. Наприклад: “Створити генератор промптів для штучного інтелекту для Runway Gen 3, генератора відео зі штучним інтелектом, та Frames, їхнього генератора зображень зі штучним інтелектом. В майбутньому додамо підтримку Cling, Miniax та Lumalabs”.
Через кілька секунд Hostinger Horizons згенерує початкову версію вашого додатку. Звісно, йому потрібно більше інформації, щоб працювати правильно. Наприклад, ви можете надати йому документацію Runway Gen 3, щоб він знав, як формувати промпти.
Ви також можете легко змінювати зовнішній вигляд свого додатку. Наприклад, додати перемикач для темного режиму. Hostinger Horizons навіть “переплюнув” мене, додавши не один, а три режими: світлий, темний та “ще темніший”!
Після налаштування ви можете протестувати свій додаток. Наприклад, в нашому генераторі промптів для Runway ми задали промпт: “Чоловік в синьому діловому костюмі та вовк біля багаття в пустелі”. Результат в Runway’s Frames вийшов досить непоганим!
Коли ваш додаток буде готовий, ви можете просто натиснути кнопку “Опублікувати”, і він стане доступним в інтернеті. Hostinger Horizon пропонує комплексне рішення. Ви можете керувати своїми веб-додатками на панелі керування Hostinger. Все просто і зрозуміло.
Якщо ви хочете спробувати Hostinger Horizon, посилання є в описі. Існують різні тарифні плани, а також 30-денна гарантія повернення грошей. Крім того, ви можете використати мій код купону (T-Media), щоб отримати додаткову знижку 10% на перший місяць.
Stability AI повертається в гру: віртуальна камера для створення 3D-відео
Stability AI випустили модель керування камерою, якою можна користуватися безкоштовно! Приємно бачити, що Stability знову активні. Останній рік для них був не надто стабільним.
Stable Multi-Camera – це модель мультиракурсної дифузії, яка перетворює 2D-зображення на імерсивні 3D-відео з реалістичною глибиною та перспективою без складних реконструкцій чи оптимізацій для конкретної сцени. Це, по суті, перший погляд на те, що Midjourney обіцяє вже давно: можливість керувати камерою всередині зображення після його створення або захоплення.
Ви можете запустити Stable Virtual Camera на Hugging Face абсолютно безкоштовно. Код також доступний, якщо ви хочете запустити його локально. Використання на Hugging Face досить просте: ви просто завантажуєте зображення, обираєте один з доступних рухів камери (орбіта, збільшення, зменшення, лемніскат) та кількість кадрів (від 30 до 150). Після завантаження зображення натисніть “Pre-process images”, а потім “Render video”.
Процес рендерингу займає певний час. Наприклад, після 10 хвилин очікування для зображення “ізометричного LEGO Minecraft meets SimCity” отримали досить цікавий результат. Хоча орбітальний рух вийшов трохи нерівним, окремі кадри виглядають досить добре.
Stability AI визнає, що це лише дослідницький прев’ю, і якість може бути обмежена для певних об’єктів через дані навчання (зокрема, люди, тварини та динамічні текстури).
Це наштовхнуло на думку повернутися до експерименту з попереднього відео, де ми використовували Gemini 2.0 та генератори зображень та відео від Runway для створення динамічної сцени бою кунг-фу. Можливо, додавання Stable Virtual Camera покращить результат?
Результат з орбітальним рухом для сцени бою вийшов не дуже вдалим. Однак, рух “move left” виявився досить цікавим. Звісно, є певні проблеми (наприклад, нога персонажа від’єднується від коліна), але їх можна виправити.
Ідея полягає в тому, що ми можемо змінювати положення камери, повертати зображення в Gemini, змінювати пози персонажів, і таким чином отримати контроль не лише над позами, але й над рухом камери.
Звісно, це не ідеально, але це демонструє, скільки контролю над камерою та об’єктами ми зможемо отримати в найближчому майбутньому завдяки ключовим кадрам.
Варто експериментувати зі Stable Virtual Camera та чекати на цікавіші релізи від Stability AI.