
【AI News 2025.04.23】画像/動画/3D関連
画像関連
ByteDanceが2K対応の画像生成モデル『Seedream 3.0』を発表
ByteDanceが新たに発表した画像生成モデルSeedream 3.0は、現時点で画像生成モデルの中でも最も高いスコアを記録したそうです。ネイティブで2K(2048×2048)の出力ができ、1024×1024サイズの画像がわずか3秒で生成可能という驚異的な性能です。モデル自体の公開はされていませんが、同社の生成サービスDreaminaのみで利用が可能になっています。
複数画像から構図要素を抽出・再構成する画像生成モデルNVIDIA『IP-Composer』
NVIDIAが新たに公開したIP-Composerは、異なるいくつかのソースから一つのまとまりのある構成に融合させ、画像生成させるというもの。ワークフローにこのような需要も増えてきたので、ComfyUI上での再現も検討してみたいと思います。
動画関連
llyasviel氏が手がける革新的な軽量動画生成フレームワーク『FramePack』
ControlNetやIC-Lightを開発したllyasviel氏が、新たに動画生成フレームワークFramePackを発表しました。HunyuanVideoをベースに設計され、5秒の動画をVRAM 6GB環境で約8分で生成できるという軽量仕様が特徴。メモリ負荷を抑えつつ過去フレームに遡る設計によって映像生成を実現しています。さらに、Teacacheによる高速化やLoRA対応も進行中。Kijai氏によるComfyUI対応もすでに進んでおり、当分はFramePack関係の開発が話題になりそうです。
高精度な動画生成モデル『SkyReels-V2』が公開
SkyworkAIが新たに公開したSkyReels-V2は、前モデルからさらに精度が向上した動画生成モデルです。WAN2.1の検証をしている間に公開されていました。WAN2.1のComfyUIワークフローを応用できそうなので、SkyReels-V2も同時に検証しようと思います。
アニメ表現だけじゃない!実写表現も進化『Vidu Q1』『Viduアプリ』
動画生成AI、Viduが最新モデルVidu Q1を発表し、さらに公式アプリもリリースされるなど、勢いを増しています。これまでアニメ調表現に強みを持っていたViduですが、今回のアップデートで実写系の表現力も大幅に向上。Klingに続く動きを見せており、今後の動画生成市場での存在感がさらに高まりそうです。アプリも登場したことで、より幅広いユーザーが気軽に高品質な映像制作を楽しめる環境が整ってきました。
Alibaba『Wan2.1-FLF2V-14B』は開始・終了フレーム指定型の動画生成モデル
Alibabaが、スタートとエンドフレームを指定できる新たな動画生成モデルWan2.1-FLF2V-14Bを発表しました。発表直後にComfyUIがネイティブ対応し、ローカル環境でもスムーズに検証できるのが大きな魅力です。ローカル生成でここまでできることに感動しますね。ComfyUIワークフローは非常にわかりやすく、ComfyUIのワークフローデザイナーが加わったのでは?と予想します。
Hailuo AIにも『Character Reference』機能が実装される
Hailuo AIに、ついにCharacter Reference機能が実装されました。これはKling AIやViduにも実装されている機能で、キャラクターの一貫性を保ちながら映像を生成できる仕組みです。デザインや演出の自由度が大きく向上し、より魅力的なコンテンツ制作が可能になりました。
『Flex.2-preview』がControlNetやInpaintに対応
ostrisで公開された画像生成モデルFlex.2-previewは、Apache 2.0ライセンスで利用可能です。ControlNetやInpaintにも対応しており、自由度の高い画像編集・生成が可能に。サービス展開を考えているユーザーにとっては、ライセンス面でも安心して使える有力な選択肢となりそうです。
ベンチマークを圧倒!オープンソースで登場した動画生成モデル『MAGI-1』
SandAIが発表した新たな動画生成モデルMAGI-1が、オープンソースとして公開されました。ベンチマークテストでは非常に高い精度を示しており、今後の動画生成技術の新たな基準になりそうな勢いです。動向をしっかり追いながら、活用シーンも広げてみたいですね。
Live2Dを活用してAIチューバー化する『Persona Engine』
Live2Dモデルを活用してAIチューバーを作成できるPersona Engineが公開されました。インタラクティブなアバターを作成するためのオールインワンツールキットが魅力で、個人でも手軽にAIキャラクターを展開できるというもの。用途次第で配信やコンテンツ制作、インタラクティブな体験コンテンツなど幅広い活用が期待できそうです。
Luma AI『Camera Angle Concepts』がカメラワークの幅をさらに拡大
Luma AIが新たに発表したCamera Angle Conceptsでは、カメラワークのバリエーションがさらに増えました。これまで以上に多彩なアングルや演出が可能になり、細かなカメラ操作にこだわりたいユーザーにとっては、非常に嬉しいアップデートですね。
カメラも人物も自在に制御!Alibabaの新フレームワーク『Unifying Precisely 3D』発表
Alibabaが発表したUnifying Precisely 3D(Uni3C)は、カメラワークと人物モーションの両方を自由にコントロールしながら動画生成ができるフレームワークです。近日中に公開予定とのことで、特にWan2.1などのモデルと組み合わせた活用ができればと期待しています。正式リリースが待ち遠しいですね。
3D関連
メッシュ精度が大幅向上した『Hunyuan 3D AI Engine 2.5』
TencentのHunyuanチームが開発するHunyuan 3D AI Engineがバージョン2.5にアップグレードされ、メッシュやテクスチャの精度が向上しました。今回のアップデートでは、マテリアル設定やリライティングなど、さまざまな機能を搭載したWebサービスとして強化されているもようです。中でも、メッシュの滑らかさが大きく改善された点が注目です。今後はオープンソースのアップグレードが行われなくなりそうな予感です。
ついに出た!3Dモデルへの自動リギングがオープンソースで可能な『UniRig』
VAST AI Researchが、3Dモデルへの自動リギングを行うAIモデルUniRigをオープンソースで公開しました。画像→モデル生成→UV展開→テクスチャー→リギングまでをComfyUIワークフローに組み込めば、制作プロセスがさらにスムーズになりそうですね。
新しいトレーニングプロファイルが追加された『Postshot v0.6』
Postshotがv0.6にアップデートされたとのことで、当初、RTX 5090環境では動作しなかったため、検証が進められずにいましたが、今回の対応により本格的なパフォーマンステストが可能に!これから検証を始めるのが楽しみなアップデートです。
デジタルアーティスト。デジタルハリウッド大学で3DCGを学ぶ。大学院修了後、VFXアーティストとして約10年間、映画・アニメ・ゲームなど多彩なジャンルの作品を手がける。近年はAIに精通し、生成AI技術を取り入れたワークフローを研究し発信している。
HP: https://sites.google.com/view/takio-koizumi/link










