画像生成AIを開発するMidjourneyが、Discord経由で利用できる動画生成AIモデル「V1」をリリースしたと発表しました。V1はアップロードした画像、あるいはMidjourneyの他のモデルで生成された画像を使用するだけで、その画像に基づいて5秒間の動画4本を生成することが可能です。
Introducing Our V1 Video Model
https://www.midjourney.com/updates/introducing-our-v1-video-model
Midjourney launches its first AI video generation model, V1 | TechCrunch
https://techcrunch.com/2025/06/18/midjourney-launches-its-first-ai-video-generation-model-v1/
実際にV1で生成した動画を編集してつなげたムービーが以下。利用価格は月額10ドル(約1450円)です。
Introducing our V1 Video Model. It’s fun, easy, and beautiful. Available at 10$/month, it’s the first video model for *everyone* and it’s available now. pic.twitter.com/iBm0KAN8uy
— Midjourney (@midjourney) June 18, 2025
以下もV1で生成した動画。V1は1回の動画生成で5秒の動画を4本制作可能で、生成した動画は4秒×最大4回まで延長することができます。つまり、V1では最大21秒の動画を生成できることになります。
イラストからV1で生成したアニメーションはこんな感じ。
X(旧Twitter)では、競合する動画生成AI・RunwayとV1で生成した動画を比較しているユーザーもいました。
ついにMidjourney v1ビデオモデルリリース✨
試してみました????人物にフォーカスするとMidjourneyが綺麗かなという印象です。比較がRunwayですが、Runwayは全体感を捉えてる感じ。
比較のため、プロンプトは同一にしています。 pic.twitter.com/lOAVnXc8M0— sami (@syamiyo) June 18, 2025
V1は「Image-to-Video(画像から動画)」の生成が可能なモデルで、Midjourneyで通常通り画像を生成し、「Animate」ボタンを押すことで画像に動きをつけられるとのこと。
また、アニメーション設定を「auto」にすると、動画の動きを指定するモーションプロンプトが自動的に生成され、ただ物を動かすような動画に、設定を「manual」にすれば物の動きやシーンの展開をシステムに指示できるそうです。その他にも、カメラがほぼ静止して被写体がゆっくりと動く「low motion」、被写体とカメラがよく動く「high motion」といった設定も用意されています。
さらに、V1はMidjourneyで生成した画像だけではなく、Midjourneyの外部からアップロードした画像も動画化が可能。画像をプロンプトバーにドラッグして「開始フレーム」としてマークし、モーションプロンプトを入力して、どのように動かしたいかを指定すれば、動画が生成されます。
動画生成の価格は画像生成の約8倍かかるとのこと。それでも、Midjourneyは「動画1秒あたりが画像1枚分のコストに相当するということになります。これは驚くべき数字であり、市場がこれまで提供してきたものと比べて25倍以上も安価です」と、V1のコストパフォーマンスの高さをアピールしています。
多くの企業が商用環境での使用を目的とした動画生成AIの開発に注力している中、Midjourneyはクリエイティブなタイプに対応する独自の画像生成AIの開発を続けてきていました。しかし、V1のリリースにより、MidjourneyはOpenAIのSora、AdobeのFirefly、GoogleのVeo 3、Runway Gen 4など、他社の動画生成AIモデルと競合することになります。
Midjourneyのデビッド・ホルツCEOは、動画生成AIにハリウッド映画のBロールや広告業界向けのCM制作以上の大きな目標を掲げており、V1は「リアルタイムのオープンワールドシミュレーションが可能なAIモデルの構築」という最終目標に向けたステップであると述べています。
この記事のタイトルとURLをコピーする
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。