Skip to content

26. 動画を描く

動画や GIF アニメーションを描画する方法を学びます。

26.1 動画を描く

画面上で動画を再生するには VideoTexture を作成し、.draw() または .drawAt() します。VideoTextureTexture とほぼ同じメンバ関数を持ち、動画ファイルを Texture のように扱えます。動画のフレームを進めるには、VideoTexture は毎フレーム .advance() を呼んで再生位置を進める必要があります。

Siv3D はバックグラウンドのスレッドで動画の次のフレームの先読みを行っているため、時間を進める方向への動画の再生は、そこまで大きな負荷にはなりません。

VideoTexture ではミップマップが作成されないため、動画を縮小して描く場合は、あらかじめ小さい解像度の動画を用意しておくことが望ましいです。

対応する動画フォーマットはプラットフォームによって異なります。MP4 ファイルは Windows, macOS, Linux でサポートされています。

Windows における動画ファイルの埋め込み

Windows では、のちのチュートリアルで説明する「リソースファイルの埋め込み」で埋め込んだ動画ファイルは VideoTexture で読み込めない制約があります。ワークアラウンドとして、一時ファイルに書き出す方法 があります。

# include <Siv3D.hpp>

void Main()
{
	// ループする場合は Loop::Yes, ループしない場合は Loop::No
	const VideoTexture videoTexture{ U"example/video/river.mp4", Loop::Yes };

	while (System::Update())
	{
		ClearPrint();

		// 再生位置(秒) / 動画の長さ(秒)
		Print << U"{:.2f}/{:.2f}"_fmt(videoTexture.posSec(), videoTexture.lengthSec());

		// 動画の時間を進める (デフォルトでは Scece::DeltaTime() 秒)
		videoTexture.advance();

		videoTexture
			.scaled(0.5).draw();

		videoTexture
			.scaled(0.5)
			.rotated(Scene::Time() * 30_deg)
			.drawAt(Cursor::Pos());
	}
}

26.2 音声付きの動画に対応する

音声付きの動画ファイルから VideoTextureAudio を同時に作成し、タイミングを合わせて再生することで、音声付きの動画を再生することができます。Audio については チュートリアル 37. オーディオ再生 で詳しく説明します。プラットフォームによっては、音声付きの動画ファイルの読み込みに対応していない場合があります。

次のサンプルでは、動画の再生位置と音声の再生位置の差が 0.1 秒以上ある場合、音声の再生位置を動画の再生位置に合わせるようにしています。これにより、動画と音声の再生位置がずれることを防げますが、音声が途切れる可能性があります。

動画ファイルの用意

Siv3D のプロジェクトには音声付きの動画ファイルは同梱されていません。サンプルを実行する前に動画ファイルを自前で用意してください。

# include <Siv3D.hpp>

void Main()
{
	// 音声付きの動画ファイルのパス(プロジェクトには同梱されていません)
	const FilePath path = U"test.mp4";

	if (not FileSystem::Exists(path))
	{
		throw Error{ U"{} が見つかりませんでした"_fmt(path) };
	}

	// ループする場合は Loop::Yes, ループしない場合は Loop::No
	const VideoTexture videoTexture{ path, Loop::Yes };

	// 動画の音声を再生するための Audio オブジェクト
	const Audio audio{ Audio::Stream, path, Loop::Yes };

	// 音声の読み込みに成功したら
	if (not audio)
	{
		throw Error{ U"音声の読み込みに失敗しました" };
	}

	// 音声を再生する
	audio.play();

	while (System::Update())
	{
		ClearPrint();

		// 動画の再生位置(秒)
		const double videoTime = videoTexture.posSec();

		// 音声の再生位置(秒)
		const double audioTime = audio.posSec();

		Print << U"{:.2f}/{:.2f}/{:.2f}"_fmt(videoTime, audioTime, videoTexture.lengthSec());

		// 動画の再生位置と音声の再生位置の差が 0.1 秒以上ある場合
		if (0.1 < AbsDiff(audioTime, videoTime))
		{
			// 音声の再生位置を動画の再生位置に合わせる
			audio.seekTime(videoTime);
		}

		// 動画の時間を進める (デフォルトでは Scece::DeltaTime() 秒)
		videoTexture.advance();

		videoTexture
			.scaled(0.5).draw();
	}
}

26.3 GIF アニメーションを描く

AnimatedGIFReader を使うと、各フレームの画像データ Image と、次のフレームまでのディレイ(ミリ秒)の配列を取得できます。Image の配列から Texture の配列を作成し、適切なタイミングでフレームを描くことで、GIF アニメーションを描画できます。

ある時間が与えられたとき、何番目のフレームを描けばよいかは、AnimatedGIFReader::GetFrameIndex() を使うって求められます。

# include <Siv3D.hpp>

void Main()
{
	// GIF アニメーション画像を開く
	const AnimatedGIFReader gif{ U"example/gif/test.gif" };

	// 各フレームの画像と、次のフレームへのディレイ(ミリ秒)をロード
	Array<Image> images;
	Array<int32> delays;
	gif.read(images, delays);

	// フレーム数
	Print << images.size() << U" frames";

	// 各フレームのディレイ(ミリ秒)一覧
	Print << U"delays: " << delays;

	// 各フレームの Image から Texure を作成
	const Array<Texture> textures = images.map([](const Image& image) { return Texture{ image }; });

	// 画像データはもう使わないため、消去してメモリ消費を減らす
	images.clear();

	while (System::Update())
	{
		// アニメーションの経過時間
		const double t = Scene::Time();

		// 経過時間と各フレームのディレイに基づいて、何番目のフレームを描けばよいかを計算
		const size_t frameIndex = AnimatedGIFReader::GetFrameIndex(t, delays);

		textures[frameIndex].draw(200, 200);
	}
}