Stable Diffusion動画の使い方を完全解説 初心者でもできる生成AI動画入門【2026年最新】
この記事では、Stable Diffusionで動画を作る具体的な手順と最新のStable Video Diffusion・AnimateDiffの活用方法を、初心者向けに丁寧に解説します。
- はじめに Stable Diffusionで動画を作りたい人へ
- 生成AIとは何か Stable Diffusion動画とあわせて基本を理解する
- Stable Diffusion動画の仕組み 生成AIの技術背景をかんたん解説
- Stable Diffusion動画の主なツールと種類 WebUI・Colab・クラウドサービス
- Stable Diffusion動画の使い方ステップバイステップ 初心者向け実践マニュアル
- 2026年のStable Diffusion動画とAI動画トレンド ビジネス活用事例
- Stable Diffusion動画のメリット 生成AIとはの強みを動画で活かす
- Stable Diffusion動画のデメリットとリスク管理 生成AIとはの注意点
- Stable Diffusion動画の始め方とツールの選び方 目的別おすすめルート
- 2026年以降の生成AIとはとStable Diffusion動画トレンド 未来予測
- まとめ Stable Diffusion動画の使い方をマスターして生成AIとはを動画でも活用しよう
- 注意書き 本記事で扱うStable Diffusion動画・生成AIとはの情報について
はじめに Stable Diffusionで動画を作りたい人へ
「Stable Diffusionで画像は作れるようになってきたけれど、動画の作り方が分からない…」「Stable Video DiffusionやAnimateDiffって名前は聞くけど、どのツールを使えばいいの?」と悩んでいませんか。[1][2]
さらに、「ローカル環境で動かすべきか、クラウドやWebサービスを使うべきか」「VRAMが少ないPCでも動画生成はできるのか」といった不安も多いと思います。[3][4]
本記事では、こうした悩みを持つ初心者の方向けに、生成AIとは何かという基本から、Stable Diffusionを使った動画生成の具体的なワークフローまで一気に学べるよう構成しました。[5][6]
- 生成AIとは何かと、Stable Diffusion動画生成の全体像
- Stable Video Diffusion・AnimateDiffなど主要手法の違いと使い方
- ローカル環境・WebUI・Colab・クラウドサービスの選び方
- ビジネスやSNSで使えるAI動画の具体的な活用アイデア
- 2026年時点で押さえるべき注意点とリスク管理
[2][4]
[7][1]
[6]
筆者はこれまで、生成AIとは・プロンプト集・各種AIツールの使い方に関する長文ガイド記事を多数作成してきたため、その経験をもとに「初心者でも迷わない構成」でお伝えしていきます。[8][5]
それでは、そもそも生成AIとは何か、そしてStable Diffusion動画との関係から見ていきましょう。
生成AIとは何か Stable Diffusion動画とあわせて基本を理解する
Stable Diffusion動画の使い方を理解するためには、まず「生成AIとは何か」を押さえておくと全体像がスッキリします。 生成AIとは、大量のデータからパターンを学習し、テキスト・画像・音声・動画などの新しいコンテンツを自動生成するAIの総称です。[5][6]
生成AIとは 機械学習とディープラーニングの発展形
生成AIとは、ディープラーニング(深層学習)を活用した機械学習モデルの一種で、入力されたテキストや画像から新しい出力を「作り出す」ことに特化しています。 代表例として、画像生成のStable Diffusion、テキスト生成のChatGPT、動画生成のRunwayやPikaなどがあります。[4][2][6]
- テキスト生成AI ChatGPT・Gemini・ClaudeなどのLLM(大規模言語モデル)
- 画像生成AI Stable Diffusion・Midjourney・DALL·Eなど
- 動画生成AI Stable Video Diffusion・Pika・Runway Gen-2など
[2][4]
Stable Diffusion動画と他のAI動画ツールの違い
Stable Diffusion動画は、基本となる画像生成モデルをベースに、フレーム間の動きを制御する追加モデル(動画拡張)を組み合わせて実現します。 一方、RunwayやPikaなどのクラウド型動画生成サービスは、バックエンドで独自モデルを動かし、ユーザーにはシンプルなUIを提供しているのが特徴です。[2][4]
[4][2][7][3][4]
| 項目 | Stable Diffusion動画 | Runway・Pikaなどクラウド動画AI |
|---|---|---|
| 主な方式 | Stable Video Diffusion・AnimateDiffを使う | 各社独自の動画生成モデル |
| 環境 | ローカルPCやColabで動かす | ブラウザ上のWebサービス |
| カスタマイズ性 | モデル・LoRA・ワークフローを細かく調整できる | UIはシンプルだが細かい制御は限定的 |
| 難易度 | 導入・設定はやや上級者向け | 初心者でもすぐ使える |
次章では、Stable Diffusion動画の技術的な仕組みを、難しい数式抜きでやさしく解説します。
Stable Diffusion動画の仕組み 生成AIの技術背景をかんたん解説
Stable Diffusion動画の使い方をマスターするには、仕組みを「なんとなく」理解しておくと、プロンプトの調整や失敗の原因特定がぐっと楽になります。[1][3]
画像生成モデルStable Diffusionの基本
Stable Diffusionは、ノイズだらけの画像から少しずつノイズを取り除きながら、テキストで指定した内容に近づけていく拡散モデル(Diffusion Model)です。 これにより、文章だけから高品質な画像を生成できます。[6]
- テキストプロンプト「prompt」で描きたい内容を指定
- ネガティブプロンプトで避けたい要素を指定
- ステップ数・CFGスケール・解像度などのパラメータで画質や雰囲気を調整
Stable Video Diffusionと動画拡張のしくみ
Stable Video Diffusion(SVD)は、静止画を入力として、前後のフレームを推定しながら短い動画クリップを生成するための拡張モデルです。 14フレームや25フレーム程度の連続した画像を出力し、それらを連結して動画にします。[1][3][2]
- 入力画像を時間軸方向にコピーしつつ、フレームごとに少しずつ変化させる
- カメラのパン(横移動)・チルト(縦移動)などの動きを学習している
- 背景の一貫性が高く、自然なカメラワークに強いと評価されている
[2]
[4]
AnimateDiffなど他の動画手法との違い
AnimateDiffは、Stable Diffusionの画像生成をベースに、別途「モーション用モデル」を組み合わせることでフレーム間の動きを付ける手法です。 既存の動画にスタイルを転写する用途などで多く利用されています。[4]
- Stable Video Diffusion 背景・カメラワークに強い、SVD専用モデルを使う
- AnimateDiff 既存動画のスタイル変換やキャラもの・アニメ調動画に強い
- テキストto動画(Runway・Pikaなど) 1から動画を生成できるが、細かな制御にはコツが必要
[2][4]
[4]
[2][4]
ここまでで仕組みのイメージが掴めたと思います。次は、具体的にどんなツールでStable Diffusion動画を動かすのかを見ていきましょう。
Stable Diffusion動画の主なツールと種類 WebUI・Colab・クラウドサービス
Stable Diffusion動画を扱うための環境は、大きく「ローカルWebUI」「Colabなどクラウド実行」「クラウド動画サービス連携」の3パターンに分けられます。[7][1][2]
AUTOMATIC1111 Stable Diffusion WebUIと拡張
Stable Diffusion WebUI(通称A1111)は、Gradioベースの代表的なWebインターフェースで、多数の拡張機能(Extensions)から動画系の拡張を導入できます。 ただし、Stable Video Diffusionは専用のUIやComfyUIで扱うケースも多くなっています。[9][10][7]
- メリット 無料・拡張が豊富・細かいカスタマイズが可能
- デメリット GPU VRAMがある程度必要で、セットアップに手間がかかる
[10]
[3]
Stable Video Diffusion専用WebUI・ローカルツール
GitHubには、Stable Video Diffusionを自動インストールし、WebUIから動画生成できるリポジトリも公開されています。 Windows向けには、Python 3.10.11をインストールし、リポジトリをクローンしてバッチファイルを起動するだけで使えるものもあります。[7]
- Python 3.10.11をインストール(PATHに追加)
- Stable-Video-Diffusionリポジトリをgit clone
- webui.batを実行してローカルWebUIを起動
[7]
[7]
[7]
ComfyUI + Stable Video Diffusionワークフロー
ノードベースのUIであるComfyUIは、Stable Video Diffusion向けの公式ワークスペースが提供されており、動画生成パイプラインを視覚的に編集できます。 モデルのロード、画像入力、動画出力までの流れをノードとしてつなげるだけで、柔軟な動画生成が可能です。[9]
- ComfyUI本体をインストール
- SVDモデル(img2vid-xtなど)をダウンロードしてモデルフォルダに配置
- 公式の動画用ワークスペースを読み込み、パラメータを調整して実行
[9]
[9]
ColabやReplicateなどクラウドで試す方法
ローカルにGPU環境がない場合でも、Google ColabやReplicateなどのクラウド環境からStable Video Diffusionを試すことができます。 Colabノートブックは、SVDモデルの読み込みからUIの起動までをセルで順番に実行するだけで試せるものが配布されています。[1][2]
- Googleアカウントさえあれば無料枠で短い動画を生成可能
- ReplicateのSVDエンドポイントを利用すれば、ブラウザ上から画像をアップロードして動画生成が可能
[1]
[11]
次の章では、実際にStable Diffusion動画を生成する具体的な手順を、ステップバイステップで解説します。
Stable Diffusion動画の使い方ステップバイステップ 初心者向け実践マニュアル
ここからは、Stable Video Diffusionを例に、「1枚の画像から数秒の動画を作る」までの流れを具体的に見ていきます。[1][2]
ステップ1 画像を用意する(またはStable Diffusionで生成)
まずは動画化したい元画像を用意します。自分で撮影した写真や、自作のイラスト、あるいはStable Diffusionで生成した画像などが利用できます。[3][1]
- 推奨サイズは長辺768〜1024px程度(ColabやWebUIの解説でもこのサイズがよく使われる)
- 構図が分かりやすい画像(中央に被写体、背景がはっきりしている)ほど動画化しやすい
- 複雑すぎる背景や小さな文字は、動画化の際に崩れやすい傾向があります
[1]
ステップ2 Stable Video Diffusionの環境を準備する
次に、Stable Video Diffusionを動かす環境を準備します。ここでは、Colabノートブックを使うパターンと、ローカルWebUIを使うパターンを簡単に比較します。[7][1]
[1][7]
| 項目 | Colabノートブック | ローカルWebUI(Stable-Video-Diffusion) |
|---|---|---|
| 準備の手間 | ブラウザでノートブックを開き、セルを上から順に実行 | PythonやGitのセットアップ、リポジトリのクローンが必要 |
| コスト | 短時間なら無料枠で利用可能 | PC本体の購入以外は無料 |
| 制限 | セッション時間・VRAMが制限されることがある | VRAMとストレージが許す限り使い放題 |
ステップ3 パラメータを設定して動画生成する
環境が整ったら、画像をアップロードし、パラメータを設定して動画を生成します。Stable Video Diffusionでは、以下のような項目を調整します。[2][1]
- フレーム数 14フレーム・25フレームなど(2〜4秒程度)
- 解像度 元画像を基準にした縦横サイズ
- モーションタイプ カメラの移動方向や動きの強さ
- シード値 動きのランダム性を制御
[3][1]
ステップ4 出力されたフレームを動画に書き出す
Stable Video Diffusionの出力は、連番画像(例:frame_0001.png〜frame_0025.png)か、もしくはその場で動画形式(mp4など)に変換される場合があります。 連番画像の場合は、FFmpegやDaVinci Resolveなどを使って動画にまとめます。[2][1]
- FFmpegコマンド例として、「画像を指定FPSで動画に変換する」一般的な手法が解説されています(YouTubeのチュートリアル内など)。
- BGMやテロップを付けたい場合は、Premiere ProやCapCutなど動画編集ソフトと組み合わせます。
[9]
ここまでが基本の使い方です。次の章では、2026年時点でのStable Diffusion動画と他のAI動画ツールの最新トレンドや実例を紹介します。
2026年のStable Diffusion動画とAI動画トレンド ビジネス活用事例
2024〜2026年にかけて、AI動画生成の分野は急速に進化し、Stable Video DiffusionやRunway、Pikaなどのツールが次々と登場・アップデートされました。[6][4][2]
Stable Video Diffusionの最新動向と評価
Stable Video Diffusionは、画像から動画を生成する手法として、背景の安定性と自然なカメラワークで高い評価を得ています。 14フレームと25フレームのモードが用意されており、短いクリップながら高品質な動画を生成できます。[3][4][1][2]
- 研究プレビューとしてGitHub・Hugging Faceで公開され、多くのColabノートブックやUIが整備された
- VRAM要件は高めだが、クラウド環境での試用も進んでいる
- 他の動画ツール(Runway・Pikaなど)との比較レビューも多数公開されている
[7][1]
[3][4]
[11][2]
AI動画生成ツール同士の比較
2026年時点では、テキストto動画・画像to動画・動画スタイル変換など用途別にさまざまなツールが存在し、それぞれ得意分野が異なります。[6][4][2]
[2][4][2][4][2]
| ツール | 主な用途 | 強み |
|---|---|---|
| Stable Video Diffusion | 画像to動画(背景・環境表現) | 自然なカメラワークと背景の一貫性 |
| AnimateDiff | 動画スタイル変換・アニメ調モーション | キャラクター・ダンス動画などに強い |
| Runway Gen-2 | テキストto動画・編集機能付き | UIが分かりやすく編集機能が充実 |
| Pika | テキスト・画像to動画(モーション指定) | 細かな動きの指定に強い |
ビジネスやクリエイティブでの活用例
Stable Diffusion動画や他のAI動画生成ツールは、ビジネス・マーケティング・クリエイター活動などで次のように活用されています。[6][2][4]
- 新サービス・イベントのティザー動画(背景や雰囲気をAIで生成)
- 音楽やポッドキャストのループ背景動画
- プロトタイプ段階のコンセプトムービー、企画書用のイメージ動画
- ゲームやアニメの背景の「動くコンセプトアート」
続いて、Stable Diffusion動画を使うメリットを整理しつつ、どんな場面で特に効果を発揮するのかを見ていきます。
Stable Diffusion動画のメリット 生成AIとはの強みを動画で活かす
Stable Diffusion動画には、クラウド型のAI動画サービスとは異なる強みがあります。ここでは主なメリットを整理します。[2][4]
高いカスタマイズ性とスタイルの一貫性
Stable Diffusion動画では、チェックポイントモデルやLoRAを組み合わせることで、自分好みの絵柄やブランドに合ったスタイルを維持したまま動画化できます。 同じモデル・同じキャラクターを使い続けることで、「世界観の統一された動画シリーズ」を作りやすくなります。[4]
- ブランドカラー・イラストスタイルを固定したまま背景だけ変える
- シリーズもののショート動画で同じキャラクターを登場させ続ける
ローカル環境でのプライバシー・コスト面のメリット
ローカル環境でStable Diffusion動画を動かす場合、データを外部クラウドにアップロードせずに済むため、機密性の高いプロジェクトには大きな利点があります。 また、クラウドの従量課金と比較して、長期的にはGPU搭載PCを一台用意した方がコストパフォーマンスが良くなるケースもあります。[3][4]
- 自社の未公開プロジェクトや試作品のビジュアルをローカルで処理できる
- クラウドAPIのトークン単価を気にせず試行錯誤ができる
生成AIとは全体の学習効率アップ
Stable Diffusion動画を実践することで、画像生成・動画生成・テキスト生成など、生成AIとは全体に共通する「プロンプト設計・パラメータ調整・ワークフロー設計」のスキルが身につきます。 これはビジネスにおけるAIリテラシー向上にも直結します。[6]
- プロンプトの書き方が他の生成AIツールにも応用できる
- AIエージェントや自動化ワークフロー構築の土台になる
[12]
一方で、Stable Diffusion動画にはデメリットやリスクも存在します。次の章ではそれらを整理し、安全に使うためのポイントを解説します。
Stable Diffusion動画のデメリットとリスク管理 生成AIとはの注意点
生成AIとは全般に言えることですが、Stable Diffusion動画にもいくつかの弱点やリスクがあります。事前に理解しておくことで、トラブルを避け、安全に活用できます。[13][14]
技術的な制約 長尺・高解像度の難しさ
2026年1月時点のStable Video Diffusion(バージョン1.1)では、基本的に2〜4秒程度の短い動画を想定しており、長尺動画や高解像度動画はまだ得意ではありません。 長い動画を作りたい場合は、複数クリップをつなぐか、他のツールと併用する必要があります。[6][3][2]
- フレーム数を増やしすぎるとVRAM不足や生成時間の急激な増加を招く
- 解像度アップスケーリングは別ツール(画像・動画のアップスケーラー)と併用するのが一般的
[3]
倫理・法的リスク 著作権・肖像権・フェイク動画
生成AI動画は、非常にリアルな映像を簡単に作れる一方で、著作権や肖像権、ディープフェイクによる誤情報拡散などのリスクが指摘されています。 Stable Diffusion動画の使い方を学ぶ際も、この点は常に意識しておく必要があります。[14][13]
- 既存作品(アニメ・映画・ゲーム)のキャラクターを無断で利用しない
- 実在人物の顔写真を使ったフェイク動画は、プライバシー侵害や名誉毀損につながる可能性がある
- 商用利用時には、モデルのライセンスや利用規約を必ず確認する
学習コストと環境構築のハードル
ローカル環境でStable Diffusion動画を動かすには、GPU搭載PC・Python環境・Gitなどの準備が必要で、技術的なハードルが比較的高いのも事実です。 「インストールだけで疲れてしまった」という声も少なくありません。[15][7]
- Windowsでのインストール手順を詳しく解説したチュートリアル動画が複数公開されている
- Colabやクラウドサービスをうまく併用することで、環境構築の負担を減らせる
[15]
[1][2]
ここまででメリットとデメリットを整理できました。次は、あなたの目的に合ったStable Diffusion動画の始め方・ツールの選び方を具体的に提案していきます。
Stable Diffusion動画の始め方とツールの選び方 目的別おすすめルート
「結局、自分はどこから始めればいいの?」という方のために、用途別にStable Diffusion動画の始め方を整理します。[6][2]
パターン1 まずは無料で試したい人向け
コストをかけずにStable Diffusion動画の雰囲気を体験したい人には、Colabノートブックとブラウザベースのツールを組み合わせる方法が向いています。[9][1]
- Step1 無料のColabノートブックでStable Video Diffusionを試す
- Step2 生成した動画をYouTubeショートやSNSにアップして反応を見てみる
[1]
[6]
パターン2 クリエイター・マーケターとして活用したい人向け
YouTubeやTikTokの運用、企業のSNS担当者としてStable Diffusion動画を使いたい場合は、次のような組み合わせが現実的です。[2][4]
- テキスト台本 ChatGPTや他のLLMで台本・構成を作る
- ビジュアル 画像生成AIでキービジュアルを作成(Stable Diffusionや他のツール)
- 動画化 Stable Video Diffusion・AnimateDiff・Runway・Pikaなどから目的に合うものを選択
[6]
[2][4]
パターン3 技術的にもガッツリ学びたい人向け
生成AIとはそのものを深く理解し、将来的にはAIエージェントや自動化システムの構築にも挑戦したい人は、ローカル環境でのStable Diffusionセットアップから取り組むと良いでしょう。[10][15]
- WindowsにStable Diffusionをインストールする手順を解説した2024年以降のチュートリアルを参考にする
- AUTOMATIC1111 WebUI + ComfyUI + Stable Video Diffusion + AnimateDiffという構成で、画像〜動画までの一連のフローを自分のPC上で完結させる
[15]
[10][9][7]
ここまでで、Stable Diffusion動画の使い方と始め方の全体像をお伝えしました。最後に、2026年以降のトレンドと今後の動向についても触れておきます。
2026年以降の生成AIとはとStable Diffusion動画トレンド 未来予測
AI動画の領域は、2025〜2026年にかけてさらに加速することが予想されます。ここでは、Stable Diffusion動画や関連ツールの今後の方向性を、現在公開されている情報から整理します。[6][4][2]
より長尺・高解像度な動画生成への進化
現行のStable Video Diffusionは短尺動画が中心ですが、研究コミュニティや企業からは、長尺・高解像度への拡張に関する取り組みが報告されています。 将来的には、数十秒〜数分レベルの動画を安定して生成できるモデルが登場する可能性があります。[3][4]
- フレーム間の一貫性を高めつつ、ストーリー性のある動画を生成する研究が進んでいる
- 動画専用の拡散モデルやトランスフォーマーモデルの開発も活発
[6]
マルチモーダル生成AIとの統合
テキスト・画像・音声・動画を横断して扱えるマルチモーダルモデル(例:Geminiなど)は、動画生成ワークフローの自動化にも大きな影響を与えています。 将来的には、テキストプロンプトだけで「台本 → 画像 → 動画 → BGM → ナレーション」まで一気通貫で生成するワークフローが一般化していくと考えられます。[6]
- 生成AIとはを組み合わせた「AI動画プロデューサー」のような役割が登場
- ノーコードで高度なAI動画パイプラインを構築できるツールの増加
規制・ガイドラインの整備とAIリテラシーの重要性
各国や業界団体では、生成AIとは全般に関するガイドラインや規制の整備が進んでおり、動画分野でもディープフェイク対策や著作権保護のルール作りが進行中です。 技術の進化と並行して、「どう使うか」という倫理・法的側面のリテラシーもますます重要になります。[14][13]
- AI生成コンテンツであることの明示(ラベリング)の義務化が議論されている地域もある
- 企業レベルでは、生成AI利用ポリシーの策定がスタンダードになりつつある
[14]
それでは最後に、本記事の内容を「今日からできるアクション」に落とし込んでまとめます。
まとめ Stable Diffusion動画の使い方をマスターして生成AIとはを動画でも活用しよう
ここまで、Stable Diffusion動画の使い方を中心に、生成AIとはの基本からツール選び・実践ステップ・トレンドまで一気に見てきました。最後に要点を整理します。
- 生成AIとは、大量データからパターンを学習し、テキスト・画像・動画などを自動生成するAIの総称であり、Stable Diffusion動画はその中でも「画像生成AI + 動画拡張」を活用する手法です。
- Stable Video Diffusionは、1枚の画像から数秒の動画を生成するモデルで、背景やカメラワークに強く、2026年時点で多くのColabノートブックやWebUIが整備されています。
- 環境構築の選択肢として、Colab・ローカルWebUI(Stable-Video-Diffusion)・ComfyUI・Replicateなどがあり、自分のスキルやPCスペックに応じて選ぶことができます。
- メリットは、スタイルの一貫性やカスタマイズ性、ローカル環境によるプライバシー面の安心感などで、ブランド動画や背景ループ動画、コンセプトムービーなどに向いています。
- 一方で、現状は短尺動画が中心であり、長尺・高解像度動画にはまだ制約があるほか、著作権・肖像権・フェイク動画などの倫理・法的リスクにも注意が必要です。
- 2026年以降は、長尺動画やマルチモーダル生成AIとの統合、規制・ガイドラインの整備が進むと見込まれ、今のうちにStable Diffusion動画の基礎を押さえておくことは、ビジネス・クリエイティブ両面で大きなアドバンテージになります。
[5][6]
[1][3][2]
[9][7][1]
[3][4][2]
[13][14][3]
[14][4][6]
- まずは画像1枚を用意して、ColabノートブックやブラウザツールでStable Video Diffusionを試してみる
- うまくいった動画をSNSにアップし、視聴者の反応や活用の手応えを確認する
- 継続的に使えそうだと感じたら、ローカル環境やComfyUIの導入を検討し、自分専用の生成AIとは動画パイプラインを作る
[1][2]
[6]
Stable Diffusion動画の使い方は、一度手を動かしてみると一気に理解が深まります。この記事をきっかけに、ぜひあなたのクリエイティブやビジネスの中に「AI動画」という新しい選択肢を取り入れてみてください。
注意書き 本記事で扱うStable Diffusion動画・生成AIとはの情報について
本記事で解説したStable Diffusion動画の使い方やStable Video Diffusion、AnimateDiff、Runway、Pikaなどのツール情報は、2026年1月時点で公開されている公式ドキュメント・チュートリアル・比較レビュー記事などをもとに整理したものです。[1][4][2][6]
AI動画生成の分野は非常に変化が速く、モデルのバージョンアップ、対応機能、料金体系、利用規約、提供地域などが短期間で変更される可能性があります。そのため、実際にツールを利用する際は、必ず各サービスの公式サイト・公式ドキュメント・最新のお知らせなどを確認し、最新情報に基づいて判断してください。[14][3]
また、生成AIとはを利用したコンテンツ制作には、著作権・肖像権・プライバシー・情報セキュリティなど、さまざまな法律・規制・社内ポリシーが関わる可能性があります。具体的な案件やビジネス上の意思決定については、本記事の内容を唯一の根拠とせず、必要に応じて弁護士・法務担当・情報セキュリティ担当などの専門家に相談し、最終判断はご自身および所属組織の責任で行ってください。[13][14]


コメント