<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>顔修正 | AIナビLab</title>
	<atom:link href="https://ai-navi-lab.com/tag/%E9%A1%94%E4%BF%AE%E6%AD%A3/feed/" rel="self" type="application/rss+xml" />
	<link>https://ai-navi-lab.com</link>
	<description>AIツールの使い方・活用術をナビ助がわかりやすく解説！</description>
	<lastBuildDate>Mon, 04 May 2026 07:54:15 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://ai-navi-lab.com/wp-content/uploads/2026/04/nabisuke_favicon-150x150.png</url>
	<title>顔修正 | AIナビLab</title>
	<link>https://ai-navi-lab.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Stable Diffusion Inpaintingで顔修正｜使い方と手順を完全ガイド</title>
		<link>https://ai-navi-lab.com/stable-diffusion-inpainting-face-correction-guide/</link>
		
		<dc:creator><![CDATA[ナビ助]]></dc:creator>
		<pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
				<category><![CDATA[画像生成AI]]></category>
		<category><![CDATA[Inpainting]]></category>
		<category><![CDATA[Stable Diffusion]]></category>
		<category><![CDATA[使い方]]></category>
		<category><![CDATA[手順]]></category>
		<category><![CDATA[顔修正]]></category>
		<guid isPermaLink="false">https://ai-navi-lab.com/?p=136</guid>

					<description><![CDATA[「生成した画像は完璧なのに、顔だけ崩れてしまった」「目の位置がおかしいけど、全体を再生成すると他の部分まで変わってしまう」と困った経験はありませんか。 Stable DiffusionのInpainting機能を使えば、 [&#8230;]]]></description>
										<content:encoded><![CDATA[<article>
<p>「生成した画像は完璧なのに、顔だけ崩れてしまった」「目の位置がおかしいけど、全体を再生成すると他の部分まで変わってしまう」と困った経験はありませんか。</p>
<p>Stable DiffusionのInpainting機能を使えば、<span class="marker-under">画像の特定部分だけをピンポイントで修正</span>できます。全体を再生成する必要がないため、気に入っている部分はそのまま残しつつ、崩れた顔だけを自然に修復できるのが最大の利点です。</p>
<p>この記事では、Inpaintingの基本的な仕組みから、顔修正のための具体的な手順・パラメータ設定・精度を上げるテクニックまで網羅的に解説します。公式情報は<a href="https://stability.ai">Stability AI公式サイト</a>でもご確認いただけます。</p>

  <div id="toc" class="toc tnt-number toc-center tnt-number border-element"><input type="checkbox" class="toc-checkbox" id="toc-checkbox-2" checked><label class="toc-title" for="toc-checkbox-2">目次</label>
    <div class="toc-content">
    <ol class="toc-list open"><li><a href="#toc1" tabindex="0">Inpaintingとは？基本の仕組み</a></li><li><a href="#toc2" tabindex="0">Inpaintingで顔修正する具体的な手順</a><ol><li><a href="#toc3" tabindex="0">手順1：WebUIのimg2img → Inpaintタブを開く</a></li><li><a href="#toc4" tabindex="0">手順2：顔の部分をマスクで塗る</a></li><li><a href="#toc5" tabindex="0">手順3：Inpainting設定を調整する</a></li><li><a href="#toc6" tabindex="0">手順4：プロンプトを入力して生成</a></li><li><a href="#toc7" tabindex="0">手順5：結果を確認して微調整</a></li></ol></li><li><a href="#toc8" tabindex="0">Inpaintingの主要パラメータ比較</a></li><li><a href="#toc9" tabindex="0">顔修正の精度を上げるテクニック</a><ol><li><a href="#toc10" tabindex="0">テクニック1：ADetailer拡張機能を使う</a></li><li><a href="#toc11" tabindex="0">テクニック2：高解像度で生成してからInpainting</a></li><li><a href="#toc12" tabindex="0">テクニック3：Inpaintingモデルを使う</a></li><li><a href="#toc13" tabindex="0">テクニック4：ControlNetと併用する</a></li><li><a href="#toc14" tabindex="0">テクニック5：段階的に修正する</a></li></ol></li><li><a href="#toc15" tabindex="0">顔以外にもInpaintingで修正できること</a></li><li><a href="#toc16" tabindex="0">よくある質問（FAQ）</a><ol><li><a href="#toc17" tabindex="0">Q. Inpaintingでマスクの境界が不自然になるのはなぜですか？</a></li><li><a href="#toc18" tabindex="0">Q. Denoising strengthはどの値がベストですか？</a></li><li><a href="#toc19" tabindex="0">Q. SDXL（1024&#215;1024）でもInpaintingは使えますか？</a></li><li><a href="#toc20" tabindex="0">Q. ComfyUIでもInpaintingはできますか？</a></li><li><a href="#toc21" tabindex="0">Q. クラウドサービスでInpaintingを使う方法はありますか？</a></li><li><a href="#toc22" tabindex="0">Q. 実写風の顔もInpaintingで修正できますか？</a></li></ol></li><li><a href="#toc23" tabindex="0">まとめ：InpaintingはStable Diffusionの完成度を飛躍的に高める必須テクニック</a></li></ol>
    </div>
  </div>

<h2><span id="toc1">Inpaintingとは？基本の仕組み</span></h2>
<p>Inpaintingは「塗りつぶし修復」を意味する機能です。画像の一部をマスク（塗りつぶし）で指定し、その部分だけをAIに再生成させる技術です。</p>
<p>Stable DiffusionのWebUI（AUTOMATIC1111やForge）では、img2imgタブ内にInpainting機能が搭載されています。操作の基本は「修正したい部分をブラシで塗る → プロンプトを入力 → 生成」の3ステップです。非常にシンプルですが、パラメータの調整次第で仕上がりの品質が大きく変わります。</p>
<p>Inpaintingが特に威力を発揮するのは、画像の大部分は理想通りなのに<strong>一部だけが微妙</strong>というシーンです。全体を再生成するとランダム性により良い部分まで変わってしまいますが、Inpaintingなら修正箇所だけに介入できます。</p>
<h2><span id="toc2">Inpaintingで顔修正する具体的な手順</span></h2>
<p>ここからは実際の操作手順を5ステップで解説します。</p>
<h3><span id="toc3">手順1：WebUIのimg2img → Inpaintタブを開く</span></h3>
<p>AUTOMATIC1111の場合、上部メニューから「img2img」を選択し、サブタブの「Inpaint」をクリックします。修正したい画像をアップロードしてください。</p>
<h3><span id="toc4">手順2：顔の部分をマスクで塗る</span></h3>
<p>ブラシツールで顔の部分を塗りつぶします。ここでの<span class="marker-under-red">ポイントは、顔よりやや広めにマスクを塗ること</span>です。顔ぴったりにマスクを塗ると境界が不自然になるため、額の上・あごの下・耳の周辺まで含めて塗りましょう。</p>
<p>ブラシサイズは画像の解像度に合わせて調整します。512&#215;512の画像なら、ブラシサイズ30〜50くらいが目安です。</p>
<h3><span id="toc5">手順3：Inpainting設定を調整する</span></h3>
<p>顔修正において重要な設定項目は以下のとおりです。</p>
<ul>
<li><strong>Mask blur</strong>：4〜8（マスクの境界をぼかす。高いほど周囲となじむ）</li>
<li><strong>Inpaint area</strong>：「Only masked」を選択（マスク部分のみ再生成）</li>
<li><strong>Only masked padding</strong>：32〜64 pixels（マスク周辺のコンテキストをどれだけ参照するか）</li>
<li><strong>Denoising strength</strong>：0.4〜0.6（低いほど元画像に近い、高いほど大きく変化）</li>
</ul>
<h3><span id="toc6">手順4：プロンプトを入力して生成</span></h3>
<p>顔修正に特化したプロンプトを入力します。</p>
<p>ポジティブ：<code>beautiful detailed face, symmetrical eyes, natural skin, perfect facial features, high quality</code></p>
<p>ネガティブ：<code>deformed face, ugly, distorted eyes, asymmetrical, blurry, low quality</code></p>
<h3><span id="toc7">手順5：結果を確認して微調整</span></h3>
<p>一発で理想通りの結果になることは稀です。<strong>Denoising strengthを少しずつ変えながら複数回生成</strong>して比較しましょう。0.4から始めて、変化が足りなければ0.5、0.6と段階的に上げていくのがおすすめです。</p>
<div style="background:#f0f7ff;padding:20px;border-radius:10px;margin:25px 0;">
<div class="speech-wrap sb-id-1 sbs-line sbp-l sbis-cb cf">
<div class="speech-person">
<figure class="speech-icon"><img decoding="async" src="https://ai-navi-lab.com/wp-content/uploads/2026/04/nabisuke_favicon.png" alt="ナビ助" class="speech-icon-image"></figure><figcaption class="speech-name">ナビ助</figcaption></div>
<div class="speech-balloon">マスクは「ちょっと広めに塗る」のがコツだよ！ぴったり顔だけだと境界がくっきり出ちゃって不自然になるから気をつけてね！</div>
</div>
</div>
<h2><span id="toc8">Inpaintingの主要パラメータ比較</span></h2>
<p>各パラメータの推奨値と、値を変えたときの影響を一覧でまとめました。</p>
<table border="1" cellpadding="8" cellspacing="0">
<tr>
<th>パラメータ</th>
<th>推奨値（顔修正）</th>
<th>低くすると</th>
<th>高くすると</th>
</tr>
<tr>
<td>Denoising strength</td>
<td><strong>0.4〜0.6</strong></td>
<td>元画像に近い（変化が小さい）</td>
<td>大きく変化（元画像から離れる）</td>
</tr>
<tr>
<td>Mask blur</td>
<td><strong>4〜8</strong></td>
<td>境界がくっきり（不自然になりやすい）</td>
<td>境界がなめらか</td>
</tr>
<tr>
<td>Only masked padding</td>
<td><strong>32〜64</strong></td>
<td>マスク部分のみ参照</td>
<td>周辺を広く参照（整合性向上）</td>
</tr>
<tr>
<td>CFG Scale</td>
<td><strong>7〜12</strong></td>
<td>プロンプトへの忠実度が低い</td>
<td>プロンプトに強く従う</td>
</tr>
<tr>
<td>Sampling steps</td>
<td><strong>30〜50</strong></td>
<td>高速だが品質が低い</td>
<td>高品質だが時間がかかる</td>
</tr>
</table>
<div class="blank-box bb-tab bb-point">
<div class="bb-label"><span class="fa fa-check"></span>ポイント</div>
<p>顔修正ではDenoising strength 0.4〜0.6、Mask blur 6〜8の組み合わせが安定します。まずはこの範囲で試し、結果を見ながら微調整してください。</p></div>
<h2><span id="toc9">顔修正の精度を上げるテクニック</span></h2>
<h3><span id="toc10">テクニック1：ADetailer拡張機能を使う</span></h3>
<p>ADetailer（After Detailer）は、顔を自動検出してInpaintingを適用してくれる拡張機能です。<strong>手動でマスクを塗る手間なく、生成と同時に顔の修正が実行</strong>されます。</p>
<p>インストール方法：WebUIのExtensionsタブから「adetailer」で検索してインストールします。</p>
<p>おすすめ設定：Model → face_yolov8n.pt（顔検出モデル）、Denoising strength → 0.4、Inpaint width/height → 512&#215;512</p>
<h3><span id="toc11">テクニック2：高解像度で生成してからInpainting</span></h3>
<p>512&#215;512で生成した画像の顔は情報量が少なく、修正の精度に限界があります。<span class="marker-under">まずHires.fixやimg2imgで画像を高解像度にしてからInpaintingを行う</span>と、顔のディテールが格段に向上します。</p>
<h3><span id="toc12">テクニック3：Inpaintingモデルを使う</span></h3>
<p>通常のモデルでもInpaintingは可能ですが、Inpainting専用に学習されたモデル（例：sd-v1-5-inpainting.safetensors）を使うと、マスク境界の自然さが一段階上がります。</p>
<h3><span id="toc13">テクニック4：ControlNetと併用する</span></h3>
<p>ControlNetのFace Restorationモジュールを併用すると、顔のパーツの位置関係を維持しながら品質だけを向上させることができます。特に目の位置のズレ修正に効果的です。</p>
<h3><span id="toc14">テクニック5：段階的に修正する</span></h3>
<p>一度に完璧を目指すのではなく、<strong>「まず全体的な形を修正 → 次に細部を修正」と2段階で行う</strong>と失敗が減ります。1回目はDenoising strength 0.5で大まかに修正し、2回目は0.3で微調整するイメージです。</p>
<div style="background:#f0f7ff;padding:20px;border-radius:10px;margin:25px 0;">
<div class="speech-wrap sb-id-1 sbs-line sbp-l sbis-cb cf">
<div class="speech-person">
<figure class="speech-icon"><img decoding="async" src="https://ai-navi-lab.com/wp-content/uploads/2026/04/nabisuke_favicon.png" alt="ナビ助" class="speech-icon-image"></figure><figcaption class="speech-name">ナビ助</figcaption></div>
<div class="speech-balloon">ADetailerを入れておくと、生成のたびに自動で顔を修正してくれるから本当に楽だよ！手動Inpaintingの手間が激減するからね！</div>
</div>
</div>
<h2><span id="toc15">顔以外にもInpaintingで修正できること</span></h2>
<p>Inpaintingは顔修正だけのツールではありません。以下のような修正にも応用可能です。</p>
<ul>
<li><strong>手の指の修正</strong>：AIが苦手な指の数や形を部分的に修正</li>
<li><strong>服装の変更</strong>：体の部分をマスクして別の服装を指定</li>
<li><strong>背景の変更</strong>：キャラクター以外をマスクして背景だけ入れ替え</li>
<li><strong>不要なオブジェクトの除去</strong>：消したい部分をマスクして背景で埋める</li>
<li><strong>表情の変更</strong>：笑顔から真剣な表情への差し替えなど</li>
</ul>
<h2><span id="toc16">よくある質問（FAQ）</span></h2>
<h3><span id="toc17">Q. Inpaintingでマスクの境界が不自然になるのはなぜですか？</span></h3>
<p>Mask blurの値が低すぎるか、マスクの範囲が狭すぎることが主な原因です。Mask blurを6〜8に上げ、マスクを顔より一回り大きく塗ってみてください。</p>
<h3><span id="toc18">Q. Denoising strengthはどの値がベストですか？</span></h3>
<p>顔修正なら0.4〜0.6がおすすめです。0.3以下だとほぼ変化がなく、0.7以上だと顔が別人になるリスクがあります。まず0.4で試して段階的に上げていくのが安全です。</p>
<h3><span id="toc19">Q. SDXL（1024&#215;1024）でもInpaintingは使えますか？</span></h3>
<p>使えます。SDXLの方が解像度が高い分、顔のディテールが精細で修正精度も上がります。VRAM 8GB以上のGPUが必要ですが、結果はSD1.5より明らかに優れています。</p>
<h3><span id="toc20">Q. ComfyUIでもInpaintingはできますか？</span></h3>
<p>可能です。<a href="https://github.com/comfyanonymous/ComfyUI">ComfyUI</a>ではInpaintingのワークフローをノード単位で自由にカスタマイズでき、AUTOMATIC1111よりも柔軟な設定が可能です。ただし初期セットアップの難易度はやや高めです。</p>
<h3><span id="toc21">Q. クラウドサービスでInpaintingを使う方法はありますか？</span></h3>
<p>RunDiffusion、Stability AI Platform、Google ColabなどでStable Diffusionを実行すれば、GPU非搭載のPCでもInpaintingが利用可能です。</p>
<h3><span id="toc22">Q. 実写風の顔もInpaintingで修正できますか？</span></h3>
<p>可能です。ただし実写風の場合、不自然さが目立ちやすいため、Denoising strengthは0.3〜0.4の低めから始めるのが安全です。RealisticVisionなどの実写系モデルを使用するとより自然な結果が得られます。</p>
<h2><span id="toc23">まとめ：InpaintingはStable Diffusionの完成度を飛躍的に高める必須テクニック</span></h2>
<p>この記事のポイントをまとめます。</p>
<ul>
<li>Inpaintingは<strong>画像の一部だけを修正・再生成</strong>する機能</li>
<li>顔修正はマスクを<strong>「やや広め」に塗る</strong>のがコツ</li>
<li><strong>Denoising strength 0.4〜0.6</strong>が顔修正のベストゾーン</li>
<li>ADetailer拡張機能を使えば<strong>自動で顔修正が可能</strong></li>
<li>高解像度化してからInpaintingを行うと精度が向上</li>
<li>顔だけでなく<strong>手・服装・背景の修正にも応用</strong>できる</li>
</ul>
<div style="background:#f0f7ff;padding:20px;border-radius:10px;margin:25px 0;">
<div class="speech-wrap sb-id-1 sbs-line sbp-l sbis-cb cf">
<div class="speech-person">
<figure class="speech-icon"><img decoding="async" src="https://ai-navi-lab.com/wp-content/uploads/2026/04/nabisuke_favicon.png" alt="ナビ助" class="speech-icon-image"></figure><figcaption class="speech-name">ナビ助</figcaption></div>
<div class="speech-balloon">Inpaintingをマスターすると「惜しい画像」を「完璧な画像」に仕上げられるようになるよ！ぜひ今日から活用してみてね！</div>
</div>
</div>
<p>Inpaintingは、Stable Diffusionを「画像を生成するツール」から「作品として完成させるツール」へと引き上げる必須テクニックです。最初はパラメータの調整に試行錯誤が必要ですが、コツをつかめば短時間で高品質な修正ができるようになります。</p>
</article>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
