画像をアップロード
🖼️ クリック または ドラッグ&ドロップ
JPEG / PNG / WebP 対応 / 最大 10MB 推奨
編集モード
人物写真向けの高精度モデル。髪の毛まで精細に抜きます。
商品・ペット・食べ物などの物体用。軽量で高速です。
クリックした位置の色と類似色を塗りつぶします(フラッドフィル)。
プレビュー左側でクリックすると、その色と近い領域が透過されます。
クリック位置の色を画像全体から一括で透過します。
AI結果の細部を手動で修正。「復元」で戻し、「消去」で追加透過します。
プレビュー
元画像
結果
背景合成(任意)
透過済み画像に背景色を合成して保存します。選択しなければ透過 PNG のまま保存されます。
💡 Tips: まず「AI自動透過」を試し、細部(髪の先端など)は「手動ブラシ修正」で微調整するのがおすすめ。PC(WebGPU対応ブラウザ)で最高速動作。
使い方
- 画像をドラッグ&ドロップまたは選択してアップロード。
- 「AI自動透過(人物)」または「(物体)」を選択し、実行ボタンを押す。初回のみモデルをダウンロード(人物 約25MB / 物体 約4.7MB)。
- 結果の細部を「手動ブラシ修正」で微調整(任意)。
- 背景を透過のまま保存するか、任意色で合成して保存。PNG(透過対応)・JPEG(背景合成)選択可。
利用している AI モデル
MODNet(人物用)
- ライセンス: Apache-2.0(商用利用可)
- 配布元: Hugging Face Hub
Xenova/modnet - サイズ: 約 25MB
- 特徴: 人物向け。髪の毛の細かい境界まで精細に認識するよう学習。ビデオ会議サービスの背景ぼかしなどで実績あり。
U²-Net(物体用)
- ライセンス: Apache-2.0(商用利用可)
- サイズ: 約 4.7MB(軽量版)
- 特徴: 商品・ペット・食べ物・花など一般的な物体の領域抽出に強い。人物では MODNet が優位。
ONNX Runtime Web
- ライセンス: MIT
- 配布元: jsDelivr CDN
onnxruntime-web@1.17 - サイズ: 約 5MB(WASM 含む)
- 実行: WebGPU 優先、未対応環境では WASM SIMD に自動フォールバック。
プライバシー
本ツールは画像を外部サーバーに一切送信しません。モデルファイル(MODNet/U²-Net)とランタイム(ONNX Runtime Web)のダウンロードのみが発生し、画像処理はすべてあなたのブラウザ内で完結します。キャッシュされたモデルはブラウザのストレージを消去すると削除されます。
ハードウェア要件
- PC(推奨): Chrome 113+ / Edge 113+ / Firefox 119+ / Safari 17+。WebGPU 対応環境では 1〜2 秒で処理完了。
- スマートフォン: 2GB 以上のメモリ推奨。処理時間は 3〜6 秒。
- 最小画像サイズ: 自動で 512×512 に内部リサイズ(結果は元解像度に戻ります)。
よくある質問
どのAIモデルを使っていますか?
MODNet(Apache-2.0ライセンス、Hugging Face経由でXenova/modnetから配信、約25MB)と U²-Net(Apache-2.0、約4.7MB)を使用しています。
画像はどこで処理されますか?
すべてあなたのブラウザ内(クライアント)で処理されます。画像は一切外部サーバーに送信しません。
モバイルでも動きますか?
はい。処理時間はスマホで3〜6秒、PCで1〜2秒です。WebGPU対応ブラウザではさらに高速化されます。
髪の毛の細かい部分も抜けますか?
はい。MODNetは髪の毛1本レベルで精細な境界を認識するよう学習されており、remove.bgや Photoshop の「背景を削除」に近い品質が得られます。
人物以外の物体も透過できますか?
はい。U²-Netモードで対応します。人物以外(商品・ペット・食品など)はこちらがおすすめです。
結果の細部を手動修正できますか?
はい。「手動ブラシ修正」モードで「復元」「消去」を切り替えて調整できます。
保存形式は何ですか?
透過PNG / JPEG(背景合成) の 2 形式。透過PNGは他の画像編集ソフトにそのまま持ち込めます。
商用利用できますか?
はい。ツール・モデル(MODNet / U²-Net)ともにApache-2.0ライセンスで商用利用可能です。