AI背景透過ツール

MODNet AI モデルで人物・商品の背景をワンクリック自動透過。髪の毛まで精細に。画像はブラウザ内のみで処理します。

上部広告スロット 728 x 90
🔒
利用モデル: MODNet (Apache-2.0) / 約 25MB + U²-Net (Apache-2.0) / 約 4.7MB 配布元: Hugging Face Hub (Xenova/modnet)。初回のみダウンロードし、ブラウザに保存されます(次回以降はネットワーク不要)。画像はサーバーに送信されず、すべてあなたのブラウザ内で処理されます。

画像をアップロード

🖼️ クリック または ドラッグ&ドロップ

JPEG / PNG / WebP 対応 / 最大 10MB 推奨

編集モード

人物写真向けの高精度モデル。髪の毛まで精細に抜きます。

商品・ペット・食べ物などの物体用。軽量で高速です。

クリックした位置の色と類似色を塗りつぶします(フラッドフィル)。

28

プレビュー左側でクリックすると、その色と近い領域が透過されます。

クリック位置の色を画像全体から一括で透過します。

20

AI結果の細部を手動で修正。「復元」で戻し、「消去」で追加透過します。

20

プレビュー

元画像

結果

背景合成(任意)

透過済み画像に背景色を合成して保存します。選択しなければ透過 PNG のまま保存されます。

💡 Tips: まず「AI自動透過」を試し、細部(髪の先端など)は「手動ブラシ修正」で微調整するのがおすすめ。PC(WebGPU対応ブラウザ)で最高速動作。

中部広告スロット 300 x 250

使い方

  1. 画像をドラッグ&ドロップまたは選択してアップロード。
  2. 「AI自動透過(人物)」または「(物体)」を選択し、実行ボタンを押す。初回のみモデルをダウンロード(人物 約25MB / 物体 約4.7MB)。
  3. 結果の細部を「手動ブラシ修正」で微調整(任意)。
  4. 背景を透過のまま保存するか、任意色で合成して保存。PNG(透過対応)・JPEG(背景合成)選択可。

利用している AI モデル

MODNet(人物用)

U²-Net(物体用)

ONNX Runtime Web

プライバシー

本ツールは画像を外部サーバーに一切送信しません。モデルファイル(MODNet/U²-Net)とランタイム(ONNX Runtime Web)のダウンロードのみが発生し、画像処理はすべてあなたのブラウザ内で完結します。キャッシュされたモデルはブラウザのストレージを消去すると削除されます。

ハードウェア要件

よくある質問

どのAIモデルを使っていますか?

MODNet(Apache-2.0ライセンス、Hugging Face経由でXenova/modnetから配信、約25MB)と U²-Net(Apache-2.0、約4.7MB)を使用しています。

画像はどこで処理されますか?

すべてあなたのブラウザ内(クライアント)で処理されます。画像は一切外部サーバーに送信しません。

モバイルでも動きますか?

はい。処理時間はスマホで3〜6秒、PCで1〜2秒です。WebGPU対応ブラウザではさらに高速化されます。

髪の毛の細かい部分も抜けますか?

はい。MODNetは髪の毛1本レベルで精細な境界を認識するよう学習されており、remove.bgや Photoshop の「背景を削除」に近い品質が得られます。

人物以外の物体も透過できますか?

はい。U²-Netモードで対応します。人物以外(商品・ペット・食品など)はこちらがおすすめです。

結果の細部を手動修正できますか?

はい。「手動ブラシ修正」モードで「復元」「消去」を切り替えて調整できます。

保存形式は何ですか?

透過PNG / JPEG(背景合成) の 2 形式。透過PNGは他の画像編集ソフトにそのまま持ち込めます。

商用利用できますか?

はい。ツール・モデル(MODNet / U²-Net)ともにApache-2.0ライセンスで商用利用可能です。

下部広告スロット 728 x 90