
Siriに関しては、AppleのAI開発はやや遅々として進んでいないように見えるが、同社は手をこまねいているわけではない。同社はつい最近、シンプルなテキストコマンドで写真を編集できるオープンソースのAIモデルをリリースしたばかりで、これは画期的な成果と評されている。
MGIE (Multimodal large language model Guided Image Editing) という名前のこのモデルでは、ユーザーは自然言語を使用してエディターに何を達成したいかを伝えることができます。
たとえば、ユーザーが「空をもっと青くして」と言うだけで、MGIE はそれを「空を識別して選択し、この領域の彩度を 20% 上げる」と解釈します。
VentureBeat は、MGIE が非常に幅広い編集を実行できると報告しています。
MGIEは、切り抜き、サイズ変更、回転、反転、フィルターの追加など、Photoshopスタイルの一般的な編集機能を備えています。さらに、背景の変更、オブジェクトの追加・削除、画像のブレンドなど、より高度な編集も可能です。
MGIEは、明るさ、コントラスト、シャープネス、カラーバランスなど、写真全体の品質を最適化できます。また、スケッチ、絵画、漫画といった芸術的な効果を適用することも可能です。
MGIEは、顔、目、髪、服装、アクセサリーなど、画像内の特定の領域やオブジェクトを編集できます。また、モデルはこれらの領域やオブジェクトの属性(形状、サイズ、色、テクスチャ、スタイルなど)を変更することもできます。
モデルが期待どおりの結果を生成しない場合は、リクエストを調整したり、効果を元に戻して別の指示を与えたりすることができます。
今のところ、Github上のオープンソースモデルですが、オンラインデモがあり、自分の画像をアップロードして操作することができます。少し触ってみたところ、まだ初期ベータ版であることは明らかですが、その可能性は十分に感じられます。
これが私のオリジナルの写真です:

私の指示は「空をもう少し赤くして」というものでしたが、MGIEはそれを「写真の空をきらめく青ではなく、赤みがかった色にしてください。街並みは真っ白な空ではなく、陰影のある色にしてください」と解釈しました。これがその結果です(理由は不明ですが、トリミングされています)。

現状では使える編集機能ではありませんが(そもそもデモは非常に低解像度の出力しかサポートしていません)、金属フレームの内側の反射を空に合わせて正確に調整している点が特に印象的です。確かに、初期の段階では期待が持てます。
Apple がより洗練された結果を提供できるようになると、この機能を iPhone に追加するかどうか、あるいはいつ追加するかはまだわかりませんが、AI 写真撮影機能を可能な限り自動化し、使いやすくすることを常に目指してきた企業にとって、これは非常に論理的なステップであるように思われます。
jidoon.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。