
Appleは、Visual Intelligenceと呼ばれるApple Intelligence機能をiPhone 15 ProとiPhone 15 Pro Maxに導入しました。iOS 18.4ベータ2は、GoogleとChatGPT連携のビジュアル検索機能をiPhone 16シリーズ以外のモデルに導入する初のソフトウェアアップデートです。
ビジュアルインテリジェンスは当初、iPhone 16、iPhone 16 Plus、iPhone 16 Pro、iPhone 16 Pro Maxのカメラコントロールボタンを長押しすることでのみ起動できました。しかし、Appleは最近、カメラコントロールボタンのないiPhone 16eを発売しました。そのため、Appleはビジュアルインテリジェンスをアクションボタンとコントロールセンターに統合しました。
iOS 18.4 beta 2以降、Visual Intelligenceが初めてiPhone 15 ProとiPhone 15 Pro Maxで利用可能になりました。これらのモデルはApple Intelligenceのサポート(ベータ版)を初めて搭載しましたが、このAI機能は搭載されていませんでした。

Appleは以前、Visual IntelligenceがiPhone 15 Proに搭載されることを確認していましたが、どのソフトウェアアップデートでサポートされるかは明言していませんでした。iOS 18.4ベータ1はiPhone 15 Proをサポートしていませんでした。AppleがカメラコントロールなしでVisual Intelligenceを呼び出すためのサポートを開発中であることを最初に報じたのは9to5Macでした。
iPhone 15 Pro と iPhone 16e は、アクションボタンとコントロールセンターを通じて Visual Intelligence のサポートが含まれる唯一のモデルではありません。
iOS 18.4 ベータ 2 には、iPhone 16、iPhone 16 Plus、iPhone 16 Pro、iPhone 16 Pro Max で、アクション ボタンに割り当てられたタスクとして、またはコントロール センター タイルを通じて Visual Intelligence を呼び出す機能も含まれています。
iPad のサポートについてはまだ発表されていませんが、iPad は新しいハードウェアで Apple Intelligence をサポートしています。
jidoon.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。