Google hat Lens, Apple hat Visual Intelligence. Die mit dem iPhone 16 eingeführte Funktion, mit der man KI-unterstützt Informationen über die Umgebung abfragen kann, gibt es mit iOS 18.4 nun auch für die iPhones 15 Pro und Pro Max. Damit lassen sich zum Beispiel:
Und wie startet man Visual Intelligence? In der Kamera-App auf jeden Fall schon einmal nicht. Vier Möglichkeiten gibt es, hier ist eine Anleitung.
Ab dem iPhone 15 gibt es statt des Ein-/Ausschalters für den Klingelton an der linken Seite des iPhones die Aktionstaste. Sie kann mit einigen Funktionen belegt werden.
Achtung: Das funktioniert nur bei den iPhones 15 Pro, 15 Pro Max und allen iPhones 16. Das iPhone 15 unterstützt kein Apple Intelligence und damit auch kein Visual Intelligence.
Links Taschenlampe, rechts Kamera. So sieht der Sperrbildschirm bei den meisten iPhones aus. Das lässt sich aber einfach ändern.
Am iPhone 16, 16 Plus, 16 Pro und 16 Pro Max gibt es an der rechten Gehäuseseite die Kamerasteuerungstaste. Wer sie etwas länger gedrückt hält, startet Visual Intelligence.
Während die Funktionalität von Visual Intelligence schon im erwartbaren Rahmen funktioniert, wirkt die Integration ins iPhone noch etwas unfertig. Auch dadurch, dass sich noch keine vorhandenen Bilder im Fotoalbum überprüfen lassen. Sie müssen direkt über die Funktion aufgenommen werden. Weitere Punkte:
Andernorts ist Visual Intelligence offenbar ein wenig weiter. Wie das Fachportal „heise online“ berichtet, lassen sich damit in den USA etwa Restaurants reservieren oder Bestellungen bei Lieferdiensten aufgeben. Weitere Features könnten folgen.
© dpa-infocom, dpa:250408-930-427078/1