Apple enthüllt erste AI-Features von iOS 18, angeführt von Augen-Tracking und haptischer Musik
Nachdem Googles AI-Ambitionen bei der gestrigen Google I/O vor allem auf verbesserten virtuellen Assistenten und auf Suchfunktionen beschränkt waren, kündigt Apple heute per Pressemeldung eine Reihe nützlicher Features an, die noch im Laufe dieses Jahres auf iPhones bis hin zum iPhone 15 (ca. 800 Euro auf Amazon) sowie auf das iPad kommen sollen, vermutlich also mit dem Launch von iOS 18.
Allen voran führt Apple Augen-Tracking ein, wodurch es möglich ist, das iPhone und iPad zu bedienen, ohne die Touchscreens berühren oder auf die Sprachsteuerung zurückgreifen zu müssen. Das soll die Nutzung vor allem Anwendern mit eingeschränkter Mobilität deutlich erleichtern.
Dazu greift Apple auf die Frontkamera zurück, sämtliche zur Kalibrierung und Nutzung gespeicherten Daten sollen das Endgerät nie verlassen, um die Privatsphäre des Nutzers zu schützen. Apple betont, dass kein zusätzliches Zubehör erforderlich ist, um dieses Augen-Tracking verwenden zu können. Sogar Aktionen wie Swipe-Gesten lassen sich schlicht durch Augen-Bewegungen ausführen.
Ein Feature namens "Music Haptics" erlaubt es, Songs, die über Apple Music gestreamt werden, durch den Vibrations-Motor eines iPhones zu untermalen, wodurch diese für Nutzer mit eingeschränktem Gehör immersiver werden sollen. Durch eine neue API soll dieses Feature auch anderen Streaming-Diensten und Musik-Apps zur Verfügung stehen.
Vocal Shortcuts erlauben es dagegen, einzelne Begriffe zu hinterlegen, die Siri-Shortcuts und Aktivitäten starten können. "Atypical Speech" erlaubt es darüber hinaus, die Spracherkennung durch ein KI-Modell auf die eigene Stimme zu trainieren, auch wenn der jeweilige Nutzer aufgrund einer Erkrankung nicht deutlich sprechen kann. Auch dieses AI-Feature läuft vollständig auf dem iPhone, es werden keinerlei Daten auf einer Cloud gespeichert oder verarbeitet.
Sogenannte "Vehicle Motion Cues" sollen Motion Sickness reduzieren, die sich bei vielen Smartphone-Nutzern als Unwohlsein oder Schwindel bemerkbar macht, wenn diese auf ein Display starren, während die Umgebung vorbeizieht. Apple zeigt Punkte auf dem Display an, die sich in entgegengesetzte Richtung wie das Fahrzeug bewegen, also beispielsweise von oben nach unten, wenn das Auto beschleunigt. Diese Funktion kann automatisch aktiviert werden, wenn sich der Nutzer in einem fahrenden Auto befindet, und lässt sich jederzeit im Kontrollzentrum deaktivieren.
Virtual Trackpad erlaubt es, einen kleinen Bereich des Displays als Trackpad zu definieren, und das Smartphone zu steuern, ohne den Finger über diesen Bereich hinaus bewegen zu müssen. Switch Control ermöglicht es, das iPhone durch Fingergesten zu bedienen, die von der Kamera erkannt werden. Apple Vision Pro kann künftig Live-Untertitel einblenden, wenn Unterhaltungen mit Personen in der Realität geführt oder Dialoge in Apps zu hören sind.