Η Apple μόλις ανακοίνωσε μια νέα σουίτα λειτουργιών προσβασιμότητας που θα φτάσουν “αργότερα φέτος” στα iPhone και iPad της, πιθανότατα ως μέρος του iOS 18 και του iPadOS 18, που πρόκειται να αποκαλυφθούν επίσημα τον επόμενο μήνα.
Το πιο ενδιαφέρον από αυτά είναι το eye tracking, το οποίο θα υποστηρίζεται τόσο σε iPhone όσο και σε iPad και θα σας επιτρέπει να ελέγχετε τις συσκευές με τα μάτια σας, όπως υποδηλώνει άλλωστε και η ονομασία.
Το eye tracking απευθύνεται κυρίως σε χρήστες με αναπηρίες, ωστόσο όλοι θα μπορούν να το χρησιμοποιήσουν. Ακολουθώντας το trend της περιόδου, θα τροφοδοτείται από AI. Αρχικά, θα περάσετε από μια φάση βαθμονόμησης μερικών δευτερολέπτων, η οποία θα πραγματοποιηθεί μέσω της μπροστινής κάμερας και στη συνέχεια θα μπορείτε να χρησιμοποιήσετε τη νέα δυνατότητα. Όλα τα δεδομένα που χρησιμοποιούνται δεν “εγκαταλείπουν” ποτέ τη συσκευή σας, καθώς υποστηρίζονται από on-device machine learning.
Δεν θα χρειαστείτε πρόσθετο hardware ή κάποιο αξεσουάρ και το eye tracking θα λειτουργεί με κάθε εφαρμογή. Θα σας επιτρέψει να περιηγηθείτε στα στοιχεία ενός app με τα μάτια σας και να χρησιμοποιήσετε το Dwell Control για να ενεργοποιήσετε κάθε στοιχείο εστιάζοντας σε αυτό.
Παράλληλα, η Taptic engine στο iPhone σας θα αναπαράγει taps, textures και δονήσεις, όλα συντονισμένα με τη μουσική που ακούτε. Σε πρώτη φάση, το Music Haptics της Apple λειτουργεί μόνο με το Apple Music. Ωστόσο, θα είναι διαθέσιμο ως API για τους προγραμματιστές προκειμένου να κάνουν τη μουσική πιο ελκυστική στις δικές τους εφαρμογές.