Το Mobile World Congress 2025 βρίσκεται σε εξέλιξη στη Βαρκελώνη και η Google παρουσίασε δύο νέες λειτουργίες τεχνητής νοημοσύνης που θα αρχίσουν να διατίθενται σε Android συσκευές αργότερα μέσα στον μήνα.
Η πρώτη λειτουργία είναι το Live Video, το οποίο η Google είχε παρουσιάσει αρχικά στο I/O 2024 τον περασμένο Μάιο. Χρησιμοποιεί τις πολυτροπικές δυνατότητες του Gemini AI για να επιτρέπει στους χρήστες να δείχνουν στο chatbot ό,τι βλέπει η κάμερα του κινητού τους. Στο demo που μοιράστηκε η Google, το Gemini μπορεί να αναγνωρίσει διακόσμηση mid-century modern και να προσφέρει σχετικές συμβουλές, όπως για την εφαρμογή αυτών των αρχών στην αγγειοπλαστική.
Η δεύτερη λειτουργία είναι το screensharing, που λειτουργεί όπως θα περίμενε κανείς. Οι χρήστες μπορούν να μοιράζονται την οθόνη τους με το Gemini, ζητώντας πληροφορίες ή επεξηγήσεις σχετικά με ό,τι βλέπουν σε έναν ιστότοπο ή μια εφαρμογή. Αν και η Google δεν εισάγει κάτι ριζοσπαστικά νέο, καθώς το ChatGPT Advanced Voice Mode υποστηρίζει live video και screensharing από το τέλος του 2024, η διαφορά είναι ότι οι χρήστες του Android δεν χρειάζεται να μπουν σε ξεχωριστή εφαρμογή για να χρησιμοποιήσουν τις νέες δυνατότητες του Gemini.
Οι λειτουργίες Live Video και screensharing θα είναι διαθέσιμες αρχικά για τους συνδρομητές του Gemini Advanced, το οποίο περιλαμβάνεται στο πακέτο Google One AI Premium με κόστος 20 δολάρια τον μήνα. Επίσης, η Verizon πρόσθεσε πρόσφατα τη συνδρομή ως προνόμιο σε ορισμένα από τα προγράμματά της.
Με αυτές τις νέες λειτουργίες, η Google ενισχύει τη θέση της στον τομέα της τεχνητής νοημοσύνης και προσφέρει στους Android χρήστες πιο άμεση και ενσωματωμένη εμπειρία αλληλεπίδρασης με το Gemini AI.