Apple Intelligence ora può infiltrarsi nello schermo del tuo iPhone

Non sarebbe un keynote per sviluppatori nel 2025 senza un po' di intelligenza artificiale, giusto? Per quanto deludente sia stata Apple Intelligence dal suo lancio nell'ottobre dello scorso anno, Apple sembra impegnata a migliorare quell'esperienza con aggiornamenti fondamentali come... le nuove Genmoji? Ok, forse la WWDC 2025 non è stata un anno rivoluzionario per Apple Intelligence , ma ci sono comunque alcuni aggiornamenti degni di nota, tra cui una nuova funzionalità in grado di monitorare le azioni dell'utente sul telefono e di intraprendere azioni specifiche a seconda dello scenario.
L'Intelligenza Visuale, come la chiama Apple, è una funzionalità che espande le capacità multimodali oltre l'app Fotocamera, arrivando a toccare lo schermo dell'iPhone. "Gli utenti possono porre domande a ChatGPT su ciò che stanno guardando sullo schermo per saperne di più, oltre a cercare su Google, Etsy o altre app supportate immagini e prodotti simili", afferma Apple . "Se c'è un oggetto a cui un utente è particolarmente interessato, come una lampada, può evidenziarlo per cercare quell'oggetto specifico o oggetti simili online."
Non sembra affatto una novità, ma avvicina Apple Intelligence a concorrenti come Google, che ha una funzionalità Gemini che fa praticamente la stessa cosa. Avvicina anche Apple Intelligence al Sacro Graal dell'" IA agentica ", che è il termine usato dal mondo della tecnologia per descrivere un'IA in grado di fare cose per te. Per quanto funzionalità multimodali come l'Intelligenza Visuale siano diventate banali in un lasso di tempo molto breve, a mio parere hanno ancora il potere di migliorare l'esperienza utente con il telefono.

Credo di parlare a nome della maggior parte delle persone quando dico che usare l'iPhone non è più così semplice come una volta, e ci sono diverse ragioni per questo. Una è che ci aspettiamo che i nostri telefoni facciano molto di più di prima, il che significa che i dispositivi devono avere più funzioni per svolgere tutte queste funzioni. Il problema è che tenere traccia di queste funzioni e trovare un posto per loro in un'interfaccia utente non è facile, il che rende il software più pesante. L'intelligenza artificiale agentica ha la capacità di eliminare questo peso e portarti a ciò che desideri fare più velocemente. Se questo significa che potrò dedicare meno tempo all'inserimento dei dati della carta di pagamento o alla navigazione tra le app del mio telefono, allora sono assolutamente d'accordo.
Al momento, tutto questo è pura teoria, dato che Visual Intelligence è appena uscito e non possiamo dire con certezza se funzioni come promesso, ma non sono certo entusiasta dell'idea, anche se sono un po' deluso. Visual Intelligence dovrebbe anche supportare l'intelligenza artificiale sul dispositivo, il che è fantastico perché inviare dati dallo schermo del mio telefono a qualsiasi dispositivo non sarebbe in cima alla mia lista di cose da fare.
Ma non si è trattato solo di Intelligenza Visiva; Apple ha anche presentato nuove funzionalità di intelligenza artificiale come la Traduzione Live in Messaggi e FaceTime, per tradurre mentre si inviano messaggi o si telefona. Sono stati inoltre introdotti aggiornamenti a Genmoji e Image Playground, che aggiungono ulteriore personalizzazione e nuovi stili artistici per le immagini e le emoji generate. Inoltre, Apple renderà disponibile il suo modello di base on-device per l'Intelligenza Apple e inviterà gli sviluppatori di app di terze parti a progettare le proprie funzionalità di intelligenza artificiale.
"Gli sviluppatori di app potranno sfruttare Apple Intelligence per offrire agli utenti nuove esperienze intelligenti, disponibili offline e che proteggono la loro privacy, utilizzando l'inferenza AI gratuita", ha affermato Apple in una nota. "Ad esempio, un'app per la formazione può utilizzare il modello on-device per generare un quiz personalizzato a partire dagli appunti di un utente, senza costi per le API cloud, oppure un'app per l'outdoor può aggiungere funzionalità di ricerca in linguaggio naturale che funzionano anche offline."
Di nuovo, questa non è esattamente la notizia più sensazionale per Apple Intelligence, ma potrebbe rappresentare un valido modo per accelerare lo sviluppo di nuove funzionalità di intelligenza artificiale, soprattutto in un momento in cui Apple è in ritardo nel campo dell'intelligenza artificiale generativa e dei modelli linguistici di grandi dimensioni. A proposito di ritardi, una cosa degna di nota che mancava era l'aggiornamento di Siri basato sull'intelligenza artificiale di Apple, sebbene Apple abbia affrontato l'argomento cruciale, affermando che ne avremmo sentito parlare di più "entro la fine dell'anno". Non è affatto sorprendente, ma è sicuramente indicativo degli inciampi di Apple sul fronte dell'intelligenza artificiale.
La WWDC di quest'anno non ha fatto molto per dissipare le preoccupazioni che potreste avere sui progressi di Apple sul fronte dell'intelligenza artificiale, ma ha fatto un piccolo passo avanti, e questo potrebbe essere sufficiente per la maggior parte. Nonostante l'enfasi del settore sulle funzionalità di intelligenza artificiale, i consumatori hanno decisamente meno interesse per queste funzionalità, quindi dubito che l'aggiornamento di quest'anno impedirà a chiunque di correre a comprare l' ultimo iPhone quest'anno.
Chiunque faccia parte dell'Apple Developer Program può utilizzare le nuove funzionalità di Apple Intelligence già da oggi, mentre la prima beta pubblica sarà disponibile il mese prossimo. Se non siete interessati alle beta o non siete sviluppatori, dovrete aspettare fino all'autunno per provare appieno queste nuove funzionalità.
gizmodo