19.6 C
Roma
martedì, 10 Giugno, 2025
HomeAskanewsApple indietro sull’AI punta sul "vetro liquido"

Apple indietro sull’AI punta sul "vetro liquido"

Roma, 9 giu. (askanews) – Apple ha annunciato a Cupertino l’apertura della tecnologia di Apple Intelligence in un aggiornamento del suo software e dei suoi servizi. Comunque indietro rispetto ai concorrenti sull’AI, secondo gli esperti, le presentazioni alla sua annuale Worldwide Developers Conference si sono concentrate su altre cose, tra cui le traduzioni in tempo reale per le telefonate. Il responsabile software Apple, Craig Federighi, scrive Reuters, ha affermato che l’azienda offrirà sia i propri strumenti sia quelli di OpenAI nel suo software principale per sviluppatori Apple e che l’azienda sta aprendo il modello di intelligenza artificiale che utilizza per alcune delle sue funzionalità a sviluppatori terzi.

Federighi ha anche detto che Apple prevede una revisione del design di tutti i suoi sistemi operativi nel segno di quello che ha chiamato “vetro liquido”, in cui icone e menu sono parzialmente trasparenti. Il nuovo design coprirà i sistemi operativi per iPhone, Mac e altri prodotti Apple. Ha anche detto che ai sistemi operativi Apple verranno assegnati nomi basati sull’anno di produzione anziché numeri sequenziali per ogni versione. Ciò unificherà le convenzioni di denominazione che sono diventate confuse poiché i sistemi operativi principali di Apple per telefoni, orologi e altri dispositivi sono stati lanciati in momenti diversi, con il risultato di una serie di sistemi operativi con numerazioni diverse per prodotti diversi.

Tra le altre nuove funzionalità, Apple ha introdotto il “Call Screening”, che consente agli iPhone di rispondere automaticamente alle chiamate da un numero sconosciuto e di chiedere il motivo della chiamata. Una volta che chi chiama ha spiegato il motivo, l’iPhone mostrerà una trascrizione della ragione della chiamata e suonerà. Apple ha inoltre affermato che aggiungerà la traduzione in tempo reale alle chiamate telefoniche e consentirà agli sviluppatori di integrare la sua tecnologia di traduzione in tempo reale nelle proprie app.

L’app Visual Intelligence di Apple, che può aiutare gli utenti, ad esempio, a trovare un paio di scarpe simili a quelle su cui hanno puntato la fotocamera dell’iPhone, verrà estesa all’analisi degli articoli sullo schermo dell’iPhone e collegata alle app. Apple ha fatto l’esempio di poter trovare una giacca simile a una vista online in un’app in cui si può acquistare.