Possibile che l’elefante americano abbia partorito solo un topolino? Una Alexa evoluta che farà leva su un VectorDB locale, dei modellini “idioti” a bordo e un collegamento con un’infrastruttura la cui latenza sarebbe molto più lenta di ciò che è oggi senza AI?

Di Nicola Grandis

Nell’AI – quella vera – stanno accadendo moltissime cose interessanti:

  • sta progredendo l’AI delle Spiking Neural Networks basata su chip neuromorfici. Forse il prossimo Breakout, per superare l’architettura di Von Neumann che ci accompagna da 100 anni. Northpole di IBM sembra promettente;
  • stanno avanzando le architetture Mamba, che forse a breve rimpiazzeranno quelle Transformer e ChatGPT dovrà diventare ChatGPM. Ci lavora metà della community OpenSource che lavora su AI;
  • c’è fermento nel settore dell’AI On-Chip e dei modelli frugali. Al Fraunhofer vanno forte sul tema;
  • si lavora a nuove architetture CPU, che incorporano blocchi di accelerazione FPGA, per utilizzare modelli specifici e piccoli AI, senza ricorrere a una GPU completa. Su questo ARM sta correndo.

Apple e la sfida dell’energia

Tutti i settori più in spinta sull’AI, quelli sopra, hanno una caratteristica comune: hanno come obiettivo quello di consumare meno energia delle attuali soluzioni. Apple ha atteso più di tutti. Da iPhone fino ai suoi fenomenali Notebook, Apple combatte con energia e batterie. Un server, per definizione, è collegato alla rete elettrica e non si fa problemi nel consumarla o almeno non più di tanti. Un device mobile, invece, ha una capacità limitata che dipende dalla sua batteria e questa non può avere una massa a piacere.

Più richiesta di energia implica batterie con una massa superiore per accumulare carica elettrica. Non esiste un problema tecnologico nel costruire batterie dalla massa corposa, ma poi la gravità le renderebbe troppo pesanti e i device prodotti dalla Mela risulterebbero scomodi da utilizzare.

WWDC e le novità di Apple

Ieri al WWDC abbiamo sentito di iOS18 e di Apple Intelligence, una sorta di Copilot castrato versione smartphone. La GenAI creerà delle emoji originali. Avrà un’integrazione con ChatGPT-4o, ma per chi non lo sapesse i tempi di risposta di questo strumento sono nell’ordine dei secondi o decine di secondi, e non mi ci vedo ad aspettarlo sullo smartphone in strada.

Apple è tra le aziende più brave nel custodire segreti. Difficile credere che l’elefante abbia partorito il topolino, difficile pensare che l’AI sullo smartphone del futuro sia questa. Un’Alexa evoluta che farà leva su un VectorDB locale, dei modellini “idioti” a bordo e un collegamento con un’infrastruttura la cui latenza rende tutto ciò che immaginiamo almeno 10 o 100X più lento di ciò che oggi facciamo senza AI.

Più probabilmente l’AI presentata oggi era un atto dovuto, una concessione all’hype generato da OpenAI. Un occhiolino strizzato a quel tipo di mercato consumer che pensa di spendere 1.000 euro per quell’aria che strappa qualche WoW la prima settimana.

Nessuno pensava che la Mela potesse sconfiggere la gravità, ma oggi Apple ha seguito la massa e non ha ricordato il suo motto “Think Different”. Ha smentito lo spot che nel 1984 la fece grande promettendo un Copilot rotto nel prossimo melafonino.

- Info -

Scarica l'App di Italiamac:
Promo

Disclamer: Questo articolo presenta le opinioni del suo autore indipendente o della fonte da cui è estratto e non di Italiamac. Può essere stato realizzato con l'assistenza della IA per la traduzione e il riassunto. Non è da considerarsi consulenza, consiglio d'acquisto o investimento, in quanto a puro titolo esemplificativo generico.