Dov’era tutta l’intelligenza artificiale alla WWDC 2023?
Con il sigillo spezzato dal rilascio di ChatGPT lo scorso novembre, l'intelligenza artificiale generativa ha fatto irruzione nella società tradizionale con una ferocia mai vista dai tempi della famosa disavventura di Pandora con il vaso della miseria. La tecnologia è improvvisamente ovunque, con startup e leader del settore che si affrettano ad aggiungere questa funzionalità intelligente del giorno ai loro stack di codice esistenti e a calzare la promessa di trasformazione dei contenuti generati dalle macchine in ogni loro app. A questo punto del ciclo pubblicitario saresti uno sciocco a non gridare ai quattro venti i tuoi successi genAI; è rapidamente diventato l'unico modo per farsi ascoltare al di sopra del frastuono di tutti i chatbot personalizzabili e dei venditori di diapositive Powerpoint autoprodotte che inondano il mercato.
Se l'ultima conferenza I/O di Google o il nuovo team di sviluppo dedicato di Meta fossero indicativi, anche i più grandi attori del settore tecnologico si stanno preparando a dare il massimo su genAI. L'evento di Google era incentrato sulle ambizioni dell'azienda in materia di intelligenza artificiale relative a Bard e PaLM 2, forse anche a scapito dell'hardware annunciato, inclusi i telefoni Pixel Fold e 7a e Pixel Tablet. Dalle funzionalità Smart Compose di Gmail a Real Tone e Magic Editor di Camera, da Project Tailwind agli sfondi generativi di 7a, l'intelligenza artificiale è stata la prima sulla bocca di ogni dirigente di Alphabet a salire sul palco di Shoreline.
Se avessi bevuto due dita ogni volta che Apple ne ha parlato durante il keynote della WWDC 2023, saresti completamente sobrio.
Zero: questo è il numero di volte in cui un presentatore sul palco ha pronunciato la frase "intelligenza artificiale" alla WWDC 2023. La cosa più vicina all'intelligenza artificiale che abbiamo ottenuto è stata "Aria" e il termine "apprendimento automatico" è stato pronunciato esattamente sette volte.
Grandi offerte sull'elettronica di consumo direttamente nella tua casella di posta, a cura del team editoriale di Engadget. Vedi l'ultimo
Si prega di inserire un indirizzo email valido
Seleziona una newsletter
Iscrivendoti, accetti i Termini e l'Informativa sulla privacy di Engadget.
Questo non vuol dire che Apple non stia investendo molto nella ricerca e nello sviluppo dell’intelligenza artificiale. I prodotti esposti durante il keynote di martedì erano pieni zeppi di tecnologia. Le funzionalità di "ducking automatico" sono potenziate dall'apprendimento automatico sul dispositivo, così come il video live Lock Screen (che lo utilizza per sintetizzare i fotogrammi interstiziali) e i suggerimenti di scrittura personalizzati e stimolanti della nuova app Journal. Le funzionalità di compilazione automatica dei PDF si basano su sistemi di visione artificiale per capire quali campi vanno dove (lo fa anche il nuovo test della miopia delle app per la salute, solo con la distanza dello schermo di tuo figlio) mentre gli AirPods ora personalizzano le impostazioni di riproduzione in base alle tue preferenze e alle condizioni ambientali prevalenti. Tutto grazie ai sistemi di machine learning.
È solo che Apple non ne ha parlato. Almeno, non direttamente.
Anche quando si discutono le funzionalità all'avanguardia delle nuove cuffie Vision Pro, che si tratti dell'elaborazione del linguaggio naturale che entra negli input vocali, del ray tracing audio, della magia nera della visione artificiale o del tracciamento dei gesti delle mani in tempo reale e dell'ID ottico comportano - la discussione è rimasta incentrata su ciò che le funzionalità delle cuffie possono fare per gli utenti. Non quello che le cuffie potrebbero fare per lo stato dell'arte o per la corsa alla superiorità sul mercato.
La cosa più vicina che Apple ha ottenuto durante l'evento per descrivere apertamente gli aspetti pratici digitali che costituiscono i suoi sistemi di apprendimento automatico è stata la descrizione della funzionalità Persona di Vision Pro. Con le applicazioni del dispositivo fortemente orientate verso il gioco, l'intrattenimento e la comunicazione, non c'era mai stata la possibilità di superare tutto questo senza dover effettuare chiamate FaceTime con questi legati alla testa. Poiché una chiamata FaceTime in cui tutti sono nascosti dietro un visore vanificherebbe lo scopo di una videochiamata, Apple sta invece sfruttando un complesso sistema di apprendimento automatico per ricreare digitalmente la testa, il busto, le braccia e le mani di chi indossa Vision Pro, altrimenti noto come " Persona."
"Dopo un rapido processo di registrazione utilizzando i sensori anteriori di Vision Pro, il sistema utilizza un decoder codificatore avanzato e una rete neurale per creare il tuo personaggio digitale", ha affermato Mike Rockwell, vicepresidente del Technology Development Group di Apple, durante l'evento. "Questa rete è stata addestrata su un gruppo eterogeneo di migliaia di individui e offre una rappresentazione naturale che si adatta dinamicamente al movimento del viso e della mano."