Apple sta facendo una mossa significativa nel campo BRINE-Computer Interface (BCI), sviluppando una tecnologia che potrebbe consentire agli utenti di controllare i loro iPhone e altri dispositivi usando solo i loro pensieri come riportato dal giornale di Wall Street . L’iniziativa rappresenta una potenziale rivoluzione nell’interazione umana-computer, spostandosi dal tocco fisico e dal movimento all’interpretazione diretto dei segnali neurali.
Il focus iniziale è quello di migliorare l’accessibilità per le persone con gravi disabilità fisiche che non possono usare le mani, come quelle con lesioni del midollo spinale o condizioni del midollo spinale. Consentendo a questi utenti di interagire con i propri dispositivi attraverso l’attività cerebrale decodificata, Apple mira a rendere i suoi prodotti più accessibili a decine di migliaia di persone.
Questa spinta Apple come attore chiave nel fiorente paesaggio BCI, unendo aziende come Neuralink e Syncron. La società sta lavorando attivamente con i partner e sviluppando un nuovo standard per supportare futuri dispositivi BCI, segnalando un impegno a lungo termine per integrare il controllo neurale nel suo ecosistema. Synchron
Gli sforzi di Apple includono una collaborazione con Synchron, un’azienda che ha sviluppato un dispositivo simile a uno stent chiamato stentrode . Questo dispositivo viene inserito attraverso la vena giugulare e consegnato ai vasi sanguigni sulla superficie del cervello, una procedura meno invasiva della chirurgia cerebrale.
Un’antenna per il dispositivo di sincroni si trova sotto la pelle del torace di chi lo indossa. Lo stentrode contiene elettrodi in grado di leggere i segnali cerebrali, che vengono quindi tradotti per consentire agli utenti di selezionare icone su uno schermo.
Un primo tester dell’impianto di Stentrode, Mark Jackson, che ha SLA e non può viaggiare da casa sua, ha imparato a controllare il suo iPhone, iPad e la sua visione Pro. href=”https://www.wsj.com/tech/apple-brain-computer-interface-9ec69919?st=5qmps&reflink=desktopwebshare_permalink”_ blank”> Il diario di Wall Street .
questo è ottenuto con Apple’s Operatings Controllo, che può reindirizzare il controllo su dispositivi di input alternativi, incluso un impianto cerebrale. Jackson ha notato l’impatto dell’utilizzo di questa realtà migliorata.
Sebbene promettente, la tecnologia è ancora nelle sue fasi iniziali e la navigazione è attualmente più lenta rispetto all’interazione tradizionale del dispositivo. Apple prevede di rilasciare il nuovo standard sviluppato in collaborazione con Synchron entro la fine dell’anno, rendendolo disponibile per altri sviluppatori.
L’amministratore delegato della sincrone Tom Oxley ha indicato che uno standard costruito specificamente per questi impianti potrebbe sbloccare maggiori possibilità. Synchron ha anche dimostrato il suo BCI abilitato agli AI, alimentato dalla piattaforma Nvidia Holoscan, visualizzata su Apple Vision Pro a gtc 2025 abilitanti di digitale e fisico di digitale e fisico di digitale e fisico in ambienti fisici e fisici.
filmati rilasciati da Synchron a marzo mostra un utente BCI di nome Rodney, che vive con SLA, controllando il suo ambiente Smart Home Ambiente a mani libere, senza voce e senza touch utilizzando le funzionalità di Synchron BCI e Apple Vision Pro AssistiTouch. Il BCI di Synchron può anche controllare i dispositivi Smart Home a Amazon Alexa.
Un vero punto di partenza da @nvidia VP e GM di Healthcare, Kimberly Powell Condividi la nostra demo e il viaggio di Rodney durante il suo keynote. Un momento potente che non dimenticheremo.
La scorsa settimana, abbiamo avuto l’opportunità di condividere la nostra visione con un’incredibile comunità di esperti,… pic.twitter.com/cew6swf2hp
-syncron (@synchronn) href=”https://twitter.com/synchroninc/status/1905993897836265915?ref_src=twsrc%5etfw”_ blank”> marzo 29, 2025