Deprecated: Function create_function() is deprecated in /www/www.dadamoney.com/wp-content/themes/videopro/inc/widgets/popular_posts.php on line 331

Deprecated: Function create_function() is deprecated in /www/www.dadamoney.com/wp-content/themes/videopro/inc/widgets/widget-recent-comment.php on line 113

Deprecated: Function create_function() is deprecated in /www/www.dadamoney.com/wp-content/themes/videopro/inc/widgets/widget-social-accounts.php on line 75

Deprecated: Function create_function() is deprecated in /www/www.dadamoney.com/wp-content/themes/videopro/inc/widgets/widget-categories.php on line 270

Warning: Cannot modify header information - headers already sent by (output started at /www/www.dadamoney.com/wp-content/themes/videopro/inc/widgets/popular_posts.php:331) in /www/www.dadamoney.com/wp-includes/feed-rss2.php on line 8
assistenti intelligenti – DaDaMoney https://www.dadamoney.com Un aggregatore di contenuti finanziari in formato video rivolto a risparmiatori, banker, promotori, consulenti finanziari e curiosi di finanza. Wed, 18 Dec 2019 11:10:40 +0000 it-IT hourly 1 https://www.dadamoney.com/wp-content/uploads/cropped-dadamoney_logo-32x32.png assistenti intelligenti – DaDaMoney https://www.dadamoney.com 32 32 Intelligenza artificiale. Come libererà i dottori dalle tastiere e dalle cantine | Big Think https://www.dadamoney.com/?p=22717 Tue, 28 May 2019 22:00:00 +0000 https://www.dadamoney.com/intelligenza-artificiale-liberare/ Intelligenza artificiale. Come libererà i dottori dalle tastiere e dalle cantine. Lo racconta, bene, il Dott. Eric Topol, esperto di genomica e big data.

– Le macchine possono aiutare i medici individuando anomalie nelle scansioni a raggi X o MRA che i medici stessi potrebbero aver perso.

– A.I. può anche aiutare i medici analizzando i dati e, attraverso l’uso di algoritmi, produce possibili diagnosi.

– Il tempo liberato, come i medici fanno i loro giri, può aiutare i medici a stabilire migliori collegamenti con i loro pazienti, che a loro volta possono portare a piani di trattamento migliori.

Eric Topol, professore nel Dipartimento di Medicina Molecolare di Scripps, è vicepresidente esecutivo di Scripps Research e fondatore e direttore di Scripps Research Translational Institute (in precedenza Scripps Translational Science Institute). Il suo lavoro fonde la genomica, i big data e le tecnologie informatiche e le tecnologie digitali per promuovere la promessa della medicina personalizzata. È l’autore di Deep Medicine: come l’intelligenza artificiale può rendere di nuovo l’assistenza sanitaria umana.

La tecnologia non può migliorare l’umanità, che è spersonalizzante, che sta per sminuire. In realtà penso che sia esattamente l’opposto in medicina, perché se siamo in grado di esternalizzare macchine e tecnologia, possiamo ripristinare il legame umano, che sta erodendo da decenni. Quindi quello che intendo per medicina profonda è in realtà una storia in tre parti: la prima è ciò che chiamiamo fenotipizzazione profonda. E questa è una comprensione molto intensiva e completa di ogni persona ad ogni livello. Quindi questa è l’idea di sapere tutto sulla loro biologia, non solo il loro genoma, il loro microbioma e tutte le cose dei diversi strati della persona, ma anche la loro fisiologia attraverso i sensori, la loro anatomia attraverso le scansioni, il loro ambiente attraverso sensori, e quindi dati tradizionali.

Quindi questa è fenotipizzazione profonda. Ora, nessun essere umano può elaborare tutti quei dati, perché è dinamico, ed è in realtà abbastanza grande da gestire. Ecco perché abbiamo un apprendimento approfondito. Questo è un tipo di intelligenza artificiale che prende tutti questi input e si cristallizza davvero, distillando tutto. E questo ci porta ad una profonda empatia. E la profonda empatia è quando abbiamo questo outsourcing per macchine e algoritmi. Abbiamo tutti questi dati e ora possiamo tornare al lato umano di questa connessione. Bene, dove l’apprendimento approfondito funziona meglio oggi è con le immagini. E quindi le immagini mediche sono particolarmente ideali perché si scopre che i radiologi perdono tutto in oltre il 30% delle scansioni eseguite oggi. Quindi, per non perdere queste cose, puoi addestrare le macchine ad avere una visione migliore degli umani. La differenza qui è che i radiologi possono mettere più contesto in esso, ma le macchine, sono molto complementari.

Possono raccogliere cose che i radiologi non vedrebbero, come un nodulo su una radiografia del torace o un’anomalia su un MRA che sarebbe mancato perché i radiologi leggono da 50 a 100 scansioni al giorno. Ci sono molte volte che semplicemente non vediamo le cose. Quindi, quando porti i due insieme, ottieni la migliore economia. Ciò non significa che elimineremo la necessità dei radiologi. Renderà l’accuratezza e la velocità molto meglio. E quello che proietto è che vedremo un momento in cui i radiologi escono dal seminterrato al buio e in realtà si connettono con i pazienti, perché vogliono vedere i pazienti. Vogliono essere in grado di condividere la loro esperienza e non hanno un interesse particolare nel fare un’operazione o una procedura. Vogliono solo segnalare ciò che trovano e comunicare quello. Quindi penso che vedremo un rimodellamento della radiologia a causa di questo notevole miglioramento delle prestazioni attraverso l’intelligenza artificiale.

C’è molto uso dell’IA nell’ambientazione dell’ospedale, perché quando i pazienti entrano e cercano di prevedere cosa accadrà, non siamo così bravi in ​​medicina. Quindi quasi tutto ciò che puoi pensare è stato testato sugli algoritmi. Un esempio è la sepsi. Quindi cosa succederà? La persona ha sepsi, una grave infezione? Stanno per scompensarsi e forse morire di sepsi? Non siamo così bravi in ​​questo, risulta dall’algoritmo. Ma ciò che abbiamo imparato è che possiamo usare la stessa visione artificiale, sia che si tratti di infermieri, medici, persone che circolano in una stanza di un ospedale, per vedere se stanno facendo o meno il lavaggio a mano appropriato, e per far partire un segnale quello, no, non è stato fatto e deve essere fatto. Quindi ci sono molte cose sulla sicurezza del paziente con la visione artificiale.

Quindi, ad esempio, prevenire le cadute, vedendo che qualcuno cammina è instabile. Un altro grande esempio è l’unità di terapia intensiva. Alcune persone possono tirare fuori il loro tubo di respirazione, e ora abbiamo una visione artificiale che può monitorarlo in modo da non avere un’infermiera che deve stare nella stanza tutto il tempo. Bene, la cosa più grande di cui abbiamo bisogno è il dono del tempo. Piuttosto che avere questo supporto AI? Ed è a due livelli. Quindi, se puoi sbarazzarti delle tastiere o liberare dalle tastiere, ristabilire il contatto visivo faccia a faccia, questo è un buon inizio. Sta per succedere. Ma anche i pazienti ora possono avere algoritmi che generano i propri dati, sia che si tratti del loro ritmo cardiaco, o della loro eruzione cutanea, o di una possibile infezione del tratto urinario, possono ottenere quella diagnosi ora da un algoritmo. Ciò libera di nuovo i medici a occuparsi di questioni più serie, ed è questo che è così eccitante se cogliamo questa opportunità, che non so se la vedremo di nuovo per generazioni, se mai, perché questa tecnologia offre quel potenziale. Ma non accadrà per caso.

Se non stiamo assumendo questo, in realtà, l’attivismo per promuovere il dono del tempo e rivolgerci verso l’interno, come la comunità medica, se non lo facciamo, vedremo una compressione ancora peggiore di quella attuale. Questa è un’opportunità che non possiamo assolutamente perdere.

]]>
Assistenti intelligenti. Perché Amazon Alexa e Google Assistant stanno diventando onnipresenti | CNBC https://www.dadamoney.com/?p=22364 Sun, 13 Jan 2019 23:00:00 +0000 https://www.dadamoney.com/assistenti-intelligenti-amazon-alexa-google-assistant-onnipresenti/ Fino a poco tempo fa, Amazon e Google hanno gareggiato per la presenza nelle nostre case attraverso i propri gadget: assistenti intelligenti come Amazon Echo e Google Home, componenti aggiuntivi TV come Chromecast e Fire TV, e persino sistemi di sicurezza domestica come Nest and Ring.

Al CES 2019, questa competizione è stata portata ad ebollizione, mentre i partner di entrambe le società hanno lanciato dozzine di prodotti che porteranno Amazon Alexa e Google Assistant in quasi ogni aspetto della nostra vita.

Ho frequentato il CES per più di un decennio, ed è sempre sede di tutti i tipi di molte novità, dai robot ai prodotti che tracciano la salute, ed alle ultime tecnologie televisive. Mentre quelle cose erano tutte in mostra anche quest’anno, non ho potuto fare a meno di notare la massiccia presenza di Google e Amazon, due aziende che non esistevano nemmeno al CES un paio di anni fa. Questo perché i loro assistenti intelligenti, quelli che puoi controllare con la voce, vengono incorporati in quasi tutte le categorie di nuovi prodotti introdotti al CES, dai televisori ai forni, persino ai tosaerba ed ai servizi igienici.

Quest’anno Google ha triplicato le dimensioni del suo stand, dove ha persino avuto un ottovolante che ha portato i ciclisti attraverso un’esperienza che spiegava come utilizzare l’Assistente Google durante la giornata, dall’assumere indicazioni stradali e informazioni sul traffico per ordinare cibo e scattare un selfie.

Amazon aveva tre cabine diverse. Ce n’era uno per “Key by Amazon”, che mostrava come si possono consegnare i pacchi all’interno della tua casa, nella tua auto e – novità di quest’anno – nel tuo garage. Aveva anche uno stand dedicato a Ring, il suo sistema di sicurezza domestica, che mostrava una gamma di nuovi prodotti come telecamere di sicurezza e luci. Amazon aveva anche un’intera stanza dove aveva una serie di prodotti dei suoi partner, tra cui occhiali intelligenti, macchine da caffè, forni e altro, tutti con il built-in di Alexa.

Entrambe le aziende hanno anche rivelato quanto siano diffusi i loro ecosistemi.

Google ha dichiarato che entro la fine di gennaio, oltre 1 miliardo di dispositivi avrà integrato Google Assistant. Questo è salito da 500 milioni a maggio, ma gran parte di questa crescita è dovuta al fatto che Assistant ora viene fornito come funzionalità standard sui telefoni Android. Google Assistant è anche integrato in 10.000 diversi dispositivi per la casa intelligente da più di 1.600 marchi, afferma la società.

Amazon ha dichiarato che ora ci sono più di 150 prodotti con Alexa integrato direttamente – il che significa che puoi parlarci senza possedere un’Echo – e più di 28.000 prodotti di 4.500 marchi che lo supportano. Ciò significa che hai bisogno di Amazon Echo per controllare il gadget. Amazon ha anche dichiarato di aver venduto più di 100 milioni di dispositivi Alexa.

]]>