Vi ricordate? L’anno scorso abbiamo già parlato di questo argomento [vedi: “IBM: le 5 innovazioni che cambieranno il mondo“] e trattandosi di un argomento esclusivamente tecnologico, trova posto sulle nostre pagine di pieno diritto. Si tratta dell’annuale manifestazione indetta dal gigante tecnologico americano IBM, con la quale Big Blue elenca le cinque innovazioni che potrebbero essere in grado di cambiare il modo di lavorare, vivere e divertirsi. La selezione delle 5 innovazioni si basa sulla ricerca condotta da IBM a livello mondiale per scoprire, in ogni angolo del pianeta tecnologie emergenti, tendenze sociali e di mercato che possono realizzare queste trasformazioni. Quest’anno, Big Blue ha cercato queste innovazioni in quello che viene definito “cognitive computing“. IBM ė infatti convinta che questo sarà l’anno delle macchine in grado di apprendere, adattarsi, iniziare a percepire il mondo così com’è realmente. Quindi, le innovazioni sono state ricercatore facendo riferimento ai sistemi di percezione umani, cioè i sistemi sensoriali di cui è dotato: olfatto, tatto, gusto, udito e vista.
Il cognitive computing, rappresenta il passo avanti tecnologico verso sistemi che potranno aiutarci nel lavoro e nelle attività quotidiane. Ci aiuterà a pensare, ma non penserà per noi. Ci aiuterà a informarci e ci fornirà informazioni più precise e pertinenti, consentendoci di migliorare la nostra esistenza e di abbattere ogni tipo di barriera (linguistica, razziale, geografica, ecc.).
TATTO
Toccare attraverso il cellulare.
La sfida è grande, ma pare che le tecnologie aptiche e grafiche, siano mature per questo salto tecnologico. nei prossimi 5 anni assisteremo ad una rivoluzione di alcuni settori della manifattura e non solo. Attraverso il sistema delle vibrazioni di cui sono dotati i nostri cellulari, sarà possibile simulare le caratteristiche di una superficie. In pratica, il nostro cellulare vibrerà in maniera differenziata a seconda il tipo di tessuto che stiamo toccando, simulandone al tatto la differenza. Per cui, le vibrazioni saranno diverse se il tessuto da simulare è seta oppure lino, trasferendo ai recettori sensoriali posti sulle nostre dita il senso di quello che stiamo toccando. Sarà quindi possibile scegliere un tessuto dall’altra parte del mondo e scegliere anche la trama virtualmente, visualizzando il colore e la tessitura. Già tecnologie simili esistono nel campo video ludico, dove lo spettatore giocatore viene immerso in una dimensione quadrimensionale. Oggi si stanno sviluppando applicazioni per il retail, la sanità ed altri settori, utilizzando tecnologie aptiche, sensibili alla pressione e a raggi infrarossi. Secondo IBM, questa tecnologia diventerà onnipresente nella nostra quotidianità, trasformando i telefoni cellulari in strumenti per l’interazione naturale e intuitiva con il mondo che ci circonda.
VISTA
Dal pixel un mondo di informazioni.
Scattiamo 500 miliardi di foto l’anno. Ogni minuto vengono caricate su YouTube 72 ore di video. Secondo le previsioni, il mercato globale della diagnostica per immagini crescerà a 26,6 miliardi di dollari entro il 2016. Oggi i computer comprendono le immagini solo in base al testo che utilizziamo per taggarle o intitolarle; la maggior parte delle informazioni – l’effettivo contenuto dell’immagine – è un mistero. Nei prossimi cinque anni, i sistemi saranno in grado non solo di guardare e riconoscere il contenuto delle immagini e dei dati visivi, ma trasformeranno i pixel in significato, iniziando a capirne il senso, così come un essere umano vede e interpreta una fotografia. In futuro, funzionalità simili a quelle del cervello consentiranno ai computer di analizzare caratteristiche come colore, modelli di struttura o informazioni sui margini e di estrarre elementi di conoscenza dai supporti visivi. Ciò avrà un impatto profondo su settori quali la sanità e l’agricoltura. Entro cinque anni, queste funzionalità saranno messe in pratica nel settore sanitario, dando un senso agli enormi volumi di dati medici, come risonanze magnetiche, TAC, radiografiche e immagini ecografiche, per acquisire informazioni adattate a una particolare area anatomica o a una patologia. Gli elementi critici in queste immagini possono essere impercettibili o invisibili all’occhio umano e richiedono una misurazione attenta. Essendo addestrati a discriminare che cosa cercare nelle immagini – ad esempio distinguendo il tessuto sano da quello malato – e mettendolo in correlazione con la cartella clinica del paziente e la letteratura scientifica, i sistemi in grado di “vedere” aiuteranno i medici a rilevare i problemi con maggiore velocità e accuratezza.
UDITO
Dai suoni alle emozioni.
IBM è sicura di questo, cioè che i computer del prossimo futuro, saranno in grado attraverso sofisticati sistemi di percepire, comprendere e tradurre ogni tipo di suono. Per cui, ad esempio, comprendere i lamenti di un neonato, sarà tradotto in linguaggio comprensibile dagli adulti. I computer interpreteranno ogni tipo di lamento e legandolo ad altre informazioni sensoriali o fisiologiche, come frequenza cardiaca, polso e temperatura, saranno in grado di dirci di cosa ha bisogno il bambino. Il sistema registrerà i suoni e ogni volta che si troverà di fronte ad uno nuovo, lo confronterà con gli altri, lo immagazzinerà in una banca dati e trarrà informazioni per la sua successiva interpretazione. Ad esempio, gli scienziati della IBM, stanno monitorando i suoni che i sistemi di sfruttamento dell’energia dal moto ondoso provocano nelle profondità marine, cioè se questi apparecchi, modificano o disturbano in qualche modo l’ecosistema marino.
GUSTO
Mangiare intelligente.
Sistemi complessi uniranno la chimica dei composti alimentari con la psicologia dei sapori. Ciò che piace verrà correlato con la sua composizione chimica. Dal confronto di questi dati con milioni di ricette questo sistema diverrà creativo, capace di associare chimicamente cibi e sostante che piacciono, aiutando nella scelta e nella combinazione infinita di ingredienti e prodotti. I computer, saranno in grado di analizzare algoritmicamente la composizione dei cibi e associarle ai motivi per cui alcune persone li associano ai cibi preferiti. Inoltre, più importante, i computer saranno in grado di determinare automaticamente i cibi migliori per le nostre specificità, ossia i cibi più sani e quelli più indicati per una corretta alimentazione del nostro corpo. Tutto ciò prediligendo le sostanze che noi associamo con le più buone o le preferite. Ad esempio, per malati di diabete, il sistema potrà trovare ricette e sapori piacevoli, ma capaci anche di tenere sotto controllo i livelli glicemici.
OLFATTO
Computer olfattivi.
Nel corso dei prossimi cinque anni, minuscoli sensori incorporati nel computer o nel cellulare rileveranno se state per prendervi un raffreddore o un’altra malattia. Analizzando odori, biomarcatori e migliaia di molecole nel respiro di una persona, i medici avranno un aiuto per la diagnosi e il monitoraggio dell’insorgenza di disturbi e malattie. I computer, saranno in grado di rilevare in un ambiente batteri resistenti o pericolosi per la salute umana, avvisando prontamente chi soggiorna nello spazio circostante. Pensate quali vantaggi per chi lavora in ambienti ricchi di possibili contatti con batteri patogeni come gli ospedali o i presidi medici. Secondo IBM, questa tecnologia “annuserà” le superfici per rilevarese sono state igienizzate. Utilizzando wireless mesh network, i dati su varie sostanze chimiche saranno raccolti e misurati dai sensori e apprenderanno e si adatteranno nel corso del tempo. In ambiente urbani questa tecnologia potrebbe aiutarci a mantenere pulite le nostra città, indicandoci il grado di inquinamento e le procedure da attivare per migliorare la situazione.