Open Innovation Contest | NTT DATA

Open Innovation Contest

L’appuntamento annuale con gli ideatori delle tecnologie del futuro

Una finestra sulle startup più innovative

Ogni anno NTT DATA organizza l’Open Innovation Contest, un contest per startup nel quale coinvolgiamo clienti e partner nella fase di valutazione e selezione delle proposte più innovative. L’evento rappresenta il nostro modello di collaborazione ispirato all’Open Innovation: le startup tramite il programma ottengono un accesso facilitato al mercato e i clienti hanno la possibilità di esplorare soluzioni innovative in linea con il loro business. La startup vincitrice di ogni edizione nazionale dell’Open Innovation Contest partecipa alla finale mondiale giapponese, in cui viene messa in palio la possibilità di sviluppare ulteriormente la proposta con il supporto degli esperti di NTT DATA.

L’edizione 2020 dell’Open Innovation Contest

La pandemia ha posto la tecnologia davanti a nuove sfide, richiedendo strumenti per interagire sempre più concreti, inclusivi e pervasivi. Per questo l’Open Innovation Contest quest’anno cambia, aprendo l’edizione italiana anche alle startup europee e trasferendosi su un palco totalmente virtuale. Ispirandosi ad una delle 6 challenge proposte da NTT DATA, le startup partecipanti devono presentare proposte per rendere la tecnologia sempre più trasparente e a misura d’uomo

Le startup che vincono questa fase sono ammesse alla finale mondiale di Tokyo, dove NTT DATA mette a disposizione un premio in servizi del valore di circa 100.000 dollari per sviluppare la propria offerta.

 

Artiness alla Grand Finale 2021 dell'Open Innovation Contest 


Artiness, società lombarda fondata nel 2018, ha presentato all'edizione EMEA dell'Open Innovation Contest un software che consente a medici e chirurghi di visualizzare strutture anatomiche in 3D e di monitorare continuativamente i dati del paziente durante l’operazione.

Le start up finaliste

Open Innovation Contest 2020

Q&A alle startup

Durante il Pitch Day, sono state poste varie domande alle startup: leggi qui le risposte!

 

I clienti stanno già usando la soluzione? Come l'avete validata sul mercato? 

MorphCast SDK è il risultato di uno sviluppo di oltre 4 anni e di oltre €6M investiti in R&D supportati da contratti con due centri di ricerca universitari: CVC Barcellona e MICC Firenze.
Il motore JavaScript, piccolo e potente (meno di 1MB), che lavora solo verso il browser (anche mobile), basato su Deep Neural Network AI, è stato inserito in due ricerche e pubblicazioni indipendenti che ne mostrano la precisione in linea con i concorrenti.  Inoltre le reti neurali sono formate in-house per migliorare costantemente la precisione dei risultati, confrontando la performance con due test dataset: BU-4DFE e UT-Dallas. La soluzione è già in uso in diversi ambiti. 

È necessario il Cloud?

Per quanto riguarda AI HTML5 SDK, funziona solo nel browser come soluzione SaaS. Non usa per niente il Cloud Computing. 
Per quanto riguarda MorphCast Video Platform, la piattaforma è basata sul Cloud e memorizza e consegna il contenuto media. In questo caso, il Cloud è usato per memorizzare e consegnare i contenuti caricati dal tool MorphCast Studio e riprodotti da MorphCast HTML5 Player.

Renderete disponibile la soluzione anche per le applicazioni mobili?

La soluzione è già mobile first, funziona direttamente nel web-browser e WebApp di piattaforme mobile e desktop (ed anche nella webview di qualsiasi mobile App).

La competenza media dei nostri insegnanti sia sufficiente per comprendere e sfruttare questa opportunità?

Sì, certo: è stata sviluppata la piattaforma VPaaS in modo che sia utilizzabile facilmente da qualsiasi tipo di utente, anche senza skill speciali. La misurazione del livello di attenzione è una delle caratteristiche più apprezzate per qualsiasi insegnante o formatore, sia nelle comunicazioni live che differite, ed i dati risultanti possono popolare dashboard che misurano il livello di engagement e di attenzione degli studenti.

Tutti i componenti sono sviluppati in MorphCast? Usate componenti di terzi? 

Tutti i componenti di MorphCast sono stati sviluppati in-house, inclusi i modelli di rete DNN. La soluzione è brevettata. Sono usati invece software open source di base come Qt, OpenSSL, SSLeay, FFmpeg.

I dati biometrici non vengono inviati al server ma i risultati dell’analisi delle espressioni facciali?

I risultati delle analisi non sono inviati a nessun server. L’applicazione host potrebbe mandarli ma questi dati non sono classificati sensibili nella normativa sulla privacy (GDPR).

È prevista l’applicazione MC anche nell’area entertainment? 

Sì, certo. La piattaforma video di MorphCast permette di creare video interattivi emozionali. Ciò apre molte opportunità nell’entertainment, dall’editing di film interattivi che possono essere “diretti” tramite l’espressione facciale dell’utente, alla creazione di video musicali che cambiano in base alle emozioni delle persone che li stanno guardando. 

Quali sono i requisiti minimi HW?

Poiché Morphcast funziona su qualsiasi dispositivo in grado di far girare un browser HTML5. MorphCast è dotato di un sistema dinamico per ottimizzare il risultato rispetto al dispendio di risorse, che permette di adattarlo alla performance di qualsiasi dispositivo rimanendo al di sotto del 10/15 % dell’uso massimo della CPU o GPU. Questo sistema, denominato “Dynamic Powersafe”, prende in considerazione le risorse effettive disponibili in tempo reale e modula la frequenza delle rilevazioni per ogni secondo, fornendo un output di elaborazione dell’espressione facciale da 3 a 30 volte per secondo. 

 

Le caratteristiche dell’avatar sono create dall’utente o da AI? 

L'Avatar dell'Utente viene creato dagli algoritmi in base alle informazioni che vengono fornite dall’Utente all'atto della sua iscrizione a Tootoom ed in base alle scelte che l'Utente stesso fa all'interno della piattaforma.
Più l'Utente frequenta il Social Network, maggiormente si affina il suo Avatar, delineando in modo sempre più preciso i suoi reali bisogni e desideri, permettendo così a Tootoom di metterlo in contatto con le persone e i contenuti più pertinenti in base alle affinità.
La digitalizzazione dell'Utente nel suo Avatar permette la costruzione di un "Io Digitale" che, in quanto Digitale, permette a qualsiasi dispositivo tecnologico di riconoscerlo nella sua unicità in base a come realmente è e in base allo stato d’animo del momento che sta vivendo.

Avete pensato di lavorare con i professionisti del settore sanitario per verificare i casi d’uso per i bambini disabili? 

La sperimentazione degli algoritmi di Tootoom nel settore Medical è prevista ed è uno dei futuri obiettivi. Lavorando nel campo del meta-linguaggio, infatti, Tootoom è potenzialmente in grado di intervenire nei casi in cui siano presenti patologie legate ai disturbi del linguaggio o altre patologie neurologiche come la PCI (Paralisi Cerebrale Infantile).
Il tema della disabilità è per noi molto importante e, a conferma del nostro sentire, stiamo lavorando alla creazione del primo Osservatorio Mondiale permanente sul tema della Disabilità, che vorremmo presentare al prossimo EXPO come passaggio di testimone EXPO da Milano a Dubai.
L'obiettivo dell'Osservatorio è quello di comprendere le reali necessità, le preoccupazioni e i desideri della popolazione, monitorarli nel tempo e restituire alle Istituzioni, agli Enti ed alle Aziende dati concreti con cui elaborare le proprie strategie, intervenendo sui territori a supporto delle persone disabili e delle loro famiglie e, in senso più esteso, delle comunità in cui viviamo.

Qual è il vostro modello di business? 

Il progetto prevede una stretta interazione fra attività di ricerca, sperimentazione e mercato e, attraverso l’articolazione di tali attività in Business Area, è in grado di fornire spin-off in diversi ambiti, così da crescere e svilupparsi, a partire dalla sua cellula originaria, attraverso la costituzione di entità economicamente autonome e legate alla società madre. 
Questa struttura permette di creare un circuito di scambio tra le varie Business Unit di Tootoom che fanno da volano le une con le altre, supportando economicamente i costi del Social Network, mantenendolo così libero e neutrale com’è la natura stessa del progetto e del Web.

Parlate di un “ambiente empatico”, che cos’è?

Attualmente, anche i più moderni sistemi di Internet of Things si basano su un controller (generalmente lo smartphone) che, connesso con altri dispositivi (TV, luci…) funziona come un telecomando, permettendo all’utente di compiere semplici azioni come accendere e spegnere le luci o selezionare brani musicali.
In sostanza, l’ambiente intorno a noi non è in grado di riconoscerci automaticamente ma ha sempre bisogno della nostra mediazione per effettuare qualsiasi azione.
Grazie a Tootoom e alla creazione dell’Avatar Digitale, invece, l’ambiente, così come i dispositivi tecnologici al suo interno, sono connessi con l’Utente. A seconda delle nostre esigenze e del nostro stato d’animo, possono quindi dialogare con noi, fornendoci in ogni istante servizi perfettamente calibrati con le nostre precise e reali esigenze, garantendo un’esperienza immersiva.

Come vede l’umanità digitale futura nel contesto della vostra idea?

Mentre la tecnologia continua ad avanzare ed essere sempre più presente nelle nostre vite, si rende necessaria l’adozione di una Human-Machine Language. 
Il Digital Avatar permette alle macchine di capire i desideri umani e alle persone di capirsi in base alle proprie emozioni. 
Il Digital Avatar potrebbe portare ad una crescita esponenziale delle nostre capacità, ad un miglioramento delle nostre vite, a rapporti più profondi e significativi e al fiorire di nuove idee e servizi. 

Qual è la differenza tra il vostro avatar ed un digital twin?

Il digital twin è utilizzato nella fase progettuale della costruzione di un prodotto o nell’analisi predittiva di un sistema fisico. Il nostro Avatar Digitale nasce per coesistere con la tecnologia nella vita di tutti i giorni, affinché device, servizi e tecnologie possano offrire un’esperienza migliore e più immersiva.
L’Avatar Digitale infatti aggiunge un livello emotivo: mentre il digital twin è un modello di oggetti fisici, l’Avatar è una rappresentazione digitale dell’essenza dell’Utente, fatta ad un livello più profondo, grazie al nostro Empathic Network Model®, che è in grado di descrivere i valori e le emozioni dell’Utente. 

Quanto tempo ci vuole per avere un avatar "maturo"? 

Sebbene possa essere sufficiente un’ora di utilizzo dei nostri servizi per cominciare ad ottenere una buona definizione dell’Avatar Digitale, il valore aggiunto si ottiene tramite un utilizzo costante: poiché l’Avatar evolve con l’Utente, abbiamo a disposizione uno strumento che non solo è in grado di dare una rappresentazione Empatica dell’Utente ma è anche in grado di coglierne le diverse sfumature e le mutevoli esigenze giorno per giorno. Grazie a queste capacità, è possibile offrire all’utente una serie di servizi in linea con ciò che desidera realmente.

Qual è il vostro plus rispetto all’altro incumbent? 

Abbiamo introdotto un nuovo livello più profondo che definiamo “Web Empatico”, proprio per superare i limiti delle tecnologie attuali che si fondano sul Web Semantico.
Gli algoritmi attuali suggeriscono contributi sulla base di ciò che già ci piace (portando al cosiddetto “echo chamber”) o di ciò che hanno condiviso i nostri amici e suggeriscono nuove amicizie sulla base della rete di contatti. I nostri algoritmi trascendono questi limiti, offrendo una prospettiva diversa, che rompe il sistema di vicinanza e propone contributi, servizi e contatti sulla base dell’affinità, rispetto a come siamo e a seconda dello stato d’animo del momento.

La vostra piattaforma può essere connessa ad altre reti sociali? 

Tutto ciò che accade all’interno di Tootoom è quindi pensato per restituire la migliore esperienza possibile agli Utenti. Per questo sarà possibile veicolare contenuti creati in Tootoom su altre piattaforme Social ma non il contrario, impedendo quindi di “importare” dalle altre piattaforme Social tutti gli elementi possibilmente negativi che le contraddistinguono, come i profili fake e contenuti scadenti. Questo approccio permette così di mantenere una migliore attendibilità dei dati.

Pensate si possa usare per sicurezza?

Sì, il nostro Avatar Digitale potrebbe essere integrato a sistemi di sicurezza biometrici (o di altra natura) come sistema di sicurezza empatico, come ulteriore e differente elemento di controllo.
Data la natura digitale del Linguaggio che abbiamo creato, il nostro Avatar è in grado di comunicare con qualsiasi tecnologia digitale, tra cui, ad esempio, anche un sistema di sicurezza.
Al momento, tuttavia, pur avendo già vagliato questa possibilità, non abbiamo ancora svolto attività di ricerca per l’integrazione del nostro sistema in ambito security.


Nelle sale operatorie i medici indossano i guanti: la tecnologia touch funzionerebbe comunque?

Sì, la tecnologia può essere usata ed integrata con i tool esistenti ed usati nelle sale operatorie. I guanti o altri strumenti possono essere usati senza limitazioni.

Quanto è matura la soluzione? 

È in una fase sperimentale preclinica; stiamo validando le nostre soluzioni per ottenere la certificazione come dispositivo medico da dare in licenza agli ospedali e alle aziende di dispositivi medici. A parte questo, le soluzioni di istruzione e formazione sono già adottate e non richiedono certificazioni specifiche. 

Perché la vostra soluzione è innovativa? 

Si basa su algoritmi unici e strumenti proprietari che hanno una maggiore precisione nel modelling 3D e sono in grado di elaborare fonti di imaging multiple. 

È corretto dire che implementate la fusione di diversi strumenti medici disponibili in sala operatoria per fornire ai medici una migliore analisi? Cosa aggiungete ai dati?

Sì, è corretto. Il processo di fusione integra le immagini mediche con modelli virtuali 3D del paziente, fornendo così ulteriori informazioni sulla sua anatomia, sull’impianto e posizionamento del dispositivo. 

Con chi collaborate per l’hardware?

Con fornitori di mixed reality: al momento con Microsoft per HoloLens 2.0; Varjo per gli occhiali XR e NReal.

Può spiegare meglio come passate dalle immagini al 3D?

Il processo si basa sull’algebra lineare e gli algoritmi della ricostruzione geometrica 3D (simile alle ricostruzioni di superfici da nuvola di punti), che sono proprietari e costituiscono la proprietà intellettuale della start-up.

Qual è la maggiore potenzialità nello sviluppo del business?

La generazione di modelli virtuali 3D specifici per il paziente, che permettono di capire meglio le anatomie e patologie complesse; questo unito agli strumenti avanzati per la visualizzazione olografica per assicurare la facilità d’uso dei sistemi e la portabilità in sala operatoria.

 

Può descrivere il vostro team?

Il nostro team è composto da 14 persone nella produzione & delivery (designer, coder, 3D artist), 2 persone in G&A, 4 persone in Sales&Mktg.

Da chi è composto il vostro team? Come avete generato l’idea e come la state testando?

Il nostro team è composto da 14 persone nella produzione & delivery (designer, coder, 3D artist), 2 persone in G&A, 4 persone in Sales&Mktg.
Abbiamo generato l’idea lavorando molto con le esigenze dei clienti enterprise e studiando l‘evoluzione del mercato. La testeremo internamente + su clienti enterprise selezionati. 

In che fase siete?

Siamo nella fase di scale up.

Qual è la proposta di valore dal punto di vista delle esperienze dell’economia digitale?

Stiamo fornendo strumenti per gestire la transizione verso un paradigma di organizzazione condivisa globale, non legato ad un luogo fisico, puntando su collaborazione dei team, customer experience e formazione del personale.

Quali sono le limitazioni che derivano dalla performance di connettività per stabilire una buona virtual reality connection?

Se escludiamo il cloud rendering, poiché la VR oggi è principalmente una questione on-premise, la connettività influisce sul numero di persone connesse nella stessa esperienza multiplayer. 

Avete preso in considerazione le limitazioni legislative?

Sì, valutiamo sempre i quadri normativi più recenti per assicurarci di essere conformi alle norme necessarie ma anche di essere nella migliore posizione per crescere con le norme più favorevoli per permettere ad una start-up di fare scala. 

Il valore sta nella gestione della criptomoneta o nella sicurezza blockchain?

In entrambe. Le criptovalute sono insite nella tecnologia blockchain, portando ad un’esperienza senza confini, più equa e sicura (per esempio, nessun cashback). Questo ci permette di tagliare tutti i costi correlati alla conversione fiat  nel mercato finanziario tradizionale. Insieme a questa tecnologia, tagliamo un enorme numero di intermediari nei vecchi sistemi di pagamento, fornendoci l’opportunità di offrire fee molto più basse ai nostri clienti ed un’esperienza più fluida. 
Per i grandi clienti enterprise con business globali, per esempio, la nostra tecnologia permette di ricevere pagamenti dai loro partner in tutto il mondo, invece di aspettare settimane per riceverli  e questo avviene tutto con l’ambiente sicuro della blockchain, in cui le transazioni sono immutabili, impedendo i cashback e la frode. 
Un altro vantaggio unico di questa tecnologia per i business B2B è la facilità di trasferimento dei fondi da un luogo all’altro, dato che 1 Bitcoin in Nigeria o Sud America ha lo stesso valore che in Italia o in qualsiasi altro paese del mondo. Questo permette alle aziende di espatriare fondi che potrebbero essere bloccati in alcuni paesi o evitare il rischio di fare business in paesi con inflazione elevata. I fondi possono essere convertiti da valuta locale a crypto e poi ritrasferiti in pochi minuti. 

Qual è la vostra strategia di monetizzazione?

Come con qualsiasi piattaforma di pagamento, stiamo incassando commissioni per ogni transazione che elaboriamo. Questo ci permette di generare ricavi dal get-go con commissioni 80%- 90% inferiori rispetto alla soluzione corrente sul mercato. 

È possible usare valuta privata? Qualche esperienza integrabile con il sistema point del cliente?

Elaboriamo tutte le principali valute digitali come Bitcoin e Ethereum ed entrambe hanno rappresentato il 90% dei pagamenti effettuati usando la nostra piattaforma e stablecoin USDT viene subito dopo. Tenendo questo in considerazione, non vediamo una vera domanda di valute orientate alla privacy al momento. Come ente regolato, la nostra priorità sarà sempre di essere conformi ai quadri legali e di antiriciclaggio e ai loro requisiti. 
Abbiamo testato un breve MVP per un PoS ma questo non è la nostra roadmap a breve o medio termine, poiché i dati mostrano che i pagamenti stano diventando sempre più digitali, dati i tassi di crescita correnti dell’ecommerce e dei pagamenti mobile. I negozi fisici cresceranno molto più lentamente e con un tipo di clienti diverso. 

 

Può spiegare meglio gli elementi differenzianti principali con i sistemi di videoconferenza come Teams?

Bandyer viene tipicamente erogata in coesione con soluzioni di collaboration enterprise.

Bandyer completa l’abilitazione della digital video collaboration attraverso la compresenza con le tipiche soluzione enterprise (Meet in G Suite, Teams, Skype 4 Business, Zoom), differenziandosi nella totale integrabilità white label e nei seguenti key points distintivi:

- Fruizione della call senza componenti software da desktop, tablet e mobile (direttamente su tutti i browsers moderni);
- Integrazione nativa delle capabilities video e collaboration grazie alle REST Api ma, soprattutto, alle SDK complete offerte;
- Call con squillo della app che integra le SDK di Bandyer anche con app chiusa e telefono in lock screen per la riconoscibilità delle call effettuate dall'assicurazione;
- Personalizzazione colori delle SDK per rispecchiare la brand identity dell'azienda;
- Flessibilità e facilità nell'integrazione.

Su quale tipo di tecnologia vi basate?

Viviamo in una data economy ed il futuro del settore bancario dipende dalla capacità di una banca di usare i dati per aiutare effettivamente le persone a migliorare il proprio benessere. 
Flybits elimina i silos di dati, aggregando dati e permettendo alle banche di collegare facilmente i dati proprietari, i dati di terzi, pubblici e contestuali, per farli convergere in un ecosistema di dati unificato. La nostra piattaforma fornisce sia l’infrastruttura ingegneristica che le soluzioni AI che i nostri clienti possono sfruttare. 
Permettiamo alle banche di connettersi ai propri clienti in tempo reale con la nostra collezione di pacchetti di esperienze always-on e protettive della privacy. Queste esperienze permettono loro di acquistare una casa, risparmiare, viaggiare ed altro con la nostra soluzione end-to-end, che integra dati ed analitica, experience design e channel delivery, senza il technical lift. 

State pianificando anche altri settori?

Stiamo investendo in R&D per creare ecologie di dati della community, mirate a contribuire a riavviare l’economia e migliorare la salute e la vitalità delle community.
In questo nuovo modello, le banche del futuro esisteranno al centro di un complesso ecosistema di dati. Saranno in grado di mobilitare dati in tutto il mercato interconnesso e fornire valore a singoli partner della rete. Ciò andrà a beneficio di tutti nella rete e soprattutto a beneficio del cliente finale. 
Grazie a questa partnership di alleanza di dati, le aziende come le Telco, quelle energetiche e le università possono condividere i dati preservando la privacy e, in ultima analisi, creare più valore per i propri clienti.  
Mentre i partner dei diversi settori si uniscono all’ecosistema e condividono le loro idee, la rete acquisisce una migliore comprensione dei consumatori nei vari contesti. Per esempio, i pattern del traffico web da una telecom, uniti ai dati delle transazioni delle banche, potrebbero gettare luce sul comportamento di acquisto di una persona in diverse geolocalizzazioni ed orari del giorno. Questo porta ad un insieme che sarà più forte della somma delle sue parti. 

Descriva il suo team e dove si trova il team RD

Il fondatore e CEO di Flybits, Hossein Rahnama, è uno scienziato informatico ed un imprenditore accademico. Come Visiting Professor al MIT Media Lab e professore alla Ryerson University, ha cofondato Ryerson DMZ. La sua ricerca esplora l’AI, l’interazione mobile umano-computer ed il design efficace di servizi data-driven.  Rahnama ha scritto oltre 30 pubblicazioni e conseguito 23 brevetti in scienze informatiche. 
Nel 2020 Flybits ha annunciato l’espansione globale del suo executive team a New York, Toronto, UK e Dubai. Il nostro executive team di senior leader porta crescita ed innovazione nel campo dell’ingegneria, prodotti, operation e partnership.

I sensori anti-assembramento potrebbero permettere nuovi modi per la sorveglianza nei luoghi pubblici, per esempio per applicare le restrizioni anti-COVID sulle aggregazioni, etc.?

Confermo che i sensori anti-assembramento possono essere usati per la sorveglianza negli spazi pubblici. Si tratta di una tecnologia che lavora a infrarossi e, quindi, permette di rispettare anche il GDPR sulla privacy, non lavorando con telecamere. Grazie a questi sensori, si possono gestire al meglio spazi privati e pubblici attraverso notifiche via App in caso di assembramenti, avvisi di tipo acustico e luminoso, etc.

 

A glimpse into the future of autonomous driving

Quanti e chi sono i vostri principali competitor e in quale campo?

Competitor diretti per 3D Mouse:

- 3Dconnexion SpaceMouse
- Kensington, esperto di wireless trackball
Logitech, wireless trackball m570
- Nuovo incumbent (scopo generale)

Soluzione interessante ma come aiuta a rispondere alla Request For Proposal o a crearne una?

Insegnare un'AI attraverso sequenze di movimenti e gesti 3D di una mano umana è un approccio leggero all'Industria 4.0. In questo modo, la robotica potrebbe essere utilizzata anche nella produzione di piccole serie o nelle PMI, in cui un robot "programmato" semplicemente non ripaga o gli utenti non hanno il know-how. Possiamo creare un POC con COBOT, oppure un altro esempio è un POC con software Mixed Reality Machine Supervisor.

Avete progettato l’IoT del sensore? Può elencare brevemente i principali sensori all’interno?

Abbiamo progettato il sensore nel 2017 e lo vendiamo attraverso I nostril distributor dal 2019.

Sensori interni:

a) accelerometro 3D 
b) giroscopio 3D 
c) Magnetometro 3D 
d) sensore di pressione
e) BLE e microcontroller

Read more

Throwback

Le collaborazioni nate dalle passate edizioni

L’Open Innovation Contest non si ferma con la premiazione del vincitore. NTT DATA continua a collaborare con diverse startup delle edizioni passate per portare sul mercato soluzioni innovative. Un esempio è GiPStech, la cui tecnologia per localizzare persone e oggetti dentro gli edifici è stata portata da NTT DATA all’Aeroporto di Narita, a Tokyo. Con Tolemaica, che ha brevettato un processo di certificazione di media digitali stanno nascendo opportunità nel mercato energy & utilities e, grazie alla collaborazione con iGenius, NTT DATA sta portando su diversi mercati Crystal, il primo consulente virtuale in grado di interagire in linguaggio naturale. MDOTM, che sviluppa strategie di investimento basate sull’AI per banche e assicurazioni, sta ricevendo il supporto di NTT DATA per l’integrazione della soluzione in contesti bancari. Infine Sofia Locks, che ha creato una serratura connessa compatibile con qualsiasi dispositivo connesso a Internet, ha collaborato con NTT DATA per integrare il prodotto con IVE, l’assistente virtuale Blue ed il riconoscimento biometrico, coordinate tramite la piattaforma IoT HOT-SPOT.

Dalle edizioni precedenti

最新情報

Latest Insights

最新 ニュース

Latest News

Vuoi saperne di più?

Contattaci