IL CASO DEI COLTIVATORI DI FIORI
 
A PROVA DI FUTURO ARCHITETTATO

L'INCARICO

Code

Dati, dati, dati. Se ti capita di essere vegetariano, sostituisci la carne con la frutta e la sfida tecnica rimane la stessa. Cosa c'è nel mio cibo? Poiché i prodotti sullo scaffale specificano solo il valore calorico e gli ingredienti finali di un articolo, questo è solo il primo passo del nostro viaggio. Per un grande consorzio di produttori, produttori di mangimi, certificatori e trasformatori, siamo stati incaricati di costruire un enorme hub di dati basato su blockchain per seguire il viaggio di un prodotto a base di carne. Ci sono voluti dieci ingegneri, tre analisti, due project manager e due tester per configurare la rete con venti API diverse, quattro portali e altrettanti FTP per raccogliere i dati richiesti, le prove e offrire questa piattaforma in meno di un anno come svolta chiave soluzione.  

IL PROBLEMA

Laptop.jpg

Connettere i dati e archiviarli con una prova di immutabilità, rendendoli disponibili a varie parti con vari punti di vista. Scoprire regole di consolidamento e aspetti di apprendimento una volta che i big data sono disponibili, sono state alcune delle sfide poste da questo incarico. Organizzarlo e strutturarlo per query veloci su grandi quantità di dati e ottimizzare l'esperienza dell'utente per ridurre al minimo il carico cognitivo e massimizzare l'output delle informazioni in modo facile, veloce, completo e conciso, con visualizzazioni personalizzate per categoria aziendale - anche presentabili su piccoli schermi .  

IL RISULTATO

Image by Omar Flores

Oltre un milione di righe di codice, a supporto della rete peer to business e business to peer necessaria per raccogliere, archiviare e convalidare tutto ciò che riguarda il prodotto. Dalla genetica ai mangimi, dai trasporti all'impronta di carbonio, sostenibilità e certificazioni.  

 

Una piattaforma straordinaria potenziata con strumenti, app e calcoli - a prova di futuro - facile da potenziare, arricchire e ampliare - pubblici e privati, che consente a tutte le parti di connettersi ai dati, consumare dati fuori rete e arricchire i data lake con nuovi fonti in modo fluido e senza sforzo.