IL CASO DEI COLTIVATORI DI FIORI
 
A PROVA DI FUTURO ARCHITETTATO

THE ASSIGNMENT

Code

Dati, dati, dati. Se ti capita di essere vegetariano, sostituisci la carne con la frutta e la sfida tecnica rimane la stessa. Cosa c'è nel mio cibo? Poiché i prodotti sullo scaffale specificano solo il valore calorico e gli ingredienti finali di un articolo, questo è solo il primo passo del nostro viaggio. Per un grande consorzio di produttori, produttori di mangimi, certificatori e trasformatori, siamo stati incaricati di costruire un enorme hub di dati basato su blockchain per seguire il viaggio di un prodotto a base di carne. Ci sono voluti dieci ingegneri, tre analisti, due project manager e due tester per configurare la rete con venti API diverse, quattro portali e altrettanti FTP per raccogliere i dati richiesti, le prove e offrire questa piattaforma in meno di un anno come svolta chiave soluzione.  

THE PROBLEM

Laptop.jpg

Connecting data and store it with a proof of immutability, making it available to various parties with various view points. Finding out consolidation rules as well as learning aspects once the big data is available, were some of the challenges posed by this assignment. Organizing and structuring it for fast queries on large amounts of data as well as optimizing user experience to minimize the cognitive load and maximize information output in an easy, fast, comprehensive and concise manner, with personalized views per business category - even presentable on small screens.   

THE RESULT

Image by Omar Flores

Over one million lines of code, supporting the peer to business and business to peers network required to collect, store and substantiate everything about the product. From genetics to feed and from transportation to carbon footprint, sustainability and certifications. 

 

An amazing platform enhanced with tools, app's and calc's - future proof - easy to upscale, enrich and enlarge - public and private, making it possible to all parties to connect to the data, consume data off the network and enrich the data lakes with new sources in a seamless and effortless manner.