Jag påbörjade mitt liv inom analytics inom företagsvärlden genom ett riktigt bananskal. Innan jag blev konsult inom detta så forskade jag nämligen inom rymdfysik där jag byggde egna data pipelines från mina simuleringar hela vägen till visualiseringar och analyser och kände inte alls till företagsvärldens arbete med samma område. Detta har präglat mig och mitt tänk kring analys under alla år, oavsett om jag arbetat inom telekom, retail, försäkring, logistik eller andra branscher. I slutändan så är det samma grundläggande komponenter som behövs i en analysplattform.
Du behöver samla upp data, relatera data till varandra, transformera, förädla och strukturera data så att den lämpar sig för olika typer av analys, oavsett om det rör sig om visualisering av nyckeltal eller avancerad prediktiv AI som används som motor i en aktierobot. Insikten om att datat i sig inte spelar någon roll alls, samtidigt som den är helt avgörande för att skapa värde fick mig att under 2018 fråga mig själv:
Går det att bygga en analysplattform, en gång, förvalta grunden och dess utveckling på ett ställe och därifrån kunna driftsätta många anpassade versioner för olika behov?
Med en bakgrund inom “klassisk” data warehousing och senare “big data”-världen så var min spontana reaktion “nej”. Men så träffade jag Peiman Khorramshahi, en erfaren och briljant person som inte hade någon som helst erfarenhet från att bygga specifikt analyssystem men däremot av it-system generellt. Plötsligt blev svaret “ja, klart det går!”. Vi började designa, senare tillsammans med vårt fantastiska team, grundprinciperna för vår arkitektur:
- Designa lösningen för användarvänlighet, både för att kunden ska kunna fokusera på sin kärnverksamhet istället för utveckling, förvaltning och drift av en analysplattform men också för att vi vill att kunden ska kunna bli så oberoende av oss som möjligt
- Återuppfinn inte hjulet, finns det en open source-komponent som löser den funktion som vi behöver så ska vi använda den
- Ha en totalt modulär design, varje enskild komponent i arkitekturen ska gå att byta ut mot en annan teknologi som utför samma funktion om det dyker upp en bättre teknologi för det. Dessutom ska data, infrastruktur och kod vara separerade från varandra för att snabbt kunna driftsätta utveckling och testmiljöer och möjliggöra migreringar.
- Ha en leverantörsagnostisk lösning så långt som möjligt, plattformen ska gå att driftsätta på alla moln, virtuella eller fysiska maskiner on-site. Kunden ska kunna byta sin infrastruktursleverantör (exempelvis sin molnleverantör) och enkelt kunna flytta hela lösningen utan att få några större avbrott i sitt arbete
- Designa lösningen med GDPR i åtanke från början, hur vi behandlar våra kunders data är av yttersta vikt och det är viktigt att vi kan behandla deras data på ett säkert sätt.
De här principerna har drivit vår design av Eiko. Min vision har varit att kunna möjliggöra för små och medelstora organisationer att arbeta analytiskt också, så att det inte bara är storbolag som har tillgång till kraftfulla analytiska plattformar som ger de vassa konkurrensfördelar.
För mig personligen, blev det extra roligt när vår första betatestare var en gammal kollega och vän till mig från mina dagar som rymdfysiker, Lars Daldorff som idag arbetar på NASA med gigantiska simuleringar av vår egen sol. På det sättet har vi kunnat stresstesta Eiko i den allra mest krävande miljön jag kunde tänka mig, och visa att ett system designat för att små och medelstora organisationer kan skala även till de allra största och mest utmanande analytiska uppgifterna.

Siavoush Mohammadi
18 Jun, 2020
Läs mer
The analytical pyramid
There is hardly any organisation that doesn’t see their data as an important resource in today’s world, arguing for why it’s important has become equivalent to arguing for why air is good for you. More or less all of our interactions as users of any service or digital...