Datautveckling

Dataanalys och maskininlärning gör stora framsteg. Men det är helt enkelt nästa möjliga närliggande i den pågående utvecklingen av dataproduktion, lagring, delning och nätverksinlärning.

Utveckling av data...

  1. Databrist – I början av 1990-talet och tidigare var data ganska knappa, både för att dataproduktionen var låg (i förhållande till idag) och för att mekanismerna för att lagra och dela data var mer begränsade.
  2. Dataproduktion – 2000-talet blev sensorernas tidsålder. Med framsteg inom elektronik blev sensorer mer överkomliga. Följaktligen ökade produktionen av sensorer och utbudet av nya sensorer avsevärt. Med den enorma skalan av utplacerade sensorer har dataproduktionen vuxit – och fortsätter att växa – exponentiellt.
  3. Datalagring – med den kraftiga dataproduktionen kom det ökade behovet av kostnadseffektiv datalagring. I stor skala har datalagring nu blivit så billig att den närmar sig en försumbar kostnad tills datastorlekarna är enorma.
  4. Datadelning – på 1990-talet genererade företag sin egen interna data, men den delades i stort sett inte utanför företaget. Inte heller allmänkunskap, förutom i tryckt form. Med tillkomsten av internet och dess efterföljande breda antagande (1993+) blev datadelning vanligare än någonsin tidigare (särskilt med spridningen av API:er), men det förblev i stort sett ostrukturerat.
  5. Strukturera data – Tekniskt kunniga branschexperter såg upprepningsbara mönster inom de tillgängliga informationsuppsättningarna och började strukturera den, en branschvertikal i taget. Samla och sortera var nästa "angränsande möjliga", (cirka 2004 – 2016). Det är faktiskt så PrivateEquityInfo.com startade 2004. Jag identifierade en möjlighet att strukturera data över private equity och relaterade M&A-företag och evenemang. Detta sparade människor oerhört mycket tid i informationsupptäckt och professionellt nätverk och ökade effektiviteten för M&A-affärer.
  6. Dataanalys – med strukturerad data hade vi nu möjligheten, genom algoritmer, att analysera och upptäcka trender över data över tid som aldrig förr. Detta hjälpte oss att bättre förstå historiska sammanhang, vilket möjliggjorde framtida prognoser från de historiska trenderna (2008+). Det ger också praktiska insikter, åtminstone riktat.
  7. Big Data – När data blev allt mer användbar i beslutsfattande började vi samla in mer och mer av den. Med data (och tillräcklig processorkraft) är mer bättre (förutsatt att datakvaliteten inte försämras med dataexpansion... ofta ett felaktigt antagande).
  8. Smart data och maskininlärning – när den strukturerade datainsamlingen från sensorer och olika indata avsevärt började överträffa vår (mänskliga) förmåga att hålla jämna steg med det, började vi använda maskininlärningstekniker för att etablera relationer inom datan och för att skapa bättre prediktorer och indikatorer för framtiden. Maskininlärning, matad med stora datamängder, är mycket kraftfullare än mänskligt kodade algoritmer. Från enorma mängder data kan maskiner reta ut mönster som människor inte kan. De kan lära sig snabbare, upptäcka orsakssamband i data och därmed förutsäga resultat med bättre noggrannhet än människor. Smarta, maskininlärda, datadrivna algoritmer, tillsammans med massor av data, är nu ungefärlig intelligens – artificiell intelligens (2015+).

Vad är nästa steg?

Nätverksinlärning – under 2018+ skapar maskiner data, gör den tillgänglig i förutbestämda, strukturerade format, delar denna data med andra maskiner och låter nätverket av maskiner lära av varandra. Maskinens superintelligens. Den modellerar närmare den mänskliga hjärnans komplicerade nätverk, förutom med mer processorkraft, mer lagringskapacitet och snabbare informationshämtning. Detta är inte singulariteten, men det kommer att vara ett stort steg framåt – till den grad att intelligensen som produceras av maskinerna inte kommer att kännas så konstgjord.


Privata investeringsfonder
  1. Fondinformation
  2. Offentlig investeringsfond
  3. Privata investeringsfonder
  4. Hedgefond
  5. Investeringsfond
  6. Indexfond