AI Investment Primer:Laying the groundwork (del I)

Sammanfattning

Vad är AI?
  • Artificiell intelligens (AI), kan enkelt förklaras som intelligens som demonstreras av maskiner, i motsats till den naturliga intelligensen som visas av människor och andra djur.
  • Machine learning är en delmängd av tekniker som används inom AI, och djupinlärning är en delmängd av tekniker som används inom maskininlärning.
  • Det har varit tre betydande vågor av AI-utveckling. Den första på 50- och 60-talen, den andra på 80- och 90-talen och den tredje startade för ett decennium sedan och har vunnit framträdande plats sedan 2016 (AlphaGo).
Vad är speciellt med denna våg av AI?
  • Den här vågen av AI drivs av tillväxten och populariteten för djupinlärning.
  • Medan tekniker för djupinlärning har funnits sedan 60-talet, var den nödvändiga datorkraften och data inte tillräckligt avancerade för att stödja kommersiella masstillämpningar förrän de senaste åren.
  • Anledningen till att djupinlärning är så spännande är att djupinlärning enkelt uttryckt möjliggör mycket kraftfullare prestanda än andra inlärningsalgoritmer.
Nyckelkomponenter i framgångsrika AI-applikationer.
  • AI-applikationer måste lösa ett väldefinierat (specifikt) och önskvärt (inriktat på brådskande och tydliga kundproblem) problem. Ansiktsigenkänning, maskinöversättning, förarlösa bilar, sökmotoroptimering är alla väldefinierade önskvärda problem. Men bristen på väldefinierade önskvärda problem är anledningen till att det är svårt att tillverka till exempel en allmän städrobot.
  • Maskininlärningsalgoritmer kräver tillgång till ren och väl märkt data. Denna datainsamlingsövning kan vara svår eller enkel, beroende på vilken kommersiell applikation du utvecklar.
  • En AI-verksamhet behöver utveckla robusta och skalbara algoritmer. För att uppnå detta finns det tre måsten:en stor mängd väl märkt data, rätt talang och förtroendet för att djupinlärning är rätt teknik för att lösa problemet.
  • Framgångsrika AI-applikationer kräver mycket datorkraft. Ju mer avancerad artificiell intelligensalgoritmen är (t.ex. neurala nätverk för djupinlärning), desto mer beräkningskraft krävs, desto dyrare blir operationen.

Under de senaste åren har världen sett en explosion av intresse kring artificiell intelligens (AI). Ett koncept som en gång i första hand begränsade sig till Sci-Fi-genren, AI har blivit en del av vår vardag. Vi läser om det hela tiden i nyheterna, se videor av läskiga robotar som dansar till tonerna av Uptown Funk , och hör om hur AI-applikationer smyger sig in i även de mest oväntade sfärerna i vårt dagliga liv. Men är det en hype?

Det kan vara. Enligt Gartners Hype Cycle for Emerging Technologies, finns demokratiserade AI-trender inklusive AI PaaS (plattform som en tjänst), Artificiell allmän intelligens, Autonomous Driving, Deep Learning, alla på olika punkter på kurvan, med Deep Neural Nets på toppen av uppblåsta förväntningar. Men vi drar också redan nytta av AI varje dag. Från Siri till Cortana till Alexa, vi kan nu prata med smarta assistenter. Från Googles AI-drivna sökmotor till Instagram-filter kan vi nu njuta av bekvämligheten med snabba, mer relevanta svar på våra behov. I Kina, där AI-innovation blomstrar, driver företag som Face++:s ansiktsigenkänningsteknik omedelbar ID-autentisering för banker, medan appar som TikTok skickar korta videor till miljontals tonåringar (som faktiskt uppvaktar betydande kontroverser genom att göra det).

Jag tror personligen att även om det verkligen finns en del överhypade förväntningar och företag, så är AI framtiden . Jag grundade min egen AI-startup i ett tidigt skede för att fånga denna en gång i livet möjlighet att delta i teknikrevolutionen. Som en före detta VC-investerare letar jag också ständigt efter investeringsmöjligheter inom AI. Jag tror därför att, trots det obestridliga bullret som omger utrymmet, är den enorma ökningen av AI-investeringar också berättigad.

Men med detta i åtanke förvånar det mig att det fortfarande finns ett stort gap i förståelsen, särskilt bland investerarna. Investerare är angelägna om att sätta pengar i arbete, men de saknar ofta viktiga grundläggande kunskaper som enligt min mening krävs för att vara en effektiv investerare i detta utrymme. Syftet med den här artikeln är därför att dela och ge lite användbar kontext och information för dem som är intresserade av att investera i detta spännande område. Med tanke på bredden av ämnet till hands har jag delat upp mina tankar i två delar, den första syftar till att diskutera några viktiga element man behöver känna till för att komma igång med AI-resan - en 101-tals. Den andra delen av den här serien kommer att vara mer praktisk och kommer att dyka djupare in i ämnet hur man utvärderar AI-investeringar och de olika sätten att investera.

N.B. Det här inlägget är inte tänkt att vara tekniskt. Den riktar sig till investerare och det bredare finansiella samfundet, och därför icke-tekniska läsare.

Vad är AI?

Det finns faktiskt många definitioner av AI, så när jag blir ombedd att definiera den använder jag ofta gamla goda Wikipedia, som, för icke-tekniska publiker, jag tycker ger en tillfredsställande definition:

Artificiell intelligens (AI), ibland kallad maskinintelligens, är intelligens som demonstreras av maskiner, i motsats till den naturliga intelligens som människor och andra djur visar.

Med andra ord är all icke-naturlig intelligens "konstgjord" intelligens, oavsett hur den uppnås. Tekniker som används för att uppnå AI inkluderar om-då-regler, logik, beslutsträd, regressioner och maskininlärning inklusive djupinlärning. Ett av mina favorit- och roliga verktyg för att förklara hur AI fungerar är den här videon om hur en dator lär sig att spela Super Mario.

När du pratar om AI kommer du alltid att höra dessa tre nyckeltermer:AI, maskininlärning och djupinlärning. De används ibland omväxlande, men de är olika. Enkelt uttryckt är maskininlärning en delmängd av tekniker som används inom AI. Deep learning är en undergrupp av tekniker som används inom maskininlärning .

Nvidia-bloggen gör ett bra jobb med att sammanfatta förhållandet mellan de tre termerna. Det ger också en praktisk översikt över de tre vågorna av AI-utveckling. Den första vågen av AI var på 50- och 60-talen och såg några av de första stora milstolparna som när IBM 701 vann schackspelet över schackmästaren Robert Nealey. På 80- och 90-talen slog Deep Blue mästaren Kasparov i schack. I mars 2016 slog AlphaGo den #1 Go-spelaren Lee Sedol. Varje gång AI slog mänskliga mästare i spel utlöste det en ny hype för AI. Då tekniken inte kunde leverera applikationer som uppfyller allmänhetens förväntningar, skulle AI-hypen förvandlas till AI-vinter, med minskade investeringar och forskningsanslag.

Som tidigare nämnts är maskininlärning en delmängd av AI. Enligt Nvidia är maskininlärning som mest grundläggande "praxis att använda algoritmer för att analysera data, lära sig av det och sedan göra ett beslut eller förutsäga något i världen. Så istället för att handkoda mjukvarurutiner med en specifik uppsättning instruktioner för att utföra en viss uppgift, är maskinen "tränad" med hjälp av stora mängder data och algoritmer som ger den möjligheten att lära sig hur den ska utföra uppgiften." Ett mycket vanligt exempel på maskininlärning är spamfilter. Googles spamfilter kan känna igen skräppost genom att identifiera triggerord som "Prince", "Nigeria" och "lyxklocka". Den kan också fortsätta att "lära sig" av användarnas manuella klassificering av spam. Till exempel missades ett e-postmeddelande med meddelandet "skicka $1000 för att få detta exklusiva cancerläkemedel till följande bankkonto" av Googles spamfilter. När en användare märker det som skräppost, analyserar Gmail alla sökord i det specifika e-postmeddelandet och "lär sig" att behandla e-postmeddelanden som innehåller kombinationsorden "1000 $", "drog" och "bankkonto" som skräppost framöver. Det finns många matematiska modeller som används av proffs för att göra maskininlärning, t.ex. regressioner, logistik, Bayesianska nätverk, klustring.

Vad är speciellt med denna våg av AI?

Denna våg av AI drivs av populariteten för djupinlärning . Som en delmängd av maskininlärning uppfanns inte djupinlärning nyligen. Faktum är att, enligt Wikipedia, "den första allmänna, fungerande inlärningsalgoritmen för övervakade, djupa, feedforward, flerlagersperceptroner publicerades av Alexey Ivakhnenko och Lapa 1965". Men eftersom datorkraften och data inte var tillräckligt avancerade för att stödja den kommersiella masstillämpningen av tekniker för djupinlärning, blev det inte populärt förrän 2006 när Geoffrey Hinton et al publicerade sin framstående artikel, "A Fast Learning Algorithm for Deep Belief Nät." Trots AI-vintern på 90-talet och första hälften av 2000-talet fortsätter några forskare, inklusive de tre akademiska gurusna för djupinlärning, Geoffrey Hinton, Yann LeCun och Yoshua Bengio, att arbeta med djupinlärning inom det akademiska området. Datorkraftens snabba genombrott, till exempel cloud computing och GPU:er, i kombination med tillgången på big data genom den digitala ekonomin, har gjort djupinlärningsalgoritmer möjliga att implementera under det senaste decenniet. Till exempel startade Googles forskning om självkörande bilar 2009.

Tekniskt sett kan djupinlärning definieras som "en klass av maskininlärningsalgoritmer som:

  • använd en kaskad av flera lager av icke-linjära bearbetningsenheter för funktionsextraktion och transformation. Varje efterföljande lager använder utdata från föregående lager som indata.
  • lär dig på övervakat (t.ex. klassificering) och/eller oövervakat (t.ex. mönsteranalys) sätt.
  • lära sig flera nivåer av representationer som motsvarar olika abstraktionsnivåer; nivåerna bildar en hierarki av begrepp.”

Nyckeln är "flera lager", jämfört med traditionell maskininlärning. Hur skulle du till exempel skilja en katt från en hund? Om du skulle använda maskininlärning kanske du extraherar några funktioner som är gemensamma för både hund och katt, såsom två öron, ett hårigt ansikte, avståndet mellan ögon och näsa och mun, etc. Och du kan få ett resultat som säger bilden är 50% hund, 50% katt - inte särskilt användbar. Genom att använda djupinlärning vet du dock inte ens vad en katts och en hunds utmärkande egenskaper är, men maskinen skulle, genom flera lager av att skapa nya funktioner och hundratals (eller tusentals) statistiska modeller, ge en mer exakt utdata - t.ex. 90% hund, 10% katt. De två diagrammen nedan illustrerar hur ett neuralt nätverk "lär sig" och skillnaden mellan klassisk maskininlärning och neurala nätverk.

Läsare kanske kliar sig i huvudet efter att ha läst ovanstående, och det med rätta. Men om vi går tillbaka till vårt ursprungliga syfte:ur en investerares synvinkel, vad är det som är så speciellt med djupinlärning? Man skulle kunna besvara den här frågan med olika ytterligare komplicerade tekniska förklaringar, men egentligen enkelt uttryckt, grafen nedan till vänster gör ett bra jobb med att göra det riktigt tydligt:​​djupinlärning möjliggör mycket kraftfullare prestanda än andra inlärningsalgoritmer. Ta exemplet med taligenkänning som beskrivs i Microsoft-bloggen (diagram nedan till höger):den ursprungliga 1988 års taligenkänningsfel var 60-70 %, medan det nya Microsoft-systemet som använder djupinlärning endast var 6,3 % 2014.

Nyckelkomponenter i framgångsrika AI-applikationer

Jag tror att det finns fyra nyckelkomponenter för framgången för en maskininlärningsprodukt (inklusive djupinlärning):väldefinierade önskvärda problem, data, algoritmen/algoritmerna och beräkningskraften .

Först och främst måste AI-applikationen lösa ett väldefinierat (specifikt) och önskvärt (inriktat på brådskande och tydliga kundproblem) problem . Tänk på de olika spelen som datorn lärdes spela över de tre olika vågorna av AI:schack, schack, Go. De var mycket väldefinierade problem och därför lättare för en dator att lösa. Ansiktsigenkänning, maskinöversättning, förarlösa bilar, sökmotoroptimering är alla väldefinierade önskvärda problem. Avsaknaden av väldefinierade önskvärda problem är dock varför det är så svårt att tillverka till exempel en allmän städrobot. Enkla hushållssysslor, t.ex. samla in koppar och lägga tvätt i korgen, kräver att man löser för många problem. Det kräver till exempel att maskinen identifierar vilka föremål som behöver plockas upp (muggar, smutstvätt och inte ren tvätt etc.), vart den ska åka och hur man går dit (undviker hinder i hushållet och reser till önskat plats), hantera varje föremål med önskad kraft så att det inte går sönder koppen eller tvätten etc.

För det andra kräver utvecklingen av en maskininlärningsalgoritm åtkomst till ren och väl märkt data . Detta beror på att dessa algoritmer är byggda genom att mata olika statistiska modeller med en stor mängd data som är väl märkt, för att etablera de nödvändiga prediktiva sambanden. Denna datainsamlingsövning kan vara svår eller enkel, beroende på vilken kommersiell applikation du utvecklar. Till exempel, för att samla in de nödvändiga data som krävs för att utveckla datorseende algoritmer för vindruvofält, behövde min startup fältbilder från olika platser med olika varianter och svårare stilla - olika årstider. När varje säsong är ett år kommer det att ta år att få tillfredsställande produkter. Om man däremot vill utveckla en bra ansiktsigenkänningsalgoritm i Kina, för att samla in t.ex. 10 miljoner bilder, du behöver bara sätta upp en kamera på en livlig gata i Peking i en vecka och uppgiften är klar. Ett annat exempel skulle vara den #1 AI-drivna personliga nyhetsaggregatorn i Kina, Toutiao, som lär sig om dina personliga nyhetspreferenser och bara visar dig de mest relevanta nyheterna för dig. Att samla in data, i detta fall, är återigen mycket lättare, t.ex. antalet artiklar du läser i varje nyhetskategori, hur lång tid du lägger på varje artikel osv.

För det tredje måste ett AI-företag utveckla robusta och skalbara algoritmer . För att uppnå detta finns det tre måsten:en stor mängd väl märkt data (som diskuterats ovan), rätt talang och förtroendet för att djupinlärning är den rätta tekniken för att lösa problemet. AI-företag måste ha rätt talang för att utveckla de nödvändiga algoritmerna, men dessa är mycket specialiserade, dyra och få. Till exempel, när jag tänkte anställa för min start upptäckte jag att jag åtminstone behövde datavetare (vanligtvis doktorer) för att utveckla algoritmprototyper, ingenjörer för att designa ramverk, programmerare (TensorFlow, Python, C++ etc) för att koda in i skalbara program och personer för att sätta ihop dem (produktchef, UX, UI, etc).

En annan faktor är datorkraft . Varför? Eftersom deep learning neurala nätverk kräver mycket mer beräkning än de andra AI-metoderna. Till exempel, för samma uppgift att identifiera en hund i en bild, kan träning av modellen med hjälp av icke-djupinlärningsalgoritm behöva, till exempel, 10 statistiska modeller med en datauppsättning på 1 GB. Modellen för djupa neurala nätverk kan behöva till exempel 1000 statistiska modeller som körs genom en datauppsättning på 100 GB. Resultaten är bättre med nätverk, men den beräkningskraft som krävs är mycket större. Som ett resultat kräver dessa modeller inte bara en dator (som vad vi gör på vår persondator), utan distribuerad datoranvändning med varje GPU som hanterar till exempel 5% av beräkningen, så att 20 GPU:er tillsammans kan hantera den beräkningsvolym som krävs. Detta innebär i sin tur att du måste bygga dina egna GPU-klusterservrar eller hyra datorkraften från plattformar som AWS. Datorkraft från antingen cloud computing eller dina egna servrar är kostsamt, även om enhetskostnaden för datoranvändning i rättvisans namn borde minska kontinuerligt (enligt Moores lag).

Slutsats

Många tror att det nu är den bästa tiden att se AI-genombrott och startups, eftersom digitaliseringen av många industrier och konsumentinternet gör en stor mängd målmedvetet insamlad, rent organiserad, digital data tillgänglig. Utvecklingen av Nvidias GPU och Intels FPGA gör det mycket billigare och snabbare att utföra nödvändiga beräkningar. Den nuvarande AI-vågen av innovation drivs därför av viktiga framsteg inom djupinlärning .

Men för att en AI-applikation ska bli framgångsrik behöver man ett väldefinierat önskvärt problem, data, algoritm och betydande datorkraft. För chefer som läser den här artikeln och överväger att använda AI för att stärka sin verksamhet, gäller även de fyra nyckelkomponenterna som nämns ovan.

Hur kan du lära dig mer om AI? Det finns gott om böcker, seminarier, Coursera-kurser, forskningsartiklar och organisationer som Deep Learning för att lära sig om AI. Eftersom fokus i den här artikeln är för investerare som vill veta grunderna i AI, berörde jag inte många av de heta AI-ämnena ämnen som potentialen för AI som ett hot, branschens framtidsutsikter, AI-investeringar, proffsen och nackdelar med olika algoritmer (t.ex. CNN), prototyper kontra skalning, större programmeringsspråk, etc. I del 2 av den här serien kommer jag att fördjupa mig i hur man utvärderar AI-företag ur ett investerarperspektiv.


Företagsfinansiering
  1. Bokföring
  2. Affärsstrategi
  3. Företag
  4. Kundrelationshantering
  5. finansiera
  6. Lagerhantering
  7. Privatekonomi
  8. investera
  9. Företagsfinansiering
  10. budget
  11. Besparingar
  12. försäkring
  13. skuld
  14. avgå