Fra produkt til plattform – når verdien av data øker

I digital innovasjon er data ofte den eneste og viktigste råvaren. Det er data som forer Teslas kjøreopplevelse og utvikling, Amazon’s Alexa stemmeassistent, og Google’s søkemotor. Det er tilgang på data om oss forbrukere som gir Facebook en forretningsmodell, som dreier GE fra et industriselskap til et prediksjonsselskap og som gjør Norgesgruppen i stand til å rette annonser mot oss for produkter vi ikke trodde vi trengte.

Prediksjon er sentral for alle disse nye forretningsmodellene. Store mengder ustrukturerte data gjør oss i stand til å finne mønstre som kan brukes til å predikere fremtidig adferd. Et eksempel er hvordan GE brukte sine data om sine industrielle produkter til å forbedre kundenes opplevelser og maskinenes ytelse. Et annet er Telenor som med å analysere brukerdata kunne predikere spredningen av dengufeber i Pakistan. Et tredje er hvordan data blir brukt til å lage bedre mobile løsninger for mennesker med mentale problemer. Trenden vi observerer er rimelig klar – selskapers fokus går fra produkt til plattform.

Med andre ord er det ikke bilen Tesla selger. Det er kjøreopplevelsen. Det er ikke et konkret søkeverktøy Google selger. Det er prediksjon om hva vi egentlig er ute etter basert på noen få ord vi plasserer i søkefeltet. Og det er ikke mikrobølgeovnen til Amazon vi kjøper. Nei, vi kjøper et system som gjør hverdagen enklere for oss.

I en slik overgang fra produkt til plattform er verdien av plattformen veldig viktig. Og den er en funksjon av datamengden. Men på en annen måte enn vi først kanskje tenker oss.

For data har alltid vært viktig i prediksjon. Alle som har jobbet med regresjonsanalyser eller andre statistiske teknikker vet at vi kan stole mer på resultatene dersom vi har større datamengde sammenliknet med tilfeller der vi har få observasjoner.

I klassisk prediksjon bidrar de 10 første observasjonene til en vesentlig forbedring i prediksjon. Men dersom vi legger på 10 observasjoner på toppen av 100 000 eksisterende observasjoner, vil effekten av de 10 siste være liten sammenliknet med de 10 første. Vi sier ofte at data har avtagende grensenytte. Altså er det lite å hente på å skaffe 40 000 nye observasjoner dersom vi har 400 000 fra før. Dette fenomenet med avtagende grensenytte er typisk for alle typer råvarer og input i produksjon. I figuren under er dette forholdet tegnet inn med en grønn linje.

Men i en plattformlogikk er det andre forhold som kommer inn. For mens Google sin søkemotor kanskje ikke blir så mye bedre av 10 000 ekstra observasjoner på toppen av de milliarder de allerede har, men de kan levere et relativt my bedre produkt sammenliknet med f.eks Bing. Og for oss som søker og opplever at Google oftere «tipper» rett på våre søk og gir oss treff med høyere relevans, så vil vi foretrekke Google for alle våre søk. Og når vi har kommet inn i Google’s økosystem (deres plattform), så er det ofte mye styr å bytte over til en annen plattform. Med andre ord er det stor verdi for Google i å kunne være marginalt bedre enn Bing. På denne måten vil ikke den samme loven om avtagende grensenytte gjelde når produkt går til plattform. I stedet ser det ut til at det er økende grensenytte (tegnet inn som blå linje i figuren under). Dette betyr det vil være økende etterspørsel etter gode data utover i plattformens livssyklus.

Så hvilke strategiske implikasjoner kan vi dra av dette. Jeg vil trekke frem to ting:

  1. Dersom du er et selskap som ser kundedata som en viktig innsatsfaktor i din egen reise fra produkt til plattform så bør tilgang til data sikres gjennom allianser eller kjøp av data fra tredjepart. Langsiktig konkurransefortrinn vil avgjøres av din evne til å sikre tilgang til data på lang sikt.

  2. Måten ditt selskap ser strategi på vil være avgjørende. Fokus på «hva som kreves av deg for å levere innovasjon og slå konkurrentene» vil ikke være tilstrekkelig. I tillegg må beslutningstaker stille seg følgende to spørsmål:

  • Hvem flere trenger å skape innovasjon for at min innovasjon betyr noe? – Dette er co-innovasjonsperspektivet hvor effekten av min innovasjon er en funksjon av andres. Eksempler her er at Amazon vil ikke kunne selge en god smarthjem løsning dersom nødvendige komponenter (lyspærer og stikkontakter) ikke eksisterer.

  • Hvilke andre må adoptere min innovasjon for at sluttkunden skal kunne oppleve et fullstendig verdiforslag? – Her er det snakk om å styrke adopsjonskjeden. Med dette mener vi tjenester og produkter bygd rundt din egen innovasjon. Et klassisk eksempel er at Apple iPhone ville vært vesentlig mindre verdt for kunden uten et rikt og åpent økosystem av apper og tilhørende tjenester.

I møte med økende grensenytte av data for å bedre din plattform, er fokus på gode allianser og tilgang på rike datakilder et vesentlig poeng. I tillegg bør beslutningstakere adoptere en større linse i sitt strategiarbeid. Uansett er vi tidlig i prosessen med å forstå data som råvare i digital innovasjon.

Kan kunstig intelligens gjøre flyplassloungen passé?

Dersom man er så heldig at man har en litt dyrere flybillett, så kan man nyte ventetiden på flyet sitt i en mer komfortabel stol med tilgang på mat, snacks og drikke. Loungene på flyplasser verden rundt gjør reisingen litt mer behagelig. Og i en tid når flytrafikk øker, så skulle man jo tro at de hadde en utmerket forretningsmodell.

Men tenk litt på det. Hvorfor er de der? Jo, de er der for å behage ventende passasjerer. Altså passasjerer som kommer litt tidligere til flyplassen enn nødvendig, eller som har et fly som er forsinket.

Dette er et ganske typisk scenario for mange flyreisende. Flyet går kl 1200. Og vi bør være der en time før, kl 1100. Vi bor ca 1 time unna flyplassen og bør derfor kjøre senest kl 1000. Men fordi vi ikke vet hvordan trafikken er, eller om det er noen forsinkelser av noe slag langs veien, så starter vi gjerne 30 min tidligere. Det skal legges til at hjemme hos meg har vi to vidt forskjellige syn på hvor tidlig vi må være på flyplassen, men det er en annen sak.

Vi kan med andre ord si at hovedgrunnen til at vi legger inn så mye tid er usikkerhet. Vi har for dårlige prediksjoner om fremtiden.

Hva om vi kunne predikere veldig nøyaktig hvor lang tid det tok å kjøre til flyplassen hvor lang tid sjekk inn og sikkerhetskontroll kom til å ta og samtidig vite på forhånd om det kunne oppstå forsinkelser i flytrafikken? Jo da hadde vi i prinsippet ikke trengt å bruke veldig mye ekstra tid på flyplasser. Og behovet for komfortabel venting hadde gått ned.

Dersom man er så heldig at man har en litt dyrere flybillett, så kan man nyte ventetiden på flyet sitt i en mer komfortabel stol med tilgang på mat, snacks og drikke. Loungene på flyplasser verden rundt gjør reisingen litt mer behagelig. Og i en tid når flytrafikk øker, så skulle man jo tro at de hadde en utmerket forretningsmodell. Og hvis du leser dette på en lounge eller et annet sted hvor du venter, kan du lese denne boka om akkurat dette tema.

Vi søker forskere og stipendiater!

Visjonen til DigInn er å bli et nasjonalt ledende og internasjonalt anerkjent fagmiljø som driver næringsrelevant forskning og undervisning i skjæringspunktet mellom innovasjon, digitalisering og grønn bærekraft. Handelshøgskolen ved Nord universitet søker i den forbindelse deg som er faglig nysgjerrig, analytisk og strukturert, og vil være med å utvikle fremtidens økonomiutdanning. Vi skal ansette 1-2 fireårige stillinger som doktorgradsstipendiat i digital innovasjon og grønn bærekraft knyttet til DigInn-satsingen på Steinkjer.

Faggruppen for Innovasjon og Entreprenørskap ved HHN er vertskap for satsingen. Dette fagmiljøet er ved flere anledninger rangert som det beste forskningsmiljøet innen entreprenørskap i Norge, og Nord Universitet var nylig rangert som eneste norske institusjon blant verdens 100 mest produktive innen entreprenørskapsforskning. I tillegg til å bli en del av dette forskningsmiljøet, vil stipendiatene lokaliseres i det nye Innovasjonscampus Steinkjer som åpner i august 2019. Dette bygget blir en møteplass mellom kreative næringer, landbruk og offentlig forvaltning på den ene siden, og forskningsmiljøer på den andre. Felles for alle er at innovasjon og digital teknologi påvirker måten de jobber på, og de produkter og tjenester de tilbyr. Forskning på digital innovasjon under samme tak som mange bedrifter og offentlige virksomheter vil i så måte utgjøre et ‘laboratorium’ for empiriske undersøkelser.

Doktorgradsprosjektet til stipendiatene kan tilpasses egne interesser, men skal være relatert til digital innovasjon og grønn bærekraft. Dette betyr at forskningen er forankret i innovasjons- og entreprenørskapsfaget, men ser på hvordan digitalisering påvirker innovasjon og entreprenøriell aktivitet i ulike bransjer og sektorer, spesielt i forhold til å utvikle bærekraftige løsninger. Digital innovasjon og bærekraft er sentralt for framtidige løsninger i alle sektorer og forskningen kan omfatte primærnæringer, industri, tjenesteyting eller offentlig sektor. Eksempler på temaområder kan være:
– Digitalisering som pådriver for overgangen til sirkulær økonomi
– Digitalisering og bærekraftige løsninger i bio-økonomien
– Digitalisering som drivkraft for entreprenørskap og nye forretningsmodeller i nye og eksisterende virksomheter
– Digitalisering og regional innovasjon
– Data-drevet innovasjon og plattform-økosystemer

Ta kontakt hvis dette er av interesse. Stillingsutlysning finner du her.

Hvordan skape verdi av big data?

Altså vi har hørt dette mange ganger nå: «Det er enorme verdier i data». Det er vel og bra. Men hvordan kan vi faktisk skape verdier av big data? Tidlig forskning på område har noen forslag det er verdt å se mer på.

Det er to komplementære men forskjellige typer «assets» som må vurderes når man ser på verdien av big data. Den ene dimensjonen er analytiske kapabiliteter. Her ligger evnen til å kunne analysere komplekse data og skape mening ut av de. Den andre dimensjonen er tilgang til data. Det er stor forskjell mellom organisasjoners adgang til data ettersom mye er privat eid og kontrolleres av få aktører slik som Google og Facebook.

For å bygge analytiske kapabiliteter må mange organisasjoner investere tungt i immaterielle eiendeler og humankapital. Dette medfører en oppgradering av eksisterende arbeidsstokk og samtidig ansettelse av nye hoder som kan bringe ny innsikt. For organisasjoner hvor dataanalyse ikke har vært en sentral del av virksomheten tidligere, kreves det at man håndterer denne utviklingen som et innovasjonsprosjekt med stor autonomi, disiplinert lederskap og hvor analysetemaet får tilgang til hele virksomheten.

For å bygge tilgang til data kreves det en vesentlig investering i å strukturere eksisterende datakilder som er proprietære til den individuelle organisasjonen. Samtidig må man forstå hva som finnes av offentlig tilgjengelig data som kan kombineres med proprietære kilder. Et tredje punkt er å vurdere kjøp av tilgang til nødvendig data fra andre kilder. Og dette kan bli dyrt dersom virksomheten ikke har en klar oversikt over hva som trengs. Forskning på området tyder imidlertid så langt på at det er analytiske kapabiliteter som er den viktigste kilden til konkurransefortrinn.

Så hvordan kan bedrifter og andre organisasjoner tenke på verdiskapning fra big data? Hvordan kan de fatte beslutninger om investeringer som er riktig i forhold til de mål og forutsetninger virksomheten har?

Tidligere nevnte forskning antyder en mulig måte å tenke på dette på. Basert på intervjuer med fremtredende CEOs forslår de en typologi av digitale forretningsmodeller.

Data brukere (data users) er virksomheter som bruker data til strategiske beslutninger som f.eks hvilket produkt man skal lansere og når. Dette er bedrifter som også kan lage produkter ut fra sine data. Et eksempel på dette er PAI. Dette er en aktivitetsmonitor på samme måte som FitBit, men den er basert på input fra HUNT (Helseundersøkelsen i Nord Trøndelag). Innsikten fra tusenvis av mennesker som har blitt observert over 20 år har gjort at folkene bak PAI kan lage en mye bedre aktivitetsmonitor enn tidligere versjoner. Dette er altså et datadrevet produkt.

Data tilbydere (data suppliers) er virksomheter som samler data fra ulike kilder og gjør de klar for input inn i andre virksomheters beslutningsprosess. Verdiskapningen her skjer gjennom å pakke sammen data og selge videre. Et eksempel på dette er Legistorm. Selskapet rensker og sammenstiller masse data om den amerikanske kongressen som lønnsnivå, avstemninger, komitemedlemskap og lignende. Alle data er offentlig tilgjengelig, men i vanskelig tilgjengelig format for videre analyse. Derfor tilfører Legistorm verdi gjennom å renske og strukturere data for videre salg.

Data fasilitatorer (data facilitators) er virksomheter som bidrar til de andre kategoriene med infrastruktur og kunnskap. Slike virksomheter tilfører verdi gjennom å ha spisskompetanse på deler av dataanalyseprosessen. Dette kan være fysisk infrastruktur som skytjenester og beregningskraft (som Amazon Web Services), analyseplattformer (som SAS), eller konsulenttjenester som Accenture eller Nord Universitet spin-off Mimir Analytics.

De fleste virksomheter vi i DigInn jobber med havner i den første kategorien. De er ofte selskaper og organisasjoner uten teknisk spisskompetanse på dataområdet, men med en forståelse av at dette er et tog de må være med på. Og det er mange rammeverk og modeller for hvordan virksomheter kan ta dette skrittet. Men her vil jeg oppsummere dette i tre punkter.

  1. Start i det små – begynn å se på de data dere har i virksomheten. Dette krever vilje til å åpne opp datamaterialet og ikke frykte at det blir misbrukt av folk i organisasjonen til andre formål.

  2. Vær rask til å avslutte prosjekter som ikke avdekker noe vesentlig innen kort tid.

  3. Forankre arbeidet, om enn så lite, helt til topps i organisasjonen.

Vi i DigInn vil veldig gjerne høre om hvordan din organisasjon jobber med big data, så ta kontakt.

Når vi ikke kan ta på det som gir verdi

Bokanmeldelse – «Kapitalisme uten kapital» – Jonathan Haskell og Stian Westlake

I 2008 passerte investeringer i immaterielle eiendeler (intangible assets (IA)) investeringer i fysisk kapital (som maskiner, bygninger og annet du kan ta på). I boken «Capitalism without Capital» går forfatterne Jonathan Haskell og Stian Westlake grundig inn på hvorfor akkurat dette vil ha store konsekvenser for samfunn, markeder, bedrifter og individer.
Boken starter med å vise at IA har vært med oss gjennom hele den økonomiske historien. Historien om Quaker Oats trekkes frem. Henry Cowell, grunderen bak selskapet som lagde havregryn, måtte utvikle en markedsføringsplan for at folk skulle forstå at han ikke solgte hestemat (havre var tross alt det). Denne markedsføringen og brandingen ble en IA som sammen med havren utgjorde hele produktets verdi.

IA skiller seg fra sin fysiske fetter på fire områder (forfatterne omtaler dette som «immaterielle eiendelers fire S’er»).

  1. Scaleability: Det viktigste momentet som gjør selskaper som Google og Amazon så verdifulle er at de kan skaleres nesten uendelig uten øke kostnadene sine vesentlig. Mens Rema 1000 må ansette nye folk og øke flyten av varer for å håndtere en kundeøkning på 100 000 kunder, merkes knapt dette på Google sin plattform. Skalerbarhet betyr at IA kan brukes av mange samtidig og repetitivt uten at det forringer verdien av eiendelen. Høy skalerbarhet gjør IA potensielt veldig lønnsomt og kan samtidig bidra til å øke barrierene for å entre et nytt marked utenfra. Potensielt kan også skalerbarhet skape monopolsituasjoner – noe f.eks Google har fått føle på.

  2. Sunkenness: Starbucks Coffee finnes i mange land og følelsen av å gå inn i en av dem er relativt unik. Operasjonelle rutine er i detalj nedtegnet i driftshåndboka til Starbucks. Det er denne konsistente gjennomføringen som gir Starbucks mye av sin verdi. Dersom selskapet hadde gått konkurs ville det imidlertid vært svært vanskelig å selge denne immateriell eiendelen. Selv om håndboka er en særdeles viktig av Starbucks sin verdi (den sørger for konsistens og en unik kundeopplevelse) er dens verdi knyttet til Starbucks brand, kultur og struktur. Utfordringen når graden av sunkenness går opp er at det er vanskeligere å finansiere. Spesielt er det vanskelig å få gjeldsfinansiering fordi en IA ikke enkelt kan stilles som pant.

  3. Spillovers: Når Apple lanserte sin iPhone skapte de en ny produktkategori; smartphone. Andre merker kom raskt med sine telefoner som lignet på Apple sitt produkt. Dette gjorde at markedet for smartphones vokste ekstremt raskt. Med andre ord gjorde en IA teknologi mulig fremvekst av andre IA teknologier mellom markeder og bedrifter. Dette skaper selvfølgelig noen incentivproblemer dersom en bedrifts teknologi kan skape verdi for andre uten at dette kommer den opprinnelige bedriften til gode.

  4. Synergier: The Beatles fremførte en helt ny form for musikk som åpenbart var en IA. Plateselskapet, Parlophone, hadde i tillegg særlig gode kapasiteter til å markedsføre og promotere band. Tilsammen skapte de legenden og cashmaskinen The Beatles. Og nettopp synergier er et vesentlig moment ved IA i følge Haskell og Westlake. Det at ofte store og uforutsette synergier oppstår mellom IA, og IA og fysiske eiendeler, gjør det vanskelig å forutse investering i IA og dens potensielle payoff. Man kan fort systematisk undervurdere IA og velge å avstå fra investeringer.

Haskell og Westlake trekker frem flere konsekvenser av fremveksten av IA. Og en full gjennomgang av disse er i overkant langt for en blogpost. Men blant trekkene som de relativt overbevisende viser til er:

  • Fremveksten av IA sammenfaller med økning i økonomisk ulikhet. Årsaken ser ut til å være at IA i relativt større grad skaper verdier til kapitaleiere fremfor arbeidere. Dette er også et av hovedargumentene til Thomas Piketty i hans mye omtalte bok (uten at han ser spesifikt på IA). Samtidig forfordeles arbeidskraft med høy kompetanse. Folk uten utdanning har vanskeligere for å kunne jobbe i en økonomi med økende grad av IA – selv om Uber og andre selskaper selv er en funksjon av IA, men også gir folk uten høy teknisk kompetanse muligheten til å jobbe.

  • Den ekstremt trege veksten i investeringer og produktivitet (secular stagnation) kan også knyttes til IA. På grunn av skalerbarheten har noen veldig få bedrifter blitt veldig store og rykket fra konkurrentene. Avstanden i produktivitet mellom et lite knippe markedsledere og en stor gruppe markedsfølgere, har økt dramatisk. Med andre ord har vi en slags «winner takes all» logikk. Dette reduserer insentivene til å investere i disse bedriftene som havner bak.

  • På grunn av karakteristikkene til IA er de vanskelig å verdsette. I motsetning til bygninger og maskiner finnes det ingen annenhåndsmarkeder for IA. Dette gjør at finansiering av IA er vanskeligere. Banker vil sjelden gjeldsfinansiere slike investeringer fordi det er vanskelig å ta pant i IA. Dette gjør egenkapitalfinansiering enda viktigere. Men disse markedene preges av store institusjonelle investorer som foretrekker forståelig risiko – noe vi mye godt mangler når det gjelder IA.

Digital innovasjon skapes i stor grad gjennom investering i IA. Haskell og Westlakes analyse i denne boken gjør oss oppmerksomme på noen av utfordringene og mulighetene som ligger i en økonomi som stadig blir mer immateriell. For bedrifter og organisasjoner vil overgangen til mer IA bety at de må rekalibrere sine beslutningsmodeller, finansieringsmix og kapasiteter for å konkurrere effektivt. For oss som samfunn betyr det at vi må finne omfordelingsmekanismer som fungerer når avkastningen på IA øker over tid.

Analysene i boken er grundige og basert på førsteklasses forskning. Jeg savner imidlertid at forfatterne går litt forbi mikroøkonomiske analyser og beveger seg noe mer inn i økonomisk sosiologi og adferdsforskningen for å berike sine analyser. Når det er sagt så viser boken et betydelig grep om sentrale teoretiske og empiriske konsepter og er en berikelse for alle som er opptatt av fremveksten av immaterielle eiendeler.

Jeg vil nok ikke anbefale boken i sin helhet til praktikere da den er noe teknisk krevende i enkelte partier og kanskje ikke like relevant i hverdagen til mange.

Ryktet om arbeidsplassers død er sterkt overdrevet

Bokanmeldelse – «Predictive Machines» – Agrawal, Gans og Goldfarb

Historien om kunstig intelligens er ofte en hvor maskiner erstatter mennesker på arbeidsplassen. Noen går lenger og forfekter en verden hvor mennesker blir maskinenes slaver. Ingen av disse fremtidsbildene stemmer, i følge forfatterne av boken «Predicitve Machines – The Simple Economics of Artificial Intelligence». Men måten vi jobber på kommer til å endres dramatisk.

Boken har et forlokkende enkelt argument godt fundert i enkel mikroøkonomisk teori. Mennesket har alltid vært «in the business of prediction». Vi jobbet tidlig for å forutse hvor mammuter eller sabeltanntigre ville befinne seg i steinalderen. Mer nylig har vi forsøkt å velge den perfekte julegaven i 2019 etter et katastrofalt dårlig gavevalg i 2018. AI leder først og fremst til bedre og billigere prediksjoner. Når noe blir bedre og billigere, konsumerer vi mer av det (det er dette vi kaller fallende etterspørselskurver). Dette betyr at vi kan la maskiner håndtere mer og mer av våre prediksjoner for oss. AI kan gjøre mer av det vi gjør.

Dette må jo være dårlig nytt for arbeidsmarkedene, sier du? Nei, vil Agrawal og hans kolleger hevde. For samtidig med at etterspørselen etter AI går opp, går etterspørselen av komplementer til AI også opp. Et komplement (komplementært gode) er et hvor etterspørselen øker som følge av økning i etterspørsel av et annet gode. Når etterspørselen etter kaffe øker, øker også etterspørselen etter fløte og sukker. Og her ligger det veldig enkle resonnementet til Agrawal & Co: AI har mange komplementer.

Og her trekker de frem mange eksempler komplementer til AI. Men den viktigste er utøvelses av skjønn (judgement). Mennesker er relativt sett mye bedre enn maskiner til å utøve skjønn. Skjønn er nødvendig for å virkelig dra verdi ut av en god prediksjon. Et eksempel på dette er kredittkortselskapers evne til å forutsi svindel. Denne prediksjonen er vesentlig bedre med AI enn den var tidligere, og man kan raskt avdekke potensielle svindelforsøk. Samtidig kan prediksjonen, hvis den ble overlatt til seg selv, predikere svindel i tilfeller der dette ikke var tilfelle og nekte en legitim transaksjon. Mange har opplevd at de har fått kortet avvist i butikker de vanligvis ikke handler i fordi automatisert prediksjon har fattet mistanke basert på lignende transaksjoner hos lignende kunder. Dette kan føre til en meget misfornøyd kunde og ha en kostnad prediksjonen ikke klarer å ta innover seg. Her må menneskelig skjønn til for å avdekke riktig handling.

Etterspørselen etter skjønn øker altså samtidig med etterspørselen etter prediksjon. Dette tyder da på at man ikke får færre, men flere nye jobber som følge av AI. Det er selvfølgelig mange forutsetninger her, men bokas hovedargument er at mens enkelte funksjoner overtas av maskiner, øker behovet for menneskelig interaksjon med disse maskinene. Dette betyr at mens det å analysere røntgenbilder nå gjøres bedre av AI, har etterspørselen etter radiologer ikke gått ned. Det samme viser statistikken over jobbannonser i yrker hvor nettopp AI er antatt å ha stor effekt. Forfatterne viser til at antallet markedsføringsjobber har økt, men at disse jobbene inneholder større grad av skjønnsmessige ferdigheter enn tidligere.

Boken er veldig lett skrevet og bruker gode eksempler til å belyse hovedargumentene. Det mangler noe på empiri, men det er nok ikke rart all den tid dette er et fenomen som nettopp har begynt å vise seg rundt oss. Boken kan anbefales til praktikere og akademikere som en god innføring i kunstig intelligens og dets effekt på økonomien.

Avi Goldfarb er professor i markedsføring ved Rotman School of Management, University of Toronto. Her fra et seminar om kunstig intelligens denne uken, arrangert av University of Wisconsin-Madison School of Business.

NBER Digitization Tutorial 2019

Stipendiat ved Handelshøgskolen Nord, Birgitte Hovdan Molden, er for tiden på utenlandsopphold i Wisconsin, Madison. Hun har sammen med sin mann Lars Hovdan Molden, som også er stipendiat ved HHN, tatt med seg sine to små barn over dammen for å jobbe tett på professorer med viktige bidrag innen sine forskningsfelt. I tillegg til å jobbe ved University of Wisconsin-Madison denne våren, skal Birgitte i begynnelsen av mars delta på den årlige NBER Digitization Tutorial for PhD-studenter innen økonomi.

NBER står for National Bureau of Economic Research. Det er en amerikansk, privat, ideell, ikke-partisk organisasjon, dedikert til å drive økonomisk forskning og formidling av forskningsresultater til akademikere, offentlige beslutningstakere og privat næringsliv. Organisasjonen består av over 1400 professorer, i tillegg til forskere som er ledende innen sine felt fra universiteter og forskningsinstitusjoner i hele USA. NBER Digitization Tutorial er ment for å introdusere PhD-studenter til det relativt nye forskningsfeltet digitalisering og gi kandidatene mulighet til å lære av ledende forskere innen emnet. I spissen av tutorialen finner vi professor Shane Greenstein ved Harvard Business School og professor Avi Goldfarb ved Rotman School of Management. I sammenheng med tutorialen arrangeres det et vintermøte i digitaliseringsgruppen til NBER, hvor 8 NBER-forskere presenterer og diskuterer artikler de jobber med innen «Economics of Digitization».

Stipendiat ved Handelshøgskolen Nord universitet, Birgitte Hovdan Molden. Bilde fra Kick-off for DigInn.

Søkerne til tutorialen måtte legge ved en egenprodusert forskningsartikkel innen digitalisering. Det var veldig mange søkere og derfor svært gledelig for HHN og DigInn at Molden ble invitert til å delta.

– Jeg føler meg heldig som har fått mulighet til å delta. Dette gir meg anledning til lære av de beste i verden innen forskningen på dette feltet og se hva de er opptatt av. Slike internasjonale møter, konferanser og workshops er utrolig viktig når man er forsker, og særlig som «ny» forsker. Ikke bare for å lære seg noe nytt, men også for å kunne knytte nettverk og «ta med» erfaringer og kunnskap tilbake til kollegaer ved Nord universitet og DigInn, forteller Molden.

Tutorialen vil bli avholdt ved fasilitetene til Stanford Institute of Economic Policy Research ved Stanford University.

Klima som finansiell risiko

Granavolden 17.januar 2019. Frp, Høyre, Venstre og KrF stemte for en borgerlig firepartiregjering og vedtok regjeringserklæringen om en felles politisk plattform. Denne politiske plattformen skal svare til de store utfordringene Norge står overfor. Den beskriver tiltak som kan gjennomføres i de neste to årene, samtidig som den viderefører og støtter nytt omstillingsarbeid og reformer som strekker seg over tid. En av de store utfordringene som Norge står overfor er klimaforpliktelsene – å ta vår del av ansvaret for å løse klimautfordringene. I erklæringen står det at innfrielse av klimaforpliktelser og samtidig opprettholde finansiell stabilitet, krever stor satsing på ny grønn teknologi og utvikling av markeder for nullutslippsløsninger. Vårt nye arbeidsliv må altså være grønt, smart og nyskapende. Slik reduserer vi Norges klimarisiko.

Først en liten begrepsforklaring. Klimarisiko, som erklæringen referer til, er ikke et nytt begrep i den forstand, men begrepet tolkes forskjellig verden over. Mark Carney, den britiske sentralbanksjefen og tidligere leder i G20-landenes Financial Stability Board, organiserte i 2016 en ekspertgruppe med den tidligere New York-ordføreren Michael Bloomberg i spissen. Ekspertgruppen fikk navnet Task Force on Climate-related Financial Disclosures (TCFD) og de utarbeidet 11 rapporteringspunkter for hvordan selskaper bør rapportere om klimarisiko i fremtiden. En av de viktigste komponentene i arbeidet var nettopp etablering av et felles begrepsapparat. Begrepet klimarisiko har derfor fått noe struktur og man deler det gjerne inn i tre kategorier:

Illustrasjon: Norsk Klimastiftelse/2°C

Det er imidlertid viktig å skille begrepene klimarisiko og karbonrisiko. Klimarisiko omfatter risiko både knyttet til klimaendringer (fysisk risiko), klimapolitikk (ansvarsrisiko) og energiomstillingen (overgangsrisiko) som medfølger, mens karbonrisiko definerer risiko kun i forbindelse med overgangen til et lavutslippssamfunn (overgangsrisiko).

Ifølge regjeringens strategi for grønn konkurransekraft (2017) må finansieringen av omstillingen i all hovedsak komme fra private kilder. Det vil si at finansnæringen er gitt en viktig rolle i utviklingen av Norges grønne konkurransekraft. Teknologiutvikling, karbonprising og reguleringer kan endre globale markedsbetingelser for karbonintensive varer og tjenester. Endret klimapolitikk og rask teknologiutvikling vil påvirke lønnsomheten negativt dersom langsiktige investeringer er låst inn i virksomhet som opplever brå pris- og verdifall, eller permanent etterspørselsreduksjon. Omstilling bort fra fossile energibærere kan gi fall i verdien av reserver og realkapital (stranded assets), som også kan skape forstyrrelser for banker og andre finansinstitusjoner. Store endringer på kort tid kan representere en fare for global finansiell ustabilitet. Finansnæringen må derfor, som følge av sin rolle i utvikling av Norges grønne konkurransekraft, forebygge tap og skade gjennom å prise klimarisiko.

Klima som finansiell risiko – et kjempespennende og komplisert tema. Nasjonalt er vi i startgropa når det kommer til forskning på området, og det er noen kunnskapshull som må dekkes før vi lykkes med klimamål og finansiell stabilitet i det grønne skiftet. Et etablert begrepsapparat, godt implementerte rapporteringsrutiner og velfungerende verktøy for prising av klimarisiko er utvilsomme forutsetninger. Men vi trenger uansett mer kunnskap om hvordan bedrifter kan generere profitt, gitt klimautfordringene som begrensede omstendigheter. Spørsmålet er vel om det i det heletatt er mulig å takle klimautfordringene og samtidig opprettholde finansiell stabilitet. Dersom Attenborough har rett her så må i så fall en opprettholdelse av finansiell stabilitet innebære kontrollert stopp i veksten, noe som igjen vil måtte medføre en ganske omfattende redistribusjon av ressurser.

For oss som er opptatt av digital innovasjon og grønn bærekraft er regjeringsplattformen uansett svært positiv lesing, og det blir spennende å se hvordan Norge skal innfri de politiske målene mot neste stortingsvalg. I mellomtiden skal det forskes!

NRK Trøndelag: Forskerpraten 14.januar

Forskere bør komme seg ut der det er mulig å skaffe seg internasjonal erfaring innen sitt spesialfelt, forteller programleder hos NRK Trøndelag Jørn Haudemann-Andersen. I radioprogrammet “God ettermiddag Trøndelag” kunne du mandag 14.januar høre ukens forsker Lars Hovdan Molden fortelle om sitt forskeropphold i USA og DigInn satsingen.

Internasjonal erfaring bidrar til å heve kvaliteten på forskningen, noe som er svært viktig innen i en bransje hvor man konkurrerer i å publisere i spesialiserte tidsskrift. Et forskermiljø med dybdekunnskap og som kan stille kritiske spørsmål ved forskningen er nettopp det man trenger for å sikre en god kvalitet. For stipendiat Lars Hovdan Molden innebærer det å flytte til Wisconsin, Madison i USA. Her skal han, sammen med sin kone Birgitte Hovdan Molden, jobbe det første halvåret i 2019. Birgitte er også stipendiat ved HHN Steinkjer og skal i likhet med sin mann jobbe med doktorgradsavhandlingen sin ved University of Wisconsin.

I intervjuet forteller Lars at teknologi, kunstig intelligens og Big Data i stor grad vil påvirke måten vi jobber på i fremtiden. Videre forteller han om forskningssatsingen DigInn ved HHN Steinkjer – et tiltrengt initiativ som følge av høy endringstakt i den digitale økonomien. Topp kompetanse innen digital innovasjon og grønn bærekraft vil som følge av de faktorene nevnt over, være vesentlig for å kunne skape regional utvikling og konkurransefortrinn.

Fullversjon av intervjuet finner du her.

 

Beslutninger: Riktig beslutningsparameter

Etablerte virksomheter med vett på risikostyring har minst ett øye på nåverdien av nye prosjekter og potensielle nye markeder og kunder. Og det er veldig fornuftig når vi snakker om områder der vi har god forståelse av risiko. Figuren under viser en måte å tenke på nye muligheter på. Den vertikale aksen beskriver risiko knyttet til teknologien vi tenker å anvende. Den horisontale aksen måler samtidig markedsrisikoen vi står overfor. Et eksempel kan være at DNB skal lansere en ny mobilbank. Teknologien for mobilbanker er ganske godt testet ut og vi vet at det er et marked for slike tjenester (men kanskje ikke veldig lønnsomt i seg selv). En slik mobilbank vil være et prosjekt som blir liggende nederst til venstre i figuren under. I et slikt tilfelle vil DNB gjøre lurt i å fokusere på nåverdiberegninger og andre tradisjonelle mål på forventet avkastning gitt risiko.

(Petersen og Ryu, 2015)

Men jo mer teknologisk risiko og markedsrisiko vi ser for oss, jo mindre egnet blir nåverdiberegninger til å fatte beslutninger på. Årsaken er nemlig at de aller fleste slike beregninger vil vise at dette er noe vi IKKE bør igangsette.

Steve Jobs satte I gang en rekke prosjekter som aldri kunne regnes hjem på denne måten. Noen av de, slik som LISA, ble en gigantisk nedtur. Andre, slik som iPad, har forandret måten vi konsumerer media på. Og selv om Jobs ofte tok beslutninger på mindre rasjonelt grunnlag (eller fikk viljen sin gjennom det Walther Isachson beskriver som «The Reality Distortion Field»), ligger det noe fundamentalt i å legge tradisjonelle kalkyler til siden når man jobber med innovasjon.

La oss ta et tenkt eksempel på hvordan en bank kunne beveget seg i retning av mer usikre og potensielt lønnsomme innovasjonsprosjekter. Et sted å starte er med bankens viktigste ressurser og kapabiliteter som utgjør deres konkurransemessige fortrinn i dag. For mange mindre banker er dette i hvert fall to ting:

  1. god kjennskap til sine kunder inkludert store mengder data og god kommunikasjon med kunden,

  2. stor tillit til å håndtere verdier.

Et naturlig utgangspunkt ville vært og kikket etter innovasjonsprosjekter som drar nytte av disse to kapabilitetene og bygge videre på disse. Et mulig eksempel er at banker bør tilby forvaltning av personers data. All den tid data forer en stadig voksende del av forretningsmodeller verden over og selskapers kommunikasjon med hver enkelt av oss er kostbar, vil det være et rasjonale for banker å ta en posisjon som forvalter. Hvis man tenker på det er det ikke så ulikt det banker gjør i utgangspunktet; de finner kjøpere av verdier (som sparepenger) og selgere av verdier (som sparepenger). En bank kan dermed bli en som forvalter kundenes data (alt fra kjøpsadferd, finansielle forhold til personlige preferanser osv). Slik kan selskaper som trenger data på en bestemt gruppe mennesker for å kunne tilby et bedre produkt henvende seg til banken som selger slike datasett mot penger. Disse pengene finner da veien til oss som kunder og banken beholder noe av verdien – på samme måte som sparepenger og lån.

Et slikt innovasjonsprosjekt vil medføre betydelig markedsrisiko og trolig også stor teknologisk risiko. Bankenes datasystemer er ikke tilrettelagt og kundenes vilje til å dele data kan fort være svakt. NPV vil med stor sannsynlighet være negativ (eller i det minste ha en enorm terminalverdi). Så hvordan kan en slik beslutning fattes i en organisasjon som sliter i nåverdifella? Kanskje kan den ikke det. Men her er tre steg man kan gå gjennom for å sørge for en tryggere beslutningsprosess:

  1. Avgjør om ideen/innovasjonsprosjektet har strategisk viktighet for virksomheten. En måte å se dette på er å tenke på om prosjektet har potensiale til å utvikle nye kontantstrømmer for selskapet på lang sikt og hvorfor dette i så fall er tilfelle. Her anbefaler jeg ofte bedriftsledere å se på konseptet «blue ocean strategy» som er et rammeverk for å omdefinere sin virksomhet bort fra den blodige krigen om markedsandeler («red ocean»). For vårt eksempel med dataforvaltning er dette et helt nytt marked for banker hvor tillit og gode løsninger vil skape store nettverkseffekter og «lock in» fordeler for «first movers». Jeg vil derfor hevde at man kan se dataforvaltning som strategisk viktig for banker fremover.

  2. Sørge for å etablere et knippe steg hvor eierskap til hvert steg ligger hos toppledelsen. Hvert steg skal nås raskt og kunne evalueres med klare kriterier hvert ledd. Dette er i tråd med ideen om å feile raskt hvor innovasjon sees som en iboende usikker prosess hvor eksperimentering er nøkkelen til suksess. Det betyr at man vil feile. Sørg for å lære av feil. Det høres veldig trivielt ut, men det som avgjør om feiling er positivt eller negativt er hvorvidt vi lærer av feil. Feiling som følge av inkompetanse er ingen god vei. Vårt eksempel med dataforvaltning vil fordre at vi raskest mulig setter opp en prototype som vi kan rulle ut til bankens egne ansatte eller en fokusgruppe. Denne trenger ikke ha bred funksjonalitet, bare skrape det viktigste av data som er tilgjengelig om ansatte fra sosiale medier og åpne kilder. Dersom dette ikke lar seg gjøre bør prosjektet skrinlegges eller omdefineres.

  3. Etablere en disiplinert tilnærming til eksperimentering. Dette knytter seg til feiling systematisk og under kontrollerte former. Gary Pisano ved Harvard Business School argumenterer for det han kaller «the killer eksperiment». Ideen er å designe et eksperiment som er ment å teste, på strengest mulige måte, hvorvidt konseptet vi ønsker å skape er liv laga. Dersom konseptet overlever dette eksperimentet, kan man relativt trygt ta det videre. Dataforvaltning kan testes på samme, strenge måte. Vi kan samle et knippe teknologisk bakvendte kunder som skal forstå, like og bruke konseptet vi utvikler. Dette stiller sterkere krav til vår prototype og til måten vi presenterer konseptet på.

Det å bytte ut NPV som beslutningsparameter med en mer kvalitativ tilnærming som presentert over, er krevende for mange virksomheter. Det finnes likevel mange gode tilnærminger langs de linjene jeg beskriver over. Og vi i DigInn vil komme tilbake til flere av disse i tråd med at vi forsker på bedrifters innovasjonsprosesser.