Runt millennieskiftet läste och undervisade jag i Machine Learning, eller mer populärt kallat artificiell intelligens. Tanken att datorer och maskiner skulle kunna bli intelligenta och självständiga har kittlat fantasin länge – fortfarande är det ett populär SF-tema att utforska möjligheter och faror med tänkande robotar.
Kontentan av vad jag lärde mig då, för snart 20 år sedan, är att ”intelligens” är en definitionsfråga och att det närmaste vi kan simulera mänsklig intelligens är med statistik.
Alan Turing – bio-aktuell våren 2015 med The Imitation Game – konstruerade Turing-testet som också fått ge namn åt filmen. Mata in frågor genom ett hål i väggen. Om det av svaren som kommer tillbaka inte går att avgöra om det är en människa eller maskin, så måste du acceptera att personen eller maskinen på andra sidan väggen är intelligent i samma bemärkelse som en människa. Främsta meriten med testet är att det konstruerar en definition av ”mänsklig intelligens” – upplevs en maskin som intelligent, ja då är den intelligent. Om du har iPhone – upplever du Siri som intelligent? Om ja så är Siri intelligent, annars inte.
I vilket fall är det roligt att sätta Siri på prov, men åtminstone undertecknad får inte en känsla av att Siri är särskilt smart.
Den tidiga datalogin fantiserade om att skapa elektronhjärnor som skulle efterlikna den mänskliga hjärnan – artificiella neurala nätverk var ambitiösa idéer om att programmera artificiella neuroner och koppla samman dem i stora nätverk. Likt hur hjärnan fungerar med hjärnceller hit och dit som skjuter pulser med varandra. Men de artificiella neurala nätverken skiljer sig mycket från de vi ha i hjärnan.
Hjärnan innehåller kanske runt 100 miljarder neuroner och varje neuron är lite slumpmässigt kopplad till andra runt om – inget fint mönster finns. Kaos råder. Pulserna som skickas mellan neuronerna är ganska långsamma, runt tusendelar av en sekund: Från tiondelar av en millisekund för elektriska signaler till ett par millisekunder för kemiska signaler. Och någonstans i denna kaotiska gröt av kemi och elektricitet som sköljer fram och tillbaka i huvudet uppstår tankar, reflektioner, associationer.
Men i den elektroniska kopian ser det helt annorlunda ut. Tusentals, kanske hundratusentals eller till och med miljontals neuroner. Men långt från några miljarder. Kopplingarna, motsvarigheten till synapser, går snabbt på nanosekunder och de är välorganiserade i fina mönster.
Artificiella neurala nätverk har varit hyfsat framgångsrika och det fanns tidigt försök där till exempel bilar lärde sig köra på egen hand. Men det har visat sig att ren statistik är minst lika effektiv och ofta snabbare att nå samma resultat. Detta har mynnat ut i en av dagens hetaste delar av datalogin: Big Data. Stora datamängder processas och mönster hittas som det mänskliga ögat skulle ha behövt 1000-tals år att hitta. Bara för att det är så enormt stora datamängder som skall tröskas igenom. Just detta använder Facebook, Apple, Google och tiotusentals andra företag idag för att upptäcka vilka produkter och tjänster som vi är mest sannolika att spendera pengar på.
Intelligent? Kanske det. Girigt tänker åtminstone jag på först.
Det intelligenta Internet då? Jo, tänk varje dator som en neuron och dess kopplingar mot Internet och andra datorer som synapser. Synapserna reagerar relativt långsamt – mellan tusendelar av sekund upp till någon sekund kan det ta för en signal att nå datorn eller telefonen i rummet intill. Eller på andra sidan jorden. Redan Internet i sig var ett gigantiskt kliv mot att alla datorer är sammankopplade i en jättelika hjärna, men med de smarta telefonerna är vi uppe i miljarder apparater som kan kommunicera med varandra.
Och nu kommer The Internet of Things – om några år är även kylskåpet, brödrosten, elementen, lamporna uppkopplade och interagerar.
Kanske behövs det ett enda litet livgivande virus för att kicka igång det hela. Då kommer vi att bo mitt i ett medvetande som hör allt, ser allt, vet allt.
Spännande?
/David Armini