AIs andre bølge: Statistisk læring
Mens den vitenskapelige forskningen på kunstig intelligens knapt nok produserte nye publikasjoner og resultater, skjedde det enorme fremskritt på andre områder som hadde stor relevans for videreutviklingen. Mellom 1990 og 2010 ble datakraft og lagringskapasitet stadig bedre, og det betydde også et reelt løft for forskningen på og utviklingen av AI. Temaet ble vekket fra vinterdvalen og var igjen tilbake på agendaen.
Et synlig resultat fra denne tiden: Deep Blue (1996), IBMs sjakkrobot, som slo den daværende verdensmesteren i sjakk Garri Kasparov i ett enkelt parti. I et TV-show fjorten år senere slo IBMs AI-System Watson (2011) alle daværende menneskelige sjakkmestere. Watson demonstrerte at den kunne gjenkjenne bilder, forstå naturlig språk og trekke slutninger på grunnlag av informasjon.
Maskinlæring
Med utviklingen av stadig bedre lagrings- og datakraft ble det mulig å bruke adaptive statistikkmodeller på store datavolum, modellere strukturene i disse dataene og lage spådommer basert på dem. Resultatet ble maskinlæring, som i dag av hvert femte foretak. I løpet av de neste fire årene er det spådd en tidobling av verdiskapingsandelen til denne «kommersielle AI».
Dyp læring
I de senere år er dyp læring, forskningsdisiplinen for dype nevrale nettverk, blitt et populært begrep. I 2011 oppsto det en ny, omfattende interesse for teknologien, fra næringslivet til politikken. Siden da har forskningen og utviklingen skutt fart.
I motsetning til under den første AI-fasen har vi i dag kostnadseffektiv og enormt effektiv datakraft, først og fremst takket være Cloud Computing. Den stadig økende individualiseringen av Internett sørger for en kontinuerlig strøm av nye data. Med den omfattende evalueringen av disse dataene blir nå dyp læring fullt mulig: Maskiner lærer selvstendig og utvider sin kunnskap ved hjelp av egne tolkninger av dataene ut fra tyngdepunkt- eller klyngedannelse innenfor dataregistreringene.