FAKTANTARKISTUS 2 Media julkaisee päivittäin höpöä, nettikeskusteluista puhumattakaan.

Tekoäly ja syväoppiminen (deep learning)

  • AI for dummies
    AI for dummies

Kuva kertoo mistä syväoppimisessa on kyse. En ole nähnyt yhtään hyvää määritelmää syväoppimiselle. Wikikin höpsii kuten monet muutkin, vahvennetut kohdat seuraavassa lainauksessa: 

”Syväoppiminen (deep learning) on neuroverkkoon perustuva tapa tekoälylle oppia jäljittelemällä ihmisaivojen tapaa oppia. Syväoppimisessa virtuaaliset neuronit mallintavat todellista aivotoimintaa kerros kerrokselta.”

Yksi monista tekoälyyn liittyvistä harhoista on, ettei syväoppiminen vaadi ohjelmointia.

 

Piditkö tästä kirjoituksesta? Näytä se!

1Suosittele

Yksi käyttäjä suosittelee tätä kirjoitusta. - Näytä suosittelija

NäytäPiilota kommentit (13 kommenttia)

Käyttäjän rkoski kuva
Raimo Koski

Jos käyttää suomenkielistä wikiä, ei paljon mitään löydä erikoisemmista aiheista. Get better data!

Käyttäjän grohn kuva
Lauri Gröhn

Totta.

Deep learning models are vaguely inspired by information processing and communication patterns in biological nervous systems yet have various differences from the structural and functional properties of biological brains, which make them incompatible with neuroscience evidences. Wiki

Mutta kahden päivittäisen nousuveden syistä englanninkielinenkin wiki höpsii.

JPK Jäntti

Yllä olevasta Wiki-linkistä löytyy kommentti:

"Syväoppimista käytetään erityisesti sellaisten ongelmien ratkaisemiseen, joissa perinteisillä menetelmillä tehdyt ratkaisut vaatisivat erittäin monimutkaisia sääntöjä."

Yllä olevan kuvan mukaan syväoppimalla datan määrän kasvaessa suorituskyky (performance) paranee, toisin kuin vanhemmilla (older) algoritmeillä.

Kun yhdistän edellä olevan Wiki-lainauksen ja kuvan viestin, niin onko oikea johtopäätös todeta, että syväoppimisen suorituskyky perustuu sääntöjen yksinkertaistamisen (verrattuna vanhempiinn algoritmeihin) seurauksena ja monimutkaisten sääntöjen vaihtoehtona yleistämiseen?

Eli perustuuko syväoppimisen tehokkuus induktiiviseen päättelyyn ilman deduktiivista teoreettista viitekehystä? Vai onko prosessi myös abduktiivinen? Vai kuuluuko Wiki-lainaukseni myös "höpsis"-kategoriaan? Mistä syväoppimisen tehokkuus on seurausta eli mikä selittää kuvan eron syväoppimisen ja vanhempien algoritmien välillä?

Olen yksinkertaisuudessani aina kuvitellut, että yksinkertaisin malli todellisuudesta on hyvä teoria.

Käyttäjän grohn kuva
Lauri Gröhn

Syväoppimista ei voi määritellä, vaatii monen sivun selostuksen

Käyttäjän jormamoll kuva
Jorma Moll

Onkos tässä tilanne nyt sellainen, että jotkut koettavat keksiä mitä ihmeellisempiä sanoja ja toiset yrittävät selittää niiden merkitystä

Käyttäjän grohn kuva
Lauri Gröhn Vastaus kommenttiin #5

1.Suomalainen wiki kirjoittaa roskaa syväoppimisesta.
2. Kuva 2 kertoo jotain olennaista syväoppimisesta.

Käyttäjän pekkalampelto kuva
Pekka Lampelto

Voisihan tuota pohtia tässäkin. Gradussani pohdin tätä asiaa myös jonkin verran. Siinä case-studynä oli IBM:n Watsonin kyvykkyydet.

Kokeilu numero yksi:

Määritelmä: Syväoppiminen on suurta datamäärää hyödyntävä algoritmikokoelma, joka suorittaa korrelaatioanalyysia ja relaatioanalyysia laajasta joukosta näennäisesti toiseen liittymättömiä tietokokonaisuuksia tunnistaen samalla uusia, ihmisen ennustamattomia hahmoja.

Vertailu: Syväoppinen suorittaa vertailua ja korrelaatioanalyysia laajemmasta joukosta muuttujia eri tietoalueilta, monesta eri näkökulmasta, tunnistaen automaattisesti uusia hahmoja, joita ihminen ei osaisi itse ennustaa. Se voisi yhdistellä monia eri aihealueiden yksittäisiä koneoppimisalgoritmeja luoden metatason hahmontunnistusta. Perinteisessä koneoppimisessa algoritmi on suunniteltu tunnistamaan hahmoja esim. asuntojen hintojen kehityksestä jollakin asuinalueella eri muuttujilla suhteessa aikaan. Perinteinen koneoppimisalgoritmi voi esim. löytää uusia korrelaatioita tietyssä rajatussa viitekehyksessä ja antaa hinnoittelu-suosituksia datasta muodostetun hahmontunnistuksen pohjalta.

Esim.: Syväoppimisalgoritmi voi löytää yllättäviä yhteyksiä ja uusia abstraktioita asuntojen hintojen kehityksen, ja vaikkapa taloustieteen tutkimuspaperijulkaisujen sisällön, sekä ilmastonmuutoksen välillä. Se voisi esim. tunnistaa, että tietyn sisällön omaavat paragraafit taloustieteen tutkimuksessa korreloivat asuntokaupan kiihtymisen kanssa, sekä ilmastonmuutoksen medianäkyvyyden kanssa. Se voisi esittää jonkin uuden hypoteesin, miten ihmisen massa-ajattelu toimii, jopa kehittää uusia käsitteitä kuten "Laajojen ilmastomuutosten odotukset taloudellisessa käyttäytymisessä" tai jotain paljon yllättävämpiä yhteyksia.

Muuta:
Joskus oli artikkeli, että Wikipediassa kaikki linkit johtavat viime kädessä filosofia-artikkeliin tms. Voisi ajatella, että filosofia on lähellä ihmisen kielellisen tietämyksen organisoinnin syvintä metatasoa.

Käyttäjän grohn kuva
Lauri Gröhn

Määritelmäsi on kelvoton alkaen tuosta ”algoritmikokoelma, joka ...”

Käyttäjän pekkalampelto kuva
Pekka Lampelto

Olisiko parempi "algoritmi" tai "ohjelma"?

Käyttäjän grohn kuva
Lauri Gröhn Vastaus kommenttiin #11

Ei. Syväoppiminn ei sovellu tuollaiseen.

Käyttäjän pekkalampelto kuva
Pekka Lampelto

Yksi sovellus syväoppimisalgoritmeihin voisi olla tieteellinen työ. Miksipä syväoppimisalgoritmit eivät voisi käydä läpi lääketieteen ja ravintotieteen julkaisuja, ja löytää uusia hypoteeseja, mikä on terveellistä ja mikä ei? Nythän ihmiset lukevat tieteellisiä artikkeleita ja muodostavat tutkimushypoteeseja, ja koittavat falsifioida väittämiä vaikkapa rasvan terveellisyydestä tai epäterveellisyydestä.

Käyttäjän erkkilaitila1 kuva
Erkki Laitila

Hohhoijaa,
tämä on niin mielenkiitoisen arveluttava termi, että taidan tehdä siitä pikatutkimuksen: palaneen käryä...

Tämän blogin suosituimmat

Kirjoittajan suosituimmat Puheenvuoro-palvelussa

Mainos

Netin kootut tarjoukset ja alennukset