Blogit

”Edessämme on monimutkaisia haasteita, jotka edellyttävät syvällistä tekoälyteknologian ymmärtämistä, eikä meillä ole vielä kaikkia vastauksia,” toteaa Tor Indstøy.

Tekoäly on sitä mitä teemme siitä – ja samaan aikaan sekä uhka että mahdollisuus

Tekoäly on tällä hetkellä kuumaakin kuumempi aihe, ja sitä hyödynnetään monilla eri toimialoilla sisällöntuotannosta teollisuuteen asti. Yksi sen eniten keskustelua herättävä sovellusmuoto on kyberturvallisuus, jonka saralla tekoälyä voidaan hyödyntää niin puolustautumisessa kuin hyökkäämisessäkin. Miten tekoäly siis oikeastaan toimii ja mitkä ovat tärkeimmät asiat, jotka siitä pitäisi tietää?

Tekoäly tai AI (artificial intelligence) mallintaa ihmisälyä koneissa, jotka on ohjelmoitu ajattelemaan, oppimaan ja ratkaisemaan ongelmia kuten ihmiset. Tekoälyä voidaan ajatella koneena, joka pystyy jäljittelemään ihmisen käyttäytymistä.

"Tällä hetkellä tekoäly on varsin nuori tekniikka, ja sillä on luultavasti noin 11-vuotiaan lapsen aivokapasiteetti. Nykyiset tutkimukset osoittavat, että tuhannen ihmisen testiryhmän jäsenet pystyivät tunnistamaan tekoälyn tuottaman sisällön noin 55 prosentin tarkkuudella. Kun me tuotamme ja syötämme tekoälylle jatkuvasti enemmän dataa, siitä tulee aina vain älykkäämpi ja se pystyy matkimaan ihmisen kykyjä yhä paremmin”, selittää Telenorin riskienhallinnan ja uhkatiedustelun johtaja Tor Indstøy

Indstøy puhuu innokkaasti tekoälyn mahdollisuuksista riippumatta siitä, luokitellaanko tulokset hyviksi vai pahoiksi. Indstøy selittääkin tekoälyn salaisuuksia perustavanlaatuisesta näkökulmasta: Kaikki tekoäly ei ole samanlaista, ja siksi on tärkeää tietää erot sen eri muotojen välillä. 

”Ensinnäkin on klassinen tekoäly, joka viittaa tekoälyn tutkimuksen ja kehityksen varhaiseen aikakauteen, jossa keskityttiin luomaan eksplisiittisiä, sääntöihin perustuvia järjestelmiä, jotka käsittelivät symboleja tehtävien suorittamiseksi. Nykyään kun puhumme tekoälystä, tarkoitamme sen edistyneempiä versioita, kuten generatiivista tekoälyä tai LLM:ää", Indstøy jatkaa. 

Generatiivinen tekoäly (generative AI) ja LLM (large language models) ovat molemmat tekoälyn alalajeja, mutta niillä on eri tarkoitukset ja omat ominaisuutensa. Generatiivisella tekoälyllä tarkoitetaan tekoälymalleja, jotka on suunniteltu luomaan uutta dataa tai sisältöä sen perusteella, millaista dataa sinne on syötetty. LLM on taas tekoälymalli, joka on erikoistunut ymmärtämään ja luomaan ihmisten kieltä, kuvia tai videoita. 

Tekoäly kaipaa tuekseen yhteistyötä 

Indstøy näkee tekoälyn muutosvoimana – tämän päivän teollisena vallankumouksena. Hänen mukaansa elämme parhaillamme tekoälyn aikakautta. Meillä on enemmän dataa kuin koskaan aiemmin, ja olemme kytkeytyneitä digitaalisiin laitteisiimme monin eri tavoin, luoden jatkuvasti yhä enemmän dataa. Meillä on älykelloja, jotka seuraavat kaikkea askelistamme nukkumiseen ja yhdistävät kerätyt tiedot puhelimen sovelluksiin. Näin karttuu miljardeja datapisteitä tekoälyn kehittämiseen ja Indstøyllä onkin siitä visio: 

"Voisimme kouluttaa tekoälyä kaikella tiedolla, jota tuotamme ja luoda tekoälyn, joka tietää kaiken. Tekoäly voi tietää ja oppia ainoastaan asioita, jotka me syötämme sille. Mitä enemmän sille annamme, sitä enemmän voimme saada siltä." 

Mutta pitäisikö meidän antaa kaikki tietomme tekoälylle? Suuremman tietomäärän avulla tekoälyjärjestelmät saavat mahdollisuuden oppia laajasta esimerkkien kirjosta, mikä parantaa tarkkuutta ja yleistietämystä. Tämä on monimutkainen aihe, joka sisältää sekä etuja että haasteita: Valtavien tietomäärien käyttö herättää niin eettisiä kuin tietosuojaankin liittyviä huolenaiheita, etenkin kun käsitellään arkaluontoisia henkilötietoja tai liikesalaisuuksia. 

Indstøy korostaa, että ihmisen käyttäytymisen, psykologian ja päätöksenteon ymmärtäminen on riskienhallinnan ytimessä. Tällä hän viittaa siihen, että usein juuri ihmiset ovat keskeisiä riskitekijöitä – kuten on esimerkiksi kyberturvallisuudessa. Arvioimme riskejä arkipäiväisissäkin tilanteissa jatkuvasti, ja sama ajattelutapa tulee ottaa käyttöön myös tekoälyn kanssa. 

Indstøy korostaa voimakkaasti ihmiskeskeistä riskien ymmärtämistä, mikä viittaa riskienhallinnan muotoon, joka asettaa vahvan painopisteen ihmisen käyttäytymisen, psykologian ja päätöksenteon ymmärtämiseen erilaisten riskien kontekstissa. Tämä lähestymistapa tunnistaa, että ihmiset ovat keskeisiä tekijöitä monentyyppisissä riskeissä, kuten kyberturvallisuudessa. Me ihmiset arvioimme riskejä koko ajan arkipäiväisissäkin tilanteissa – ja tämä ajattelutapa meidän tulee ottaa käyttöön myös tekoälyn kanssa.  

”Yrityspäättäjät selvittävät parasta tapaa hyödyntää tekoälyä, mutta he ovat myös huolissaan sen mahdollisista riskeistä. Edessämme on monimutkaisia haasteita, jotka edellyttävät syvällistä tekoälyteknologian ymmärtämistä, eikä meillä ole vielä kaikkia vastauksia. Tekoälyn saralta kuitenkin puuttuu yksi olennainen asia, ja se on yhteistyö. Jos voisimme yhdistää kaiken kyberturvallisuusosaamisen ja tietämyksen tekoälystä yrityksissä sekä yritysten ja julkisen sektorin välillä, saisimme enemmän tietoa ja pystyisimme hyödyntämään tekoälyä paremmin", hän selittää. 

Tekoäly tulee jallittamaan meistä jokaista 

Millaisia riskejä tekoäly sitten aiheuttaa kyberturvallisuudessa? Yksinkertainen vastaus on, että hyökkäykset tulevat paranemaan ja tehostumaan. 

”Tekoälyn avulla kyberrikolliset voivat toteuttaa tarkasti uhrille kohdennettua tietojenkalastelua, jossa huijaus hyödyntää esimerkiksi sosiaalisesta mediasta kerättävää tietoa – tietojenkalastelu ei ole enää helposti tunnistettavaa, huonosti kirjoitettua sähköpostia toimitusjohtajalta. Myös deep faket uhkaavat rikkoa käsityksemme todellisuudesta. Tekoäly voi helposti luoda videon, jossa kuka tahansa saadaan sanomaan mitä tahansa”, Indstøy kuvailee. 

Minä, tämän artikkelin kirjoittaja, sain kokea tekoälyllä tuotetun deepfaken voiman haastatellessani Indstøyta. Minuutin sisällä Indstøy oli luonut, luvallani, väärennöksen äänestäni. Väärennetty ääni oli niin aidon kuuloinen, että sillä saattaisi helposti huijata ystäviäni – mutta ei ehkä äitiäni. Kuinka voimme puolustautua tällaista voimaa vastaan? 

"Kaikki tulevat tekoälyn huijaamiksi ennemmin tai myöhemmin, eikä sitä tarvitse hävetä. Ensimmäinen askel puolustuksessamme onkin tunnustaa tekoälyn olemassaolo ja mahdollisuudet. Meidän on kommunikoitava enemmän toistemme kanssa ja autettava muita oppimaan virheistämme. On myös hyvä muistaa vanha totuus: jos jokin on liian hyvää ollakseen totta, se luultavasti onkin." 

 

Millä tavoin sinun yrityksesi voi hyötyä tekoälystä? Lue lisää siitä, miten Microsoft Copilot toimii apuna monissa tehtävissä!

 

Artikkeli päivitetty 18.11.2024. Alunperin artikkeli on julkaistu 8.4.2024.

Avainsanat:

Digitalisaatio Teknologia Tietoturva Tekoäly Kyberturvallisuus Teknologiatrendit

Lue lisää uudesta työstä

Artikkeli
12/2024 DNA Yrityksille

Äärimmäiset sääolosuhteet voivat vaikuttaa verkkoihin – DNA toimii ripeästi yhteyksien palauttamiseksi

Blogi
12/2024 Joosua Nikkinen

Mobiilivarmenne suojaa yritystä ja työntekijää – tietoturva on osa vastuullisuutta

Artikkeli
12/2024 DNA Yrityksille

Mikä yhdistää tunneälykästä tekoälyä, humanoidirobotteja ja oppimisen johtamista? Teknologiatrendit 2025 tietenkin!

Artikkeli
SOC-tietoturvapalvelu tukee yritystä taistelussa kyberuhkia vastaan
12/2024 DNA Yrityksille

SOC-tietoturvakeskus tukee yritystä taistelussa kyberuhkia vastaan

Teknologiatrendit 2025

Teknologian vuosi 2025 on lunastusten aikaa: tekoälylle asetetut odotukset alkavat konkretisoitua, siviili- ja puolustusteknologioiden käyttöulottuvuudet laajenevat ja yritysten kestävän kehityksen tavoitteita jalkautetaan käytäntöön.

Mitkä trendit tulevat vaikuttamaan merkittävästi tulevaisuuteemme niin arjessa kuin sen ulkopuolella?

 

Pysy digitalisaation vauhdissa.

Tilaa DNA Yrityksille -uutiskirje sähköpostiisi!

Hyödynnetäänkö teillä jo uuden työn mahdollisuuksia? Ota yhteyttä – katsotaan yhdessä parhaat ratkaisut yrityksellesi.