Miksi tekoälymatkalla tarvitaan suunnitelmallista hallintoa
Tekoäly (AI) on tämän päivän kuuma aihe lähes kaikissa yrityksissä ja useimmat ovat kiinnostuneita tutkimaan sen väitettyjä hyötyjä. Tekoälyyn liittyy kuitenkin mahdollisia haasteita ja riskejä, jotka on käsiteltävä turvallisen, vastuullisen, luotettavan ja eettisen kehittämisen, täytäntöönpanon ja käytön varmistamiseksi. Tässä kohtaa ISO/IEC 42001 -tekoälyn hallintajärjestelmästandardi toimii tunnustettuna pilarina, joka ohjaa kehitystä ja tarjoaa luotettavia tekoälyratkaisuja.
Tekoäly on ollut olemassa jo jonkin aikaa, mutta vasta viime aikoina se on saanut innostuneen vastaanoton. Tuoreessa DNV:n tekemässä ViewPoint-tutkimuksessa todettiin, että merkittävä osa yrityksistä (58 %) ei ole vielä ottanut käyttöön tekoälyteknologiaa ja kaiken kaikkiaan yli 70 %:n voidaan sanoa olevan vasta tekoälymatkan alussa. Luvut osoittavat, että tekoäly ei ole vielä strateginen prioriteetti valtaosalle yrityksistä.
Monet kyselyyn vastanneista yrityksistä saattavat olla aloittelevia tekoälyn suhteen, mutta ne eivät ole yleisesti ottaen uusia yrityksiä tai ne eivät vierasta hallinnon tarvetta tai hyötyjä. Yritykset ovat jo ottaneet käyttöön vähintään yhden ISO-standardin, kuten ISO 9001 (laatu), ISO 14001 (ympäristö) tai ISO/IEC 27001 (tietoturva) mukaisen johtamisjärjestelmän. Etenkin kaikkein varhaisimmassa vaiheessa olevat organisaatiot eivät kuitenkaan ole vielä havainneet tarvetta soveltaa tekoälyynsä samaa lähestymistapaa.
Hallintotavan lisääntyvä tarve
Aloittelevat yritykset keskittyvät ensisijaisesti käyttämään tekoälyä tehokkuuden lisäämiseen ja prosessien parantamiseen sisäisesti. Tämä on tyypillinen ensimmäinen askel, koska Copilotin ja ChatGPT:n kaltaiset ratkaisut ja niiden toteuttaminen ovat suhteellisen yksinkertaisia. Yritysten kypsyessä on kuitenkin tapana siirtyä kohti ulkoisia, monimutkaisempia tekoälyaloitteita, joilla pyritään tuottamaan liikevaihtoa ja tutkimaan uusia liiketoimintamahdollisuuksia. Kehityksen myötä lisääntyy myös tarve jäsenneltyyn hallintotapaan, jolla voidaan parhaiten hallita riskejä ja varmistaa tekoälyn turvallinen, luotettava ja eettinen kehittäminen, täytäntöönpano ja käyttö.
Tekoälyyn liittyvä sääntely on lisääntymässä ja yritysten on osoitettava noudattavansa sitä. Lisäksi monet käyttäjät suhtautuvat tekoälyyn epäilevästi, mikä aiheuttaa luottamuspulaa, joka on kurottava umpeen. Luottaaksemme teknologiaan ja voidaksemme hyödyntää sitä meidän on ymmärrettävä, miten se toimii, ja pystyttävä arvioimaan sen turvallisuutta, luotettavuutta ja avoimuutta. Tätä asiaa korostetaan AI Assurance Clubin maaliskuussa 2024 julkaisemassa raportissa AI Governance and Assurance Global Trends 2023-24. Raportissa kerrotaan yksityiskohtaisesti globaaleista trendeistä ja lainvalmistelun kehityksestä eri puolilla maailmaa. Luottamuksesta raportissa todetaan: ”Tekoälyn hallinnan palapelin keskiössä on luottamuskysymys. Kun tekoälyjärjestelmät sulautuvat yhä enemmän elämäämme - infrastruktuuriin, liiketoimintaprosesseihin, julkisiin palveluihin tai kulutustavaroihin - käyttäjien on voitava luottaa siihen, että järjestelmät toimivat johdonmukaisesti tarkoitetulla tavalla aiheuttamatta vahinkoa."
Kuilun kaventaminen
Luottamusvajeella tarkoitetaan mahdollista luottamuksen puutetta ja avoimuuden puutetta organisaation tekoälyyn perustuvien tuotteiden ja/tai palvelujen suhteen. Jos esimerkiksi sairaala käyttää tekoälyä hyödyntävää diagnostiikkaa, voinko potilaana luottaa siihen, että se on yhtä hyvä tai jopa parempi kuin lääkärin itsensä tekemä diagnoosi? Luottamusvajeen kurominen umpeen ennen kuin tekoälyjärjestelmistä tulee liian monimutkaisia ja itsenäisiä, edellyttää vahvaa hallintotapaa.
Luottamuksen rakentaminen on yksi keskeisistä piirteistä kaikissa ISO-johtamisjärjestelmästandardeissa, joten ei pitäisi olla yllätys, että samaa lähestymistapaa voidaan soveltaa tekoälyyn. ViewPointin kyselytutkimus osoitti, että useimmat tekoälyä kehittävistä ja käyttöön ottavista yrityksistä harkitsevat jo tekoälyn hallintajärjestelmän käyttöönottoa varmistaakseen riittävän hallinnoinnin ja ovat jo tietoisia ISO/IEC 42001 -standardista.
Useita tekoälyn viitekehyksiä ja täydentäviä standardeja on jo olemassa, kuten NIST AI Risk Management Framework, ISO/IEC 23894 AI-ohjeet riskienhallinnasta, ISO/IEC 5338 AI-järjestelmän elinkaariprosessi ja ISO/IEC TS 25058. Joulukuussa 2023 ISO lanseerasi ISO/IEC 42001 -standardin tekoälyn hallintajärjestelmästä (AIMS). Kyseessä on ensimmäinen sertifioitavissa oleva AIMS-standardi, joka tarjoaa luotettavan lähestymistavan tekoälyn monien mahdollisuuksien ja riskien hallintaan koko organisaatiossa. Standardi auttaa siis yrityksiä ottamaan askeleen eteenpäin luottamuspulan kaventamisessa, sillä vaatimustenmukaisuuden tuloksena on DNV:n kaltaisen riippumattoman kolmannen osapuolen myöntämä sertifikaatti. Koska standardi perustuu ISO High Level Structure (HLS) -standardiin, se voidaan lisäksi helposti integroida muihin johtamisjärjestelmiin.
ISO/IEC 42001 -standardi perustuu samoihin korkean tason rakenteisiin kuin muut ISO-johtamisstandardit, joten se on tuttu yrityksille, joilla on käytössä jokin muu ISO-johtamisjärjestelmä. ISO/IEC 42001:ssä noudatetaan ”Plan-Do-Check-Act”-menetelmää, ja siinä määritellään vaatimukset ja keskitytään tekoälyn hallintajärjestelmän perustamiseen, toteuttamiseen, ylläpitoon ja jatkuvaan parantamiseen. Kun tiedetään, että kaikki ViewPointin kyselyyn vastanneet pitivät kyberturvallisuutta tekoälyn käyttöönoton suurimpana uhkana, voi olla erittäin hyödyllistä integroida järjestelmä ISO/IEC 27001 -standardin mukaiseen tietoturvallisuuden hallintajärjestelmään.
Luottamuksen rakentaminen
ISO/IEC 42001 -standardin merkitys korostuu epäilemättä entisestään, kun yhä useammat maat ottavat käyttöön tekoälyä koskevia säännöksiä. Yhdysvalloissa ja Kiinassa on jo olemassa säännöksiä ja toimintatapoja. Euroopassa tuli hiljattain voimaan maailman ensimmäinen kattava tekoälylaki, EU AI ACT. Lailla pyritään edistämään ja varmistamaan tekoälyjärjestelmien turvallista, varmaa, luotettavaa ja eettistä kehitystä, ja tekoälyä koskevan hallintotavan luominen on keskeinen näkökohta sääntelyn noudattamisen varmistamisessa ja luottamuksen rakentamisessa.
Tekoälyn hallinnoinnin varmistamiseksi on keskeistä luoda monien tiimien välille yhteinen keskustoiminto, joka tunnistaa ja ymmärtää tekoälyteknologiat, käyttötilanteet ja palveluntarjoajat. Lisäksi tekoälyn jatkuvasti muuttuvan toimialan ja sen muuttuvan sääntely-ympäristön vuoksi on välttämätöntä, että tunnistettu hallituskomitea ja eri sidosryhmät arvioivat ja päivittävät tekoälyn hallintaohjelmaa säännöllisin väliajoin. Tässä on toinen hyöty, joka liittyy ISO/IEC 42001 -standardin mukaisen hallintajärjestelmän käyttöönottoon ja sertifiointiin.
Suunnitelmallisen lähestymistavan omaksuminen tekoälyn hallintaan ja vastuulliseen käyttöön voi lopulta olla kilpailuetu, sillä se auttaa yrityksiä osoittamaan sisäisille ja ulkoisille sidosryhmille, että yrityksellä on käytössään luotettava lähestymistapa käyttäjien suojelemiseksi ja jatkuvaan parantamiseen. Sertifioitu johtamisjärjestelmä osoittaa yrityksen sitoutumisen ja toimenpiteet, joita se toteuttaa päivittäin varmistaakseen tekoälyn turvallisen, luotettavan ja eettisen kehittämisen, käyttöönoton ja käytön prosesseissaan sekä tuote- ja palvelutarjonnassaan.